Czy człowiek myśli?
Jednym z głównych tematów tego cyklu jest problem, jaka jest relacja między człowiekiem a maszyną, czy maszyna potrafi myśleć tak jak my, czy maszyny zastąpią nas i wyprzedzą w tworzeniu nauki – czyli relacja między inteligencją naturalną, a sztuczną.
Aby sensownie móc to rozważyć, zastanówmy się najpierw, co to w ogóle jest myślenie. W pierwszym podejściu można by zdefiniować myślenie jako zespół procesów zachodzących w ludzkim mózgu, z czego w prosty sposób wynikałoby, że (każdy) człowiek myśli, a nikt inny/nic innego – nie. Dość szybko widać, że takie postawienie sprawy po pierwsze jest tautologią, czyli stwierdza, ża x=x, a po drugie nie jest zbyt uczciwe. Jedno, co można powiedzieć w jego obronie to to, że daje nam przyjemne poczucie wyższości nad wszystkimi innymi tworami natury i tworami ludzi.
Spróbujmy zabrać się do sprawy bardziej obiektywnie. Matematyk Alan Turing (1912-1954) zaproponował następujący test, czy badany obiekt wykazuje się inteligencją: komunikujemy się z nim za pomocą neutralnego urządzenia (ekran tekstowy) i prowadzimy konwersację – jeżeli nie jesteśmy w stanie stwierdzić, czy po drugiej stronie jest człowiek, czy maszyna, obiekt badany posiada inteligencję nieodróżnialną od ludzkiej. Test ten nazywany jest testem Turinga. Test ten ma wyraźne zabarwienie behawiorystyczne – rozpoznajemy obiekt po jego zachowaniu, nie wdając się w analizę niedostępnego z zewnątrz jakiegoś życia wewnętrznego. Jeżeli chodzi jak kaczka, kwacze jak kaczka i wygląda jak kaczka, to prawdopodobnie jest to kaczka.
Podejmowano próby stworzenia programu potrafiącego przejść test Turinga. Starym i najbardziej znanym przykładem, jest program ELIZA, prowadzący dialogi symulujące psychiatrę.
Z drugiej strony filozof John Searle (ur. 1932) sformułował tzw. argument chińskiego pokoju. Wyobraźmy sobie maszynę, która tak się zachowuje, jakby rozumiała chiński. Odbiera chińskie teksty i wykonywany przez nią program pozwala jej na wydawanie odpowiedzi po chińsku tak dobrze, że przechodzi test Turinga na osobnika rozumiejącego chiński. Ale czy naprawdę rozumie? Searle napisał: pójdźmy dalej – załóżmy, że to ja siedzę wewnątrz tej maszyny, wykonuję jej algorytm, przetwarzam wejściowe ciągi symboli na wyjściowe i zaliczam test Turinga. Ale ja WIEM, że chińskiego nie rozumiem, że manipuluję wyłącznie symbolami według zadanych przez kogoś reguł. Co dowodzi, że można zdać test, a nie rozumieć przetwarzanego tekstu. Argumentcja Searle’a sprowadza się w skrócie do dwóch punktów:
- Symulacja procesów mentalnych, to nie proces mentalny (jak symulacja jedzenia hamburgerów, to nie jedzenie hamburgerów)
- Przetwarzanie syntaktyczne, to nie przetwarzanie semantyczne
Jedna z odpowiedzi na argumenty Searle’a powiada, że osobnik w pokoju nie rozumie chińskiego, ale system – tak. Zróbmy mały eksperyment, tym razem z japońskim, co niewiele zmienia. Otwórzmy w jednym oknie stronę gazety Yomiuri Shimbun, a w drugim — elektroniczny słownik Jima Breena. Zamarkujmy dowolny fragment tekstu, przeciągnijmydo słownika, do okienka opisanego „Key or paste Japanese text in the box below” i kliknijmy na „Begin Translation”. Otrzymujemy coś takiego:
Można się domyślić, że ktoś znający japoński na tyle, by to poskładać, może zrozumieć, o co tu chodzi. Jest to doświadczenie myślowe, więc widząc, o ile jest to tłumaczenie lepsze od możliwych parę lat temu, możemy spokojnie założyć, że za dalszych parę lat będzie można je zrozumieć nie znając języka wcale. Mam też dający się ściągnąć z sieci Japanese Word Procesor, dzięki któremu jest mi łatwiej pisać japońskie teksty. Również tu jestem w stanie wyobrazić sobie istotny postęp. Już obecnie system (ja + maszyna) potrafi czytać i pisać teksty, których bez wspomagania nie rozumie system pozbawiony maszyny, czyli ja.
Istotnym punktem w powyższym eksperymencie jest jednak to, że w centrum jest człowiek, potrafiący przekształcić zdania wejściowe na semantycznie sensowne zdania wyjściowe, rozumiejący, o co chodzi.
Porównując człowieka z maszyną, dobrze byłoby rozważyć, czy człowiek myśli, czy każdy, i co to znaczy „rozumieć”, bo to ma być to, co my potrafimy, a maszyna nie.
Chcę dać przykład kolegi, który na kartkówkę z fizyki robił 7 gotowców – z każdego zadania z tego tygodnia – i wyciągał odpowiedni. Podobnie jak komputer przetwarzał czysto syntaktycznie symbole, nie wchodząc w semantykę i spełniał wobec asystenta test Turinga: wydając na wyjściu ciąg symboli odpowiadający sygnałowi na wejściu został uznany za jednostkę wykazującą się inteligencją. Innym razem wznieśliśmy się na wyżyny matematyki – wykład dotyczył całki Lebesgue’a. Tyle pamiętam, że zaczynało się to jakoś: „Jeżeli dla każdego x z niepustego zbioru X…”. Kolega zapytany z tego tematu zacytował: „Jeżeli dla każdego x z niepustego zbioru X…”, asystent zapytał: „No dobrze, ale jak to pan rozumie?”, na co kolega odpowiedział: „Ja to właśnie TAK rozumiem”. Zaliczył.
Lecz jednak – co to w końcu znaczy: rozumieć? Może po prostu zauważamy, że nowy fakt nie wisi już samotnie, lecz pasuje do znanego schematu, a gdy zatrzaskuje się w tym schemacie, w mózgu słychać „klik!”. Nagłe zrozumienie bardziej złożonych zależności jest silnym przeżyciem – jak powiedział Voltaire: „Je tremble!… car ce que je vais dire ressemble à un système” (Drżę, bo to, co powiem, przypomina system).
Można powiedzieć, że codziennemu doświadczeniu odpowiada mechanika newtonowska. Choć i tu miałbym zastrzeżenia: trzeba się przemóc, by uwierzyć, że kamień i piórkow zasadzie spadają z tym samym przyspieszeniem. Uwierzyć, bo o wiarę tu chodzi. Słyszałem, że Galileusz spuszczał różne obiekty z wieży w Pizie, ale mnie przy tym nie było. Lecz słyszałem to sto razy, więc wierzę. Potem dowiedziałem się, że nie można przekroczyć prędkości światła i że w związku z tym masa cząstki zależy od jej prędkości, a szybciej lecąc, żyje dłużej. Po stu razach przekonałem się i do tego. Dalej okazało się, że nie wiadomo, gdzie taka cząstka jest i dopiero pomiar (cokolwiek by to było) każe rozmytej funkcji falowej się na coś zdecydować. Konia z rzędem temu, kto potrafi to sobie wyobrazić. Ale znów słyszałem to tyle razy, że uwierzyłem. Ale czy naprawdę zrozumiałem?
Mam znajomą, która zajmuje się astrologią. Jest spod znaku Barana, ale obserwacja własnego charakteru i losu nie zgadzała się z horoskopem. Zauważyła jednak, że Ryby wykraczają poza swój wycinek nieba i wchodzą na teren Barana, z czego by wynikało, że wczesny Baran może mieć po części cechy Ryb. Zgadzało się!
Przyznaję, że gdy zabierałem się do tego tekstu, myślałem, że wiem, co to znaczy rozumieć. Teraz widzę, że pojęcie to jest o wiele mniej jasne, niż na początku. Może poza naszym odczuciem „rozumienia” nie ma nic poza stanami materii? W końcu i występująca przy odkryciu euforia (Eureka!) biochemicznie wytłumaczalna jest nagłym wydzielaniem serotoniny, że pozostawimy słowo „wytrysk” dla mniej intelektualnych rozkoszy.
Jest coś fascynującego i niezrozumiałego w tym przejściu między syntaktyką a semantyką, między manipulacją symbolami, a zrozumieniem znaczenia. Czuję się nieco nieswojo, wypisując na mojej maszynie o głupocie maszyn, ale sądzę, że jeżeli pojawi się teraz na ekranie zdanie „Maszyna nie myśli i nigdy nie będzie w stanie”, to ja będę je rozumiał, a mój komputer nawet nie drgnie. Mogę mu nawrzucać co chcę, jeszcze mi wydrukuje. I nie ma znaczenia fakt, że pochodzi z Redmond, a produktom z tej okolicy trudno przypisywać inteligencję, choć czasem podejrzewam je o wolną wolę, na ogół złą. A przecież jesteśmy obaj materialni – u niego to zdanie jest odwzorowane w zawartości pamięci i układzie pikseli na ekranie, a u mnie w aktywacji neuronów wzrokowych i głębszych struktur w mózgu, nawet moja perfidna radość z wykręconego maszynie figla jest wytłumaczalna elektrochemicznie – więc czym się od niego różnię?
Przypuszczam, że we mnie jest coś więcej, ale co to jest?
Kolaż: J. Titeux/pinezka.pl