Prof. Jacek HOŁÓWKA: Komputerowa kompulsja i wolna wola

Komputerowa kompulsja i wolna wola

Photo of Prof. Jacek HOŁÓWKA

Prof. Jacek HOŁÓWKA

Filozof i etyk, profesor nauk humanistycznych związany z Uniwersytetem Warszawskim. Autor m.in. Relatywizm etyczny, Wybrane problemy moralne współczesności, Etyka w działaniu.

Ryc. Fabien Clairefond

zobacz inne teksty Autora

Nauki komputerowe w powiązaniu z psychologią kliniczną już wniosły znaczny wkład do zrozumienia moralnych postaw i zachowań. W przyszłości ten związek może się okazać jeszcze ważniejszy – pisze prof. Jacek HOŁÓWKA

.Czy możemy nauczyć się od robotów odpowiedzialności, porządku, bezstronności, solidności, terminowości, przewidywalności i celowości działania? Chyba tak. Maszyny są systematyczne i przewidywalne. Co więcej, niektóre są całkiem sympatyczne. Na przykład R2-D2 z Gwiezdnych wojen był powszechnie lubianym robotem naprawczym. Wyglądał niezgrabnie, poruszał się ociężale, był podobny do beczki zamocowanej na kardanowym rozwidleniu, ale świecił oczami i popiskiwał bezradnie, czym podbijał serca widzów. Poza tym łatwo można było spostrzec, że każdą inną maszynę działającą wadliwie R2-D2 wyciągał z kłopotów sobie tylko znanymi sposobami. Od takiego robota można się wiele nauczyć przez proste naśladownictwo.

Przez wieki w podobny sposób ludzie uczyli się wzajem od siebie wielu cnót. Uczyli się także od zwierząt: pracowitości od pszczół, wytrwałości od bobrów, sprytu od lisa, nieprzystępności od jeża, ofiarności od pelikana i cierpliwości od mrówek. Nawet jeśli taka nauka była tylko mitem, to był to mit dobry i wychowawczy. Dlaczego więc i dzisiaj nie mielibyśmy uczyć się zasad porządkowania sobie życia od urządzeń sztucznej inteligencji? Może nawet zaczniemy oddawać dzieci do szkół prowadzonych przez cyborgi i androidy, jak w mitycznej Grecji oddawano chłopców na wychowanie centaurom? Achilles uczył się strzelać z łuku i grać na lirze u Chirona. Obecnie wielu uczniów wierzy, że z Wikipedii można się nauczyć więcej niż z lekcji w szkole. To dość smutny obraz współczesnej edukacji, ale jak to często bywa w życiu, mamy coś za coś. Dobre i to.

Z drugiej strony całkiem dobrą opinię o współczesnych metodach pedagogicznych mają liczni determiniści psychofizyczni i entuzjaści zafascynowani sztuczną inteligencją (czyli AI). Ich zdaniem nauczanie powinno być ściśle zaprogramowane, więc jest lepiej, jeśli programy edukacyjne są opracowywane w pracowniach komputerowych niż na wydziałach pedagogiki. O tych tendencjach pisze z pewnym zażenowaniem Michael S. Gazzaniga z Uniwersytetu Kalifornijskiego w Santa Barbara. Sam się od takich programów dystansuje, ale przyznaje, iż trafia mu do przekonania twierdzenie, że człowiek jest skomplikowaną maszyną składającą się z wielu względnie autonomicznych podzespołów – i ten pogląd zdecydowanie podważa przypuszczenie, że jesteśmy czystym myślowym podmiotem, czyli prostą i niepodzielną duszą uwięzioną w ciele, jak u św. Augustyna.

Gazzaniga odrzuca nawet pogląd podtrzymywany w potocznej psychologii, że każdy dorosły i psychicznie stabilny człowiek ma zdolność posługiwania się wolną wolą. Pisze, że „na poziomie psychologicznym nawet najbardziej zagorzali determiniści i fataliści nie czują się pionkami w partii szachów rozgrywanej przez mózg”. Tak się nie czujemy – dopowiada za nas – ponieważ wszyscy chcemy być królami i hetmanami, a nie pionami. To gruby błąd, uważa Gazzaniga. Czy nam to się podoba, czy nie, wszystkie figury na szachownicy są tylko drewnianymi klockami. Nie ma ważniejszych i mniej ważnych figur. Ich ruchami steruje niewidzialna inteligencja, najlepiej komputerowa, która lepiej lub gorzej oblicza szanse wygrania każdego z graczy po zastosowaniu rozmaitych strategii przeciwnika. W szachach uczciwie nie można zrobić nic więcej. I tu etyka spotyka się z czystym myśleniem. Możemy wygrywać – albo uczciwie, albo na skróty. Co to znaczy uczciwie – wyjaśnia etyka; co to znaczy „na skróty” – wyjaśnia informatyka lub AI. Te dziedziny muszą mieć zatem z sobą coś wspólnego.

W Polsce pionierem rozważań na takie tematy był Stanisław Lem. Starsi Czytelnicy mogą pamiętać, że pierwsze wydanie Summa technologiae Lema prezentowało na odwrocie okładki przedłużony schemat historii ludzkiego gatunku. Ze schematu wynikało, że za kilka stuleci Homo sapiens przekształci się w Homo technologicus. Schemat zawierał wszystko. Pokazywał, że pochodzimy od jakichś jednokomórkowych protoorganizmów, potem byliśmy zwierzętami wodnymi, następnie nadrzewnymi i lądowymi, z czworonogów przemieniliśmy się w istoty dwunożne, z zaborczych i zbierackich oportunistów staliśmy się budowniczymi szpitali i zakładów przemysłowych. Później udało się nam wysłać kilka ekip astronautów na Księżyc i coraz śmielej zaczęliśmy modyfikować nasze własne organizmy. Mamy już nie tylko tytanowe biodra, nazębne licówki porcelanowe i silikonowe ślimaki w uszach, ale przystępujemy do wyposażania ludzkich organizmów w elektroniczne detektory dysfunkcji i procesory regulujące zjawiska biologiczne. Być może nasi potomkowie będą mieli po urodzeniu wszczepiane interfejsy do głowy, które będą ich uczyć języków obcych przez bezpośrednie nagłaśnianie w uchu tłumaczenia wypowiedzi stojącego przed słuchaczem człowieka. Może będziemy wyposażeni w moduły teleskopowe i mikroskopowe w oczach, a także tak jak tłumaczeń będziemy mogli w dowolnej chwili słuchać transmisji oper wystawianych w Covent Garden lub w Metropolitan Opera. Przyszłość może być wspaniała.

Ale czy będziemy wtedy lepszymi ludźmi? Stanisław Lem nie twierdzi tego wprost, ale sugeruje, że tak. Będziemy mądrzejsi. A mądry człowiek nie popełnia głupich błędów. Złodzieje kradną, gdy sądzą, że nikt ich nie złapie. Politycy kłamią, gdy przypuszczają, że nikt ich oszustw nie zapamięta. Oligarchowie kupują jachty, ponieważ wierzą, że razem z jachtami stają się niewidoczni na powierzchni oceanu. W świecie rozwiniętym technologicznie wszelkie niewybredne draństwa będą zbyt oczywiste i łatwe do wykrycia. Tak myślał Stanisław Lem i tak chyba myślą dziś entuzjaści AI. Może mają rację.

Gazzaniga ma więc prawo wątpić w to, by wiara w powszechnie występującą wolną wolę mogła zasadniczo poprawić relacje międzyludzkie i że wszyscy nabiorą kiedyś manier demonstrowanych przez C-3PO, czyli że świat będzie łagodniejszy i lepszy. Wiemy jednak, że rozwój wiedzy i nowych technologii niekoniecznie przyczynia się do podniesienia poziomu życzliwości i uczciwości. Swój sceptycyzm wyraża Gazzaniga w prostym zaleceniu: „Porzućmy ideę wolnej woli”. Tu – moim zdaniem – idzie zbyt daleko. Przede wszystkim taki apel jest niekonsekwentny. Jeśli wyrzekniemy się wolnej woli, to nie będziemy mogli mocą własnej decyzji pozbyć się wiary w jej istnienie. Ponadto nie bardzo wiemy, co to jest wolna wola i jak ustalić jej występowanie u jednych ludzi i jej ewentualny brak u innych. Czy możemy przyjąć, że wolną wolę ma każdy i że każdy wedle swego uznania może jej zakres poszerzać lub zwężać? Albo czy jesteśmy pewni, że wolnej woli brakuje androidom i robotom? W tym chaosie niepewnych przypuszczeń może lepiej na początek zaufać ostrożnym postulatom filozofii niż ambitnym obietnicom AI.

Nie wiemy, kto zasługuje na większe zaufanie – przeciętny człowiek z ulicy, który wierzy w wolną wolę i w przewidywalność przedstawicieli naszego gatunku, czy Arnold Schwarzenegger w swej wspaniałej roli robota (lub może półrobota) chroniącego ludzkość przed jakimś totalnym zniszczeniem. Czy istotnie byłoby lepiej, gdybyśmy wszyscy przemienili się w dzielnych wojowników lub cierpliwych cyborgów i dążyli do budowania powszechnego szczęścia, mimo że będąc cyborgami, nie mielibyśmy zdolności do jego odczuwania? Miejmy też na uwadze, że w książkach i w filmach przeciętny android przypomina albo potwora, albo potulnego robotnika, o którym marzyli komunistyczni przywódcy. To był tani, pracowity, cichy i posłuszny człowiek, skłonny do gorliwego wypełniania zadań stawianych mu przez kolejne pięciolatki. Oddział przodowników pracy maszerujących ulicami w pochodzie pierwszomajowym niebezpiecznie przypomina rząd laptopów ułożonych na półce w sklepie komputerowym. Tu i tam mamy do czynienia z uśpioną inteligencją pozbawioną własnego celu. Nie ulegajmy złudzeniom: AI może nas przemienić w hordę zniewolonych wyrobników, którzy nienawidzą swojego życia i w porównaniu z ich udręką brak wolnej woli to małe piwo.

Jednak czemu w ogóle mielibyśmy uwierzyć Gazzanidze, że jesteśmy pozbawieni woli, czyli trwałych własnych przekonań i determinacji, by działać na własną odpowiedzialność? Czy do wyboru mamy tylko los eksploatowanego wyrobnika lub szczelnie zaprogramowanego robota? Dlaczego wiara w istnienie wewnętrznego „ja” to „iluzoryczna bańka” – jak pisze Gazzaniga?

Skupmy się na zasadniczym problemie. Mamy do wyboru dwie możliwości. Po pierwsze, możemy zaufać zwolennikom zdroworozsądkowej psychologii, którzy wierzą, że mamy liczne i indywidualnie formowane postawy przekonaniowe, w których zawiera się całe nasze osobiste życiowe doświadczenie, i ono leży u podstaw naszych poglądów społecznych, politycznych, moralnych i światopoglądowych. Za tym założeniem idzie przekonanie, że każdy ma „swoją własną prawdę”, uformowaną przez osobistą refleksję i oczytanie, i przekonanie, że każdy jest indywidualistą, czyli niezależnie myślącym człowiekiem, choć skłonnym do wysłuchania innych, mających osobne, własne doświadczenia. Kto przyjmie to indywidualistyczne stanowisko, ma prawo powiedzieć, że istnieje jako niepowtarzalne „ja”, które odróżnia go/ją od innych ludzi i nadaje jego/jej życiu osobny i unikalny sens. W konstruowaniu takiego obrazu silnie zindywidualizowanego samego siebie komputery nie mogą odgrywać istotnej roli. W teorii postulującej unikalność każdy myśli o sobie na własny sposób i rzekomo obiektywna wiedza na jego/jej temat nie ma istotnego znaczenia.

Po drugie, możemy przyjąć, że „prawda jest tylko jedna”, ponieważ wszyscy jesteśmy w zasadzie podobni do siebie nawzajem i nasz los jest, z grubsza biorąc, taki sam. Jest to los jednostki zanurzonej w tłumie. Każdy w takich warunkach reaguje jak inni, ulega tym samym bodźcom co otoczenie, a jego/jej osobiste wrażenia są tylko aberracjami, które nie mogą być podstawą do tworzenia trafnego obrazu własnej osoby. Tak więc nikt z nas nie ma własnego „ja” i każda wiedza, także introspekcyjna, jest jedynie efektem zastosowania uniwersalnych procedur. Tylko one zasługują na wiarygodność, ponieważ są zestandaryzowane i dają jednolite wyniki. Co z kolei oznacza, że to, jaką mamy być jednostką, jest pytaniem dotyczącym równie obiektywnego problemu, jak inne opisy znanego świata. Snując własne wizje dobrego życia, popełniamy błędy równie często, jak wówczas, gdy w oparciu o przelotne chmury na niebie próbujemy przewidzieć pogodę za miesiąc. Planowanie własnego życia jest równie obiektywnym problemem badawczym, jak ustalanie rutyny leczniczej przy grypie. Nie ma niczego takiego jak „własna grypa”. Ta wiara prowadzi do zniewolenia politycznego albo informatycznego.

Co więc wybieramy? Sądzę, że warto pozostać przy zdroworozsądkowej psychologii i zachować wiarę we własne „ja”. Jeśli tę wiarę odrzucimy, to pozostanie nam tylko uznanie, że naszą postawę wobec świata określa nasz mózg. A z mózgiem bardzo trudno się utożsamić. Co więcej, w istocie nasze „ja” reprezentuje nas z konieczności, ponieważ to logika nas z nim identyfikuje. Nasze „ja” nie może reprezentować nikogo innego oprócz nas. Czyli nie możemy się alienować od swojego „ja”. Z mózgiem jest natomiast całkiem inaczej. Mogę powiedzieć na przykład, że mój mózg jest zbyt chaotyczny i zbyt szybko wyciąga wnioski albo że nie ma ugruntowanego punktu widzenia i myśli zbyt wolno. Mózg jest tylko komputerem, którym posługuje się niewidzialne „ja” wyposażone w wolną wolę. Nie jest podmiotem, który przeżywa i odgrywa swoją rolę w świecie. Mózg nie planuje swej przyszłości. Można nawet uznać, że nasz własny mózg często nas rozczarowuje i zawodzi. To znaczy coś zupełnie innego niż powiedzenie, że ja sam siebie zawodzę. Ja siebie zawodzę tylko wtedy, gdy podejmuję decyzję, której później żałuję. Natomiast mój mózg mnie zawodzi, gdy źle rozwiązuje problemy, które mu zlecam, lub działa ospale. Jednak ten sam mózg nigdy nie rozczarowuje samego siebie. Może rozpoznać dokonane przez siebie błędy, ale za ich powstanie nie wini siebie, tylko jakieś zewnętrzne okoliczności. Działa jak komputer, a nie jak człowiek z komputerem.

Mózg umożliwia nam myślenie, pozwala wybierać stanowisko w wielu sprawach i ułatwia decyzje. Jednak to, co myślimy, jakie wybierzemy stanowisko i jakie podejmujemy decyzje, nie zależy od mózgu, tylko od treści przyjętych przez nas przesłanek. Mózg pełni usługową i wykonawczą funkcję wobec „ja”, które istnieje jako zbiór tendencji, ustaleń i projektów zapisanych w korze mózgowej. „Ja” manifestuje się przez liczne, zróżnicowane i samoujawniające się pragnienia. Moje „ja” ujawnia się w moich decyzjach, uczuciach i wahaniach. Jeśli ktoś chce, to może powiedzieć, że takie „ja” istnieje tylko potencjalnie, bo jest tylko pewnego rodzaju plikiem komputerowym, pasożytem tkwiącym w mózgu i konsekwentnie wykorzystującym mózg do własnych celów. Chyba istotnie tak się dzieje, ponieważ dzięki mózgowi jesteśmy tylko egzemplarzem Homo sapiens, natomiast do tego, byśmy mogli stać się ludzką jednostką, potrzebne jest jeszcze własne „ja”.

Czy Gazzaniga by się z tym zgodził? Nie wiem, dlaczego nie miałby chcieć to zrobić, choć zapewne nadal by twierdził, że nie mamy wolnej woli. Tak by twierdził, ponieważ podejrzewam, że przez wolną wolę Gazzaniga rozumie przyczynową siłę sprawczą, a nie zdolność do myślenia, do wyboru i do wykonania swobodnie wybranego działania. Elementarna wiedza o AI może nam pomóc odróżnić te dwie funkcje. Mózg umożliwia nam myślenie, ale to, co będziemy myśleć w sensie uznania za prawdę, wybieramy sami i nie pozwalamy, by mózg to aranżował inaczej niż my sami. Mamy więc prawo powiedzieć: „»Ja« to nie mój mózg, tylko moja trwała psychiczna podmiotowość, nawet jeśli jest zapisana jako plik w biologicznym komputerze”. Mówiąc jeszcze inaczej, nasza podmiotowość to zlokalizowana świadomość, zbiór utrwalonych przekonań, preferencji i upodobań oraz zdolność rozwiązywania problemów i podejmowania zobowiązań. Lub jeszcze inaczej – „ja” to pamięć mojej biografii powiązana w całość z moimi przekonaniami plus moje przyzwyczajenia, nieuświadomione warunki godzenia się ze światem i jakaś niezgoda na to, co utrudnia mi życie. Taki swoisty stan umysłu powstaje tylko w okolicznościach, w których czujemy się swobodnie i nie odczuwamy silnego pragnienia, by być kimś innym lub by być z zupełnie innymi ludźmi w zupełnie innym świecie. Zakładam, że istnieją ludzie niemający „ja”. Na przykład niemowlęta.

Myślę, że Gazzaniga nadal mógłby zaakceptować to wszystko, co tu piszę, zatem przyjmuję, że odrzucając wolną wolę, odrzuca jakiś inny obraz istnienia tej władzy niż „ja”. Co to może być? Sądzę, że Gazzaniga odrzuca jedynie możliwość przyczynowego wyprowadzenia naszych postaw i przekonań z faktów molekularnych z zakresu biologii i fizyki, z faktów składających się na nasz organizm. Czyli Gazzaniga podważa możliwość sterowania naszymi postawami przez dokonywanie manipulacji na faktach biologicznych i fizycznych. Zaprzecza istnieniu wolnej woli po to, by wyrazić pogląd, że nasze działania o charakterze fizycznym są powodowane wyłącznie przez inne fakty fizyczne, a my sami nie jesteśmy w stanie sterować nimi przez podejmowanie postanowień, czyli przez wywoływanie w sobie jakichś stanów psychicznych i przekonaniowych. I tu ma rację. Tego zrobić się nie da.

Gazzaniga wierzy w emergencję, czyli sprzężenie rozmaitych ciągów wydarzeń bez zachodzenia związku przyczynowego między nimi. Jednak niepotrzebnie dla uwypuklenia tej współzależności kwestionuje naszą zdolność swobodnego podejmowania decyzji, kwestionuje naszą wolną wolę. Tego nie musi robić. Wybrał niewłaściwą stylistykę do wyjaśnienia zjawisk, które chciałby wyjaśnić. Zwraca uwagę, że sterujemy sobą w dość dziwny sposób. Wprowadzamy samych siebie w pewne ciągi stanów psychicznych i fizycznych, a potem pozwalamy, by one swobodnie biegły i kumulowały się jako nasze wybrane zachowanie. Gdy rano odkrywam, że jestem głodny, to wstaję i, nie zapominając o żonie, idę zrobić śniadanie. Otwieram lodówkę, wyciągam cztery jajka, gotuję wodę w garnku, wstawiam jajka do wrzątku i gotuję przez sześć minut. Potem do dwóch szklanek daję trochę masła, soli i pieprzu, wyjmuję jajka ostrożnie, rozbijam je na pół, wlewam zawartość do szklanki i mieszam. Powstały dwie dobre porcje.

Ten naturalny ciąg zachowań można opisać starannie, unikając terminów fizycznych. Mogę powiedzieć: najpierw jestem głodny, potem biorę to, czego potrzebuję, przenoszę, gotuję, wyjmuję, rozbijam, mieszam, wołam, że śniadanie jest gotowe. Ten sam ciąg wydarzeń można też opisać, unikając terminów psychicznych. Mówię wtedy: dwie szklanki, cztery jajka, gaz, woda, zegarek, sześć minut, sól, pieprz, łyżeczka, cztery tosty, i śniadanie jest na stole. Natomiast otrzymujemy zdecydowanie absurdalny opis, jeśli próbujemy wyjaśnić, jak poszczególne zdarzenia psychiczne powodują zajście towarzyszących im zdarzeń fizycznych – lub odwrotnie. Tak pytać nie wolno. Każdy ciąg ma swoje własne zasady następstwa i każdy jest kompletny. Dodatkowo oba ciągi odpowiednio zbiegają się ze sobą i zazębiają się w czasie. Dzieje się to tak, jakby dwa konie ciągnęły jeden rydwan. Każdy z koni ciągnie po połowie i stara się dostosować do biegu drugiego konia. Jednak dostosowanie nie jest dodatkową, trzecią siłą pociągową. Gdy Gazzaniga mówi, że nie istnieje wolna wola, to, jak sądzę, chce tylko oświadczyć, że nie istnieje trzecia siła – prócz następstw zjawisk fizycznych i zjawisk psychicznych – której zadaniem byłoby harmonijne powiązanie dwóch sił. Z nieistnieniem tej trzeciej siły każdy oczywiście może się łatwo zgodzić.

Dlaczego przypisuję ten pogląd Gazzanidze? Ponieważ on sam pisze: „Komplementarność tak, przyczynowość odgórna nie” – i podaje przykład podobny do mojego opisu jajek po wiedeńsku lub rydwanu ciągniętego przez konie. Gazzaniga wyjaśnia, że sam zbudował dom dla swej rodziny w Kalifornii i że niestety źle wypoziomował w nim podłogę. Piłka położona na środku głównego pokoju zawsze powoli stacza się w stronę jednej ze ścian. Dotąd wszystko jest jasne. Ale możemy sprawę skomplikować i zapytać, dlaczego piłka się toczy, a nie rozpada na środku pokoju? Mogłaby przecież sama rozpołowić się tak, by jedna część toczyła się do ściany, a druga spadała płasko na podłogę. Tak się jednak nie dzieje, ponieważ na piłkę działają tylko dwie siły: spójność materiału i przyciąganie ziemskie. Nie ma trzeciej siły koordynującej działanie tych dwóch pierwszych. Nie ma siły sprawczej łączącej spójność materiału z grawitacją. Jeśli wolna wola jest czymś podobnym do takiej trzeciej siły, to istotnie wolnej woli nie ma. Dam jeszcze jeden przykład. W pokoju, gdzie teraz piszę swój tekst, robi się coraz ciemniej. Nadchodzi noc. Mogę wstać i włączyć światło. Ale mogę jeszcze pisać przez kilka minut, aż mrok zgęstnieje. To, co wybiorę, nie jest determinowane fizycznie, tylko psychicznie. Moje „ja” zaraz zdecyduje, co jest dla mnie bardziej kłopotliwe – dalsze pisanie na wyczucie, po ciemku, czy zerwanie toku myśli, by włączyć światło za ekranem komputera. Mogę wybrać swobodnie, przywołując wspomnienia podobnych sytuacji z przeszłości. W każdym razie to, co wybiorę, będzie miało jakiś swój odpowiednik w procesach mózgowych i moja decyzja, gdy już ją powezmę, albo włączy ciąg danych neuronowych przekazywanych z mózgu do rąk i nóg, albo ciąg innych danych skierowanych od mózgu do palców na klawiaturze. Pierwszy przepływ danych zakończy się tym, że wstanę i zapalę światło, drugi zakończy się stukaniem po omacku. I tak właśnie działa wolna wola. Czyli wola nie działa, dopóki myślimy i decydujemy, a zaczyna działać, gdy wybieramy właściwe zachowanie, odwołując się tylko do własnych racji, wspomnień i nadziei.

Można to powiedzieć inaczej. W naszych mózgach pojawiają się ciągi aferentne – czyli doprowadzające informacje do mózgu – i ciągi eferentne – czyli wysyłające informacje z mózgu do ciała. Decydowanie to łączenie pierwszych ciągów z drugimi ciągami w oparciu o wcześniej zgromadzone doświadczenia i nasze ustalone przekonania. Możemy więc całkiem dobrze wytłumaczyć sobie nasze fizyczne zachowanie przez odwołanie do analogii z komputerem. Sztuczna inteligencja jest podobna do naturalnej inteligencji, więc analogie są częste i wiarygodne. Jednak komputer to tylko maszyna obliczeniowa, a nie maszyna obliczeniowa z zawartym w niej jej użytkownikiem. A mózg jest właśnie taki. To komputer wraz ze swym użytkownikiem. Czy jest to obraz, który można by przenieść w dziedzinę etyki? Myślę, że tak, choć bliskiego podobieństwa nie należy się tu spodziewać, ponieważ fizyczne komputery i roboty nie mają żadnej etyki. Nie mają też wolnej woli, postanowień, intencji, wyrzutów sumienia ani zdolności do podejmowania zobowiązań. Gazzaniga zwraca uwagę na pewną osobliwość naszego mózgu. Nasz mózg działa w zasadzie automatycznie, czyli jak komputer, ale jest to szczególny komputer, bo podwójny. Lewa półkula szuka sensu i potrafi wszystko powiązać w całości znaczące i jakoś ważne. Jest nieugięta i wszystko musi zrozumieć – trafnie lub błędnie. Jest inteligentna, konfabulacyjna, niewiarygodna, ale inspirująca. Natomiast prawa półkula jest dokładna, małostkowa, gubi się w szczegółach, ale trzeźwo przewiduje. Niewiele rozumie, ale nie dba o sens. Obie razem są niczym geniusz i wyrobnik. Choć razem stanowią wspaniały duet, osobno nie budzą zachwytu. Działają harmonijnie, gdy pozostają zgrane, choć niezależne. Wtedy w ogóle nie czujemy, że każda działa inaczej, bo nigdy nie wiemy, która z nich działa, a która tylko obserwuje i czeka. Zazwyczaj obie dbają o to, by swe działanie koordynować. Z ich szczęśliwego zazębienia rodzi się wrażenie dociekliwości i pomysłowości mózgu oraz jego rzetelność i drobiazgowość. Obie części potrzebują siebie nawzajem. Sens musi być wyrażony w szczegółach, choć szczegóły zasługują na uwagę tylko wtedy, gdy nadają konkretność jakimś sensownym wizjom.

Co właściwie powstaje po fakcie i jak to się dzieje? Otóż po akcie powstaje zrozumienie. Jedną z najciekawszych umiejętności naszego mózgu jest automatyczne porcjowanie doznań w czasie. Nie rejestrujemy otaczających nas zdarzeń w sposób ciągły, tylko wyodrębniamy z ich ciągu różne epizody. Patrzymy, jak para łyżwiarzy tańczy na lodzie i widzimy płynność ich ruchów. Tę płynność dzielimy na naturalne odcinki. On kręci partnerką, lekko wiodąc ją za rękę usztywnioną nad głową. Ona odbiega do tyłu i niemal ociera się o bandę. On wykonuje karkołomny skok, potem pędzą do siebie po przekątnej, uderzają dłońmi i jadąc do tyłu, oddalają się od siebie. Tę choreografię można widzieć jako jeden ciąg taneczny, jako cztery epizody lub dziesięć trudnych ewolucji na lodzie. Takie szatkowanie doznań jest podobne do dzielenia tortu, z którego można dowolnie wykroić cztery porcje, sześć lub osiem porcji. Te porcje wycina lewa półkula, która wszędzie szuka sensu lub sama go stwarza i w ten sposób lepiej lub gorzej nadaje też sens naszemu życiu. Natomiast prawa półkula sprawdza szczegóły. Taka kontrola może na swój sposób przemienić się w manipulację. Najbardziej rozpowszechniona manipulacja polega na zamianie kolejności podprogowo rejestrowanych faktów. Prosty przykład dobrze to wyjaśnia. Podczas czytania dowolnego tekstu drukowanego lewa półkula chce szybko uchwycić sens, prześlizguje się nad słowami i odgaduje dalszy ciąg nieodczytanych zdań. Nie widzi błędów drukarskich i jest jej bez różnicy, czy nazwę polskiej stolicy wydrukowano jako ciąg liter „Warszawa”, czy „Warzsawa”. Lewa półkula nawet nie dostrzega tej różnicy, bo nie dba o szczegóły. Natomiast prawa półkula widzi ją od razu, tylko nie zawsze zgaduje, że to był tylko „błąd drukarski” i czasem wpada w popłoch.

Ten paradoks został zanalizowany przez Benjamina Libeta z Uniwersytetu Kalifornijskiego w San Francisco. Libet stwierdził, że po stymulacji obszaru korowego u badanych świadome doznania pojawiały się z pewnym opóźnieniem. To odkrycie skłoniło rozmaitych interpretatorów do twierdzenia, że „mózg kieruje świadomością, czyli nie mamy wolnej woli”. To był zbyt pospieszny wniosek. Eksperyment przebiegał następująco. Asystent zapalał światełko. Badany miał naciskać przycisk natychmiast po dostrzeżeniu, że lampka się pali. Jednocześnie miał zapamiętywać pozycję strzałki sekundowej widocznej na dużym zegarze. Okazało się, że reakcja ręki była systematycznie wcześniejsza o kilka milisekund od reakcji uświadomionej sobie przez obserwatora. Jak to możliwe? Rozwiązanie wygląda następująco. Mózg sam rozwiązywał postawione badanemu zadanie i natychmiast wysyłał sygnał do dłoni, by palec nacisnął przycisk. Jednocześnie wysyłał informację do świadomości, że ma spowodować naciśnięcie przycisku. W tej sytuacji świadomość musiała się spóźniać, ale lewa półkula nie potrafiła nadać sensu takiej kolejności, którą obserwowano, więc blokowała rejestrację różnicy. Chroniła świadomość przed odkryciem, że świadomość została w istocie wykluczona z eksperymentu, ponieważ realnie działał tylko odruch fizjologiczny. To był efekt tego, że na początku świadomość zaprogramowała działanie mózgu tak, by reagował jak najszybciej – czyli aktywizował połączenie „oko – palec”. Ponieważ zaangażowano także świadomość z zegarem, równolegle inicjowane było dłuższe połączenie: „oko – mózg – świadomość – decyzja – palec”. Świadomość musiała się spóźniać.

Odkrycie Libeta inspiruje ciekawe analogie. Mamy prawo przypuszczać, że podobnie jak w eksperymencie z zegarem działa podświadomy mechanizm oczyszczający nas z bolesnej winy. Jeśli ktoś, prowadząc samochód, spowoduje wypadek i zabije pasażera, to później tylko z największym trudem przypomina sobie, jak doszło do wypadku. To nie jest świadoma próba zatarcia w pamięci tego, co się stało – jak podejrzewają surowi krytycy – tylko autentyczny przypadek wadliwej rejestracji zdarzeń. Lewa półkula blokuje rozpoznanie ciągu wypadków, ponieważ ich przebieg nie ma sensu. Kierowca nie chciał nikogo zabić, a jednak doprowadził do śmierci. Prawa półkula lepiej pamięta, co się stało, ale też nie rozumie wypadku. Dręczy więc swymi pytaniami świadomość i wymusza przyjęcie jakiejś konkurencyjnej hipotezy obok: „Nikt nic nie zrobił – coś samo się stało”. To napięcie między półkulami wyjaśnia powstawanie wyrzutów sumienia. Doszło do karygodnego zaniedbania bez udziału intencji i bez uprzedniego uświadomienia sobie następstw. Lewa półkula dopuściła do zajścia wypadku, ale później starała się go zbagatelizować, ponieważ nie była w stanie nadać mu sensu przez wiarygodne usprawiedliwienie. Wtedy prawa półkula zablokowała zapamiętanie faktów, ponieważ nie chciała dopuścić do uprawomocnienia fikcji.

Taki dysonans jest odbierany przez świadomość jako poczucie winy pogłębione przez brak zdecydowanego rozeznania w tym, co się właściwie stało. Taka interpretacja jest oczywiście bardzo schematyczna i tylko hipotetyczna, ale pokazuje, jak schematy AI mogą wyjaśniać ludzkie myślenie o moralności. Jest zatem możliwe, że kiedyś będzie można stworzyć sztuczne hominidy, które będą reagować jak ludzie, czyli mając odpowiedniki lewej i prawej półkuli, będą naśladować nasze wewnętrzne rozterki moralne. Nauki komputerowe w powiązaniu z psychologią kliniczną już wniosły znaczny wkład do zrozumienia moralnych postaw i zachowań. W przyszłości ten związek może się okazać jeszcze ważniejszy, ponieważ stany świadomości nie dają się bezpośrednio rozpoznawać, tylko pozwalają się co najwyżej ustalać przez analogie.

Do niedawna testowano na uczelniach samodzielność myślenia studentów przy użyciu programu antyplagiatowego. Na przykład program Plag.pl reklamuje się jako „wykrywacz plagiatów, który pozwala użytkownikom uzyskać ocenę plagiatową za darmo i w ciągu kilku sekund. Nawet dla prac o stu stronach”. Procedura jest prosta. Student oddaje pracę licencjacką promotorowi, promotor poprawia ją i sugeruje zmiany. Student wprowadza je w tym zakresie, który uznaje za słuszny, i oddaje pracę po poprawkach. Promotor zanosi ją do dziekanatu. Tam plik jest sczytywany przez program antyplagiatowy, który ma w pamięci kilkaset pozycji z literatury i zaznacza w tekście pracy te fragmenty, które są identyczne z jakimiś fragmentami zawartymi w źródłach. Jako minimum przyjmuje się na przykład, że praca jest plagiatem, jeśli zawiera co najmniej dziesięć słów użytych w ciągu i w tej samej kolejności jak w tekście źródłowym. Jeśli wina nie budzi wątpliwości, student podlega odpowiedniej karze. Ten program uczy samodzielności i uczciwości.

Od tego roku dostępna jest jednak w internecie zupełnie nowa aplikacja, która może zerwać ten stan zawieszenia broni. Firma OpenAI stworzyła program GPT-4. Program jest kreatywny i generuje nowe teksty na dowolny temat. W ten sposób otwiera się możliwość dokonywania nowych nadużyć. GPT-4 może ułatwić pisanie prac na zamówienie przez spółdzielnie samopomocy studenckiej. GPT-4 jest w zasadzie niewinny. Pisze teksty za darmo i nie dopuszcza się plagiatów. Pierwotnie był chyba pomyślany jako środek ukrócający biurokratyczną grafomanię. W każdym kraju w tysiącach urzędów urzędnicy piszą teksty coś zalecające, informujące, rekomendujące lub przestrzegające. To jest syzyfowa praca, ale potrzebna. Skoro można ją zautomatyzować, to w zasadzie nie ma nic złego w jej usprawnieniu. GPT-4, czyli „Generative Pre-Trained Transformer”, właśnie to robi. Jest „generatorem tekstów produkowanych przez przekształcenie wzorów”.

Program ma do dyspozycji jakąś niewiarygodnie olbrzymią bazę danych na wiele tematów i w wielu wersjach. Z istniejących wersji tworzy nowe kompilacje. Wybiera połączenia najczęściej występujące w uznanych tekstach i na ich wzór buduje nowe zdania na ten sam temat. Ponadto program zawiera jakieś moduły sprawdzające wygenerowany tekst pod względem gramatycznym i ma jakieś filtry zapewniające płynność wypowiedzi i jej teoretyczną dopuszczalność. Ten ostatni warunek można samemu łatwo przetestować. Jeśli zadamy GPT-4 pytanie na jakiś kontrowersyjny temat, to program przede wszystkim stwierdza, że temat jest kontrowersyjny, i podaje rozmaite alternatywne rozwiązania. Nie wybiera jednego, bo to nie jest program ekspercki. Twórcy oczywiście nie twierdzą, że program rozumie to, co pisze, tylko że jest to bardzo podobne do innych tekstów na ten sam temat.

.Najciekawsze jest to, że program jest oparty wyłącznie na sieci powiązań frazeologicznych w zgodzie z założeniem, że najczęściej używane zwroty są najpowszechniej akceptowane, czyli są wyrazem najszerszego rozumienia opisywanych zagadnień. Dla uczniów i studentów może to być darmowe źródło mało oryginalnych prac zaliczeniowych. Czy ta praktyka budzi grozę? We mnie tak. Czy uczniowie będą mieli poczucie winy przy stosowaniu tego programu? Tego nie wiem, ale mam wrażenie, że wiele zależy od tego, jak będą działać ich lewe i prawe półkule. Trudno bowiem zabronić używania GPT-4, bo to jest sprawnie działające źródło wiarygodnych informacji. Jest to jednak program, który pozwala osobom pewnym siebie, lecz niekompetentnym wystąpić w roli ludzi światłych i dobrze wykształconych. Czym się może skończyć taka powszechna maskarada? Nie wiem, ale jestem przekonany, że to będzie ważna próba w życiu wielu młodych osób i że znajdą się tacy, którzy teraz lepiej zrozumieją, że niewykryte oszustwo to ciągle oszustwo. A to ma swoje znaczenie.

Jacek Hołówka
Tekst ukazał się w nr 54 miesięcznika opinii „Wszystko co Najważniejsze” [PRENUMERATA: Sklep Idei LINK >>>]

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 21 sierpnia 2023
Rys. Martin Berg / Unplash