Historia ChatGPT, danologia, sztuczna inteligencja oraz ryzyko pochwały nierozumnego rozumu
Nie trzeba wielkiej wyobraźni, by dostrzec, jak potężny potencjał władzy znalazł się w rękach panujących nad internetem. Potencjał dziś jawnie wykorzystywany przez rząd Chin, niejawnie przez inne rządy – pisze prof. Jacek KORONACKI
.Słynny monachijski wykład Maxa Webera z roku 1917, opublikowany dwa lata później, zawierał takie stwierdzenia „Wzrastające intelektualizacja i racjonalizacja nie oznaczają […] wzrostu powszechnej wiedzy o warunkach życiowych, którym podlegamy. Oznaczają one coś innego: wiedzę o tym albo wiarę w to, że gdyby tylko człowiek tego chciał, to mógłby w każdej chwili przekonać się, że nie ma żadnych tajemniczych, nieobliczalnych mocy, które by w naszym życiu odgrywały jakąś rolę, ale wszystkie rzeczy można – w zasadzie – opanować przez kalkulację. Oznacza to odczarowanie świata. [Podkreślenia autora tych słów]. […] Wszystkie nauki przyrodnicze dają nam odpowiedź na pytanie, co powinniśmy czynić, aby opanować życie w sposób techniczny. Nie dają one jednak odpowiedzi na pytanie […]: czy naprawdę chcemy i czy powinniśmy opanowywać życie w ten sposób oraz czy ma to w ogóle jakiś sens”.
Zaiste, oto jeden z filarów współczesności – co powinniśmy czynić, aby opanować życie w sposób techniczny. Furda bezinteresowne poznanie, bezinteresowny wysiłek służący zrozumieniu świata i nas. Owej wzrastającej intelektualizacji i wąsko pojętej racjonalizacji Weber przeciwstawiał ducha starożytnej Grecji z jego szacunkiem dla wiecznej prawdy, dobra i piękna, których właściwe rozpoznanie miało otwierać drogę do wiedzy i nauczania o tym, jak żyć. W swym résumé dobiegał do oświecenia, gdy to rozpoczęty został proces „odczarowania świata”. Bolał nad tym, że musi mu towarzyszyć utrata poczucia sensu i opisywał nieuniknione konsekwencje tego procesu – postępujące zniewolenie jednostki. Pojmowany na nowoczesny sposób racjonalizm każe uznać człowiekowi, że wszelki sens, jaki odnajduje w świecie, jest jego własnym wytworem. Tym chętniej zatem skłania się taki człowiek ku pracy nad opanowaniem życia na wspomniany sposób.
Na szczęście nie miało to wpływu na nauki przyrodnicze w tym przynajmniej sensie, iż po dziś dzień zasadzają się one na zorganizowanym wysiłku formułowania wyjaśnień świata natury, zawsze podlegających modyfikacjom i korektom, by zachować zgodność tych wyjaśnień z obserwacjami. Naukowiec stawia hipotezę, mającą wyjaśnić dane zjawisko, hipotezę tę weryfikuje w oparciu o obserwacje i jeśli hipoteza okazuje się fałszywa, stawia nową.
Ale co, gdy przedmiotem zainteresowania jest analiza złożonego zjawiska społecznego, gdy pytamy, czy dany klient banku okaże się solidnym kredytobiorcą, spłacającym swoją pożyczkę, albo gdy chodzi nam o szybkie (automatyczne) wykrycie kradzieży karty kredytowej czy gdy – sprawa poważniejsza – chodzi nam o wykrycie przygotowań do ataku terrorystycznego? Przykłady problemów, dla których wręcz nie sposób postawić z góry hipotezę wyjaśniającą dane zjawisko, można mnożyć nieomal w nieskończoność. Nasza technicznie oraz konsumpcyjnie rozwinięta cywilizacja dostarcza takich problemów coraz więcej i więcej.
Wybitny statystyk i matematyk John Tukey zaproponował w latach 70. XX w. porzucenie wymienionej tu metody naukowej, a zatem porzucenie stawiania hipotez i modelowania przyczynowo-skutkowego na rzecz – jak to nazwał – eksploracyjnej analizy danych (w skrócie, z angielska, EDA). Czym są te dane? To zebrany przez nas zbiór opisów interesującego nas zjawiska, przy czym termin „zjawisko” należy rozumieć bardzo szeroko, natomiast zbiór jego opisów powstaje przez zaobserwowanie przykładów występowania tego zjawiska. Takim zjawiskiem może być zaciągnięcie kredytu w pewnym banku oraz proces jego spłacania (albo niespłacania). Zbiorem danych jest w tym przypadku posiadany przez bank zbiór opisów kredytobiorców. Każdy kredytobiorca opisany jest przez pewne, te same w przypadku każdego z nich, atrybuty (wysokość zarobków, rodzaj zatrudnienia, status majątkowy, wiek, płeć, stan cywilny i inne, jak też i to, czy kredyt jest spłacany/spłacony). Takich zjawisk, które można badać środkami EDA, jest nieskończenie wiele. Zjawiskiem może być twórczość literacka wybranego autora, a danymi mogą być jego dzieła (jest oddzielną sprawą, jakimi atrybutami te dzieła opisać, ale to już zależy od pytania, na które chcemy odpowiedzieć).
John Tukey rzekł – pozwólcie danym mówić za siebie. Nie stawiajmy hipotez mających wyjaśnić dane zjawisko, nie zaczynajmy od budowy modeli, lecz przyjrzyjmy się posiadanym danym i na tej tylko podstawie nauczmy się odpowiadać na postawione pytanie.
W naszym prostym przykładzie – bank ma dane historyczne, dotyczące dobrych i złych kredytobiorców, i pyta, czy nowemu petentowi udzielić kredytu. Potrzebujemy tedy algorytmu, który na podstawie posiadanych danych o znanych kredytobiorcach nauczy się odróżniać ich wymienione dwa typy. I gdy przyjdzie nowy petent, by poprosić o kredyt, wystarczy zapytać algorytm, do której z tych dwóch grup zaliczyłby go.
Tym sposobem modelowanie przyczynowo-skutkowe zaczęło być zastępowane przez modelowanie predykcyjne (inaczej – przewidujące) oraz dyskryminacyjne (wprowadzające podział zadanego zbioru danych na podzbiory). Bez stawiania jakichkolwiek hipotez same dane mają pozwolić albo na opisanie zależności wiążących ich atrybuty, albo na dokonanie ich podziału na interesujące nas klasy i na tej podstawie umożliwić przewidywanie skutków podejmowanych decyzji.
* * *
.Takie były początki – jak dziś mówimy – danologii, specjalizacji słusznie nauczanej na politechnikach i na uniwersytetach (termin ten, będący ładnym tłumaczeniem anglojęzycznego terminu data science, zaproponowała pani prof. Halina Kwaśnicka, znakomita badaczka, znawczyni i nauczycielka przedmiotu). A dlaczego słusznie? Albowiem, co już zasygnalizowaliśmy, coraz częściej spotykamy się z problemami, w przypadku których nie sposób pokusić się o zaproponowanie realistycznego modelu przyczynowo-skutkowego. Wszak rzeczywiście nie sposób wykryć przygotowania do zamachu terrorystycznego inaczej, niż analizując dane dotyczące kontaktów telefonicznych, podróży, przelewów finansowych itd. jak najszerszej populacji osób (chcemy tego czy nie, wszyscy jesteśmy na takie sposoby obserwowani).
I co więcej, często właściwie pomyślana EDA może być tylko pierwszym etapem budowy modelu przyczynowo-skutkowego. Na przykład w badaniach biomolekularnych dane dotyczące każdego przypadku (osoby czy zwierzęcia) są przeogromne. Na opis każdego przypadku składają się setki tysięcy albo i miliony atrybutów – liczb i innych wielkości opisujących pojedynczy genom, informację epigenetyczną i inną. EDA może pozwolić na uproszczenie postawionego problemu przez wstępne odfiltrowanie z danych tych atrybutów, które na pewno nie mają znaczenia i nie powinny się znaleźć w modelu. Dopiero na drugim etapie takiego procesu dokonuje się budowy modelu przyczynowo-skutkowego.
W ciągu ostatnich dekad w niebywałym tempie wzrosła i nadal rośnie liczba coraz większych zbiorów danych (tzw. big data), które poddaje się analizom, przy czym dane te są generowane przez zjawiska coraz bardziej złożone i coraz mniej znane. Modelowanie przyczynowo-skutkowe idzie w coraz większej mierze w zapomnienie, przemysł i zwłaszcza cały sektor usług wołają o dobrą predykcję i dyskryminację, czyli stosowanie metod EDA. Rzecz przy tym jasna, że klasyczna EDA wymagała adekwatnego do potrzeb rozwoju. Potrzebne były i są coraz lepsze, coraz „inteligentniejsze” algorytmy. Z czasem powstała cała dziedzina maszynowego uczenia się (zwykle mówimy uczenia maszynowego, w skrócie, znowu z angielska, ML), która jest obecnie głównym filarem tzw. sztucznej inteligencji (jeszcze raz z angielska, w skrócie AI). Nie ma jednej i powszechnie przyjętej definicji AI. Jej dobrze odpowiadające intuicji określenie zaproponowane przez jednego z pionierów tej dyscypliny, Nilsa J. Nilssona, jest następujące: „Sztuczna inteligencja jest efektem ludzkiego działania zmierzającego do uczynienia maszyn inteligentnymi; z kolei inteligencja jest tą jakością, która pozwala danemu bytowi działać właściwie i przewidująco w jego otoczeniu”.
To operacyjne i ogólne opisanie inteligencji pasuje tak samo dobrze do inteligentnej maszyny, jak do człowieka. Tyle że to człowiek stwarza maszynę. Chcąc ją uczynić inteligentną, człowiek wyposaża maszynę w pamięć, w której zapisana zostaje informacja z przeszłości, np. wszystkie dotąd spisane dzieła oraz tysiące rozegranych w przeszłości gier w szachy czy pochodzącą z Chin grę go. Także w czasie bieżącym zapisywane są kolejne informacje docierające z otoczenia do maszyny. Maszyna musi być zdolna do uczenia się – musi być wyposażona w algorytmy pozwalające tak przetwarzać posiadaną przez nią informację, by posiąść zdolność wykonywania pewnych zadań, np. grupowania podobnych do siebie obiektów czy odróżniania obiektów jednego typu od innych bądź też grania w szachy. Zdolność maszynowego uczenia się musi zawierać w sobie umiejętność doskonalenia własnego działania dzięki powiększaniu się zasobu posiadanych informacji, w tym na podstawie własnego „doświadczenia” maszyny, np. na podstawie rozgrywanych przez uczącą się maszynę gier w szachy, raz wygranych, innym razem przegranych. Tworzenie takich algorytmów to właśnie dziedzina uczenia maszynowego (ML).
Wspomnieliśmy już, że początki rozwoju ML związane były z uczeniem predykcyjnym oraz dyskryminacyjnym. Mniej więcej na przełomie tego i poprzedniego wieku zaczął się niesłychanie dynamiczny rozwój zupełnie nowego rozdziału w dziedzinie ML – a mianowicie uczenia generatywnego (ang. generative learning). Można w największym skrócie powiedzieć, że chodzi tu o uczenie naśladowcze – tworzenie przez algorytm obrazów czy tekstów podobnych do wcześniej załadowanych do pamięci komputera. Już w tej chwili osiągnięcia w tej materii są oszałamiająco dobre. Ograniczając się do generowania tekstów, dziesięć lat temu maszyny zaczęły być zdolne do pisania nowych wierszy, zwłaszcza naśladujących dzieła konkretnego poety. Zaczęły być zdolne generować własne, zgoła sensowne, nowe – jakkolwiek początkowo krótkie – teksty. Fakt, iż 25 lat temu programy AI zaczęły grać w szachy lepiej od najlepszego szachisty na świecie, wydaje się w świetle dzisiejszych zdolności AI osiągnięciem niewiele już znaczącym. Ale też trudno nie docenić tego, że nie ma dziś liczącego się na świecie szachisty, który nie rozgrywałby treningowych partii z komputerem.
Wszystko to jest zgoła normalnym i niemającym w sobie nic tajemniczego efektem postępu naukowego, choć w istocie zadziwiające jest jego tempo. Jest to wszystko owocem pracy naukowców i inżynierów zajmujących się od dekad dyscypliną ML oraz – co jeszcze bardziej istotne – rozwojem mocy obliczeniowych, a zatem tworzeniem nowych zasad działania współczesnych komputerów (zaczynając od wielordzeniowych i wielowątkowych procesorów oraz organizacji i pojemności pamięci wewnętrznej i zewnętrznej). Zbudowane przez nich maszyny wykonują takie same zadania jak człowiek, przy tym coraz częściej lepiej od człowieka. Notabene, podobnie rzecz się już ma lub wkrótce będzie miała z humanoidalnymi robotami, które m.in. będą mogły zastąpić pomocniczy personel medyczny lub obsługę restauracyjną. Chodzi tu o roboty współpracujące z człowiekiem, wspólnie z nim tworzące zespoły pracowników, roboty zachowujące się tak, jakby „przeżywały” emocje.
Bez rozwoju mocy obliczeniowych współczesnych komputerów nie byłoby dziś mowy o nowym paradygmacie tzw. głębokiego uczenia się, które jest podstawą sukcesów algorytmów uczenia generatywnego. Ten nowy paradygmat pozwolił np. na zbudowanie nowej reprezentacji wiedzy o języku naturalnym oraz nowych sposobów przetwarzania tej wiedzy, nieznanych jeszcze kilkanaście lat temu. W roku 2019 firma OpenAI zakończyła pracę nad systemem GPT2 do przetwarzania i generowania tekstów w języku naturalnym. Warto sobie uzmysłowić, jak złożone są to rozwiązania techniczne. System ma wbudowanych około półtora miliarda parametrów dostrajanych przez sam algorytm w trakcie jego uczenia się. Jakość generowanych na zadany temat tekstów była tak wysoka, że twórcy udostępnili ogółowi użytkowników sieci jedynie uproszczoną wersję systemu o złożoności około 150 milionów parametrów. System GPT2 mógłby być np. użyty do produkowania fałszywych wiadomości (fake news). Wkrótce potem powstała ulepszona wersja systemu – system GPT3 (o 175 miliardach parametrów) – natomiast 30 listopada 2022 r. OpenAI udostępniła ogółowi użytkowników sieci system ChatGPT, którego umiejętności – tłumaczenia tekstów, odpowiadania na pytania, streszczania dokumentów czy generowania nowych tekstów w języku naturalnym – na pierwszy rzut oka dorównują zdolnościom człowieka.
Nie mamy tu miejsca, by podać choć krótką listę szczególnie udanych programów komputerowych AI. Wspomnimy tylko, że np. programy takie są w stanie wspomagać lekarzy w diagnozowaniu różnych chorób. Jest to ważne zwłaszcza w przypadku chorób stosunkowo rzadkich, gdy lekarz ogólny może bez takiej pomocy nie dostrzec potrzeby skierowania pacjenta do specjalisty. Ale koniecznie trzeba wspomnieć o tym, że najpotężniejsze koncerny usług internetowych wiedzą dziś o nas prawie wszystko właśnie za sprawą algorytmów ML. Nie znają naszych myśli, ale wiedzą, co lubimy, a czego nie, jakie są nasze zainteresowania, potrafią stworzyć mniej lub bardziej trafny profil psychologiczny każdej i każdego z nas. Wszystko to na podstawie gromadzonych w pamięciach komputerów naszych listów elektronicznych, pisanych przez nas (jeśli to czynimy) tekstów na portalach Facebook, Twitter, zdjęć zamieszczanych na Instagramie czy sposobów wykorzystywania przez nas internetowych wyszukiwarek oraz platform do elektronicznego handlu.
Zapamiętane przez sieć informacje o każdym z nas – naszych preferencjach, sposobach reagowania na zdarzenia zewnętrzne, sposobach radzenia sobie z nadwagą albo nadmierną chudością, leczeniem depresji itd., itp. – przestają być prywatną własnością. Nic zatem dziwnego, że są wykorzystywane przez tworzone informatyczne systemy doradcze, które stopniowo staną się niezastąpionymi doradcami użytkownika sieci – tego z nadwagą albo niewiedzącego, w co zainwestować oszczędności, albo szukającego dowolnej innej, w tym psychologicznej porady.
Nie trzeba wielkiej wyobraźni, by dostrzec, jak potężny potencjał władzy znalazł się w rękach panujących nad internetem. Potencjał dziś jawnie wykorzystywany przez rząd Chin, niejawnie przez inne rządy.
* * *
.Chcąc krótko podsumować, czym jest i będzie AI, należy zacząć od tego, że inteligencja nie odwołuje się do niczego, co istniałoby jako takie – w sobie, z siebie i dla siebie. Odnosi się ta uwaga do inteligencji naturalnej i, niejako tym bardziej, do inteligencji sztucznej. Inteligencja, o której tu mowa, jest względną miarą efektywności wykonywania zadań. Następnie należy podkreślić, że AI nie kryje w sobie żadnych tajemniczych mocy. AI w niczym nie wykracza poza to, co daje zwykły, jakkolwiek imponująco szybki postęp techniczny, który korzysta z nauk ścisłych, inżynierskich i biologicznych (i także neurokognitywistyki). Nieprawdą jest również, iż programy ML albo – szerzej – AI, realizując zadania im powierzone, naśladują sposób rozwiązywania przez człowieka podobnych zadań. Korzystając z przykładu podanego przez Kevina Kelly’ego w książce pt. Nieuniknione, samolot nie dlatego lata, że naśladuje ptaka. To fizyczne prawa rządzące zdolnością ptaka do fruwania zostały użyte do zbudowania samolotu, który nie macha skrzydłami, lecz inaczej z owych praw korzysta. Ale najważniejsze jest to, iż z tego, że samolot wykonuje swoje zadania pod pewnymi względami lepiej od ptaka – np. szybciej, potrafi unieść ciężar ważący tony – nie wynika, że jest od ptaka lepszy. Jest samolot bytem istotowo różnym od ptaka, i tyle.
Sukcesy AI nie powinny nas zwieść. Ani uczenie predykcyjne i dyskryminacyjne, ani generatywne nie ma nic wspólnego z rozumieniem, które jest czymś istotowo różnym od przetwarzania informacji. ChatGPT zaskakująco dobrze naśladuje nasze piśmiennictwo. To wielki sukces techniki, zasadzający się na zbudowaniu algorytmów doskonale wykorzystujących załadowane do pamięci komputera teksty. Dla komputera teksty to ciągi słów (i znaków przestankowych), a nauka „rozumienia” języka na podstawie wcześniej załadowanych tekstów to mniej więcej tyle co skonstruowanie algorytmu, który mając ciąg słów (fragment tekstu od początku do danego miejsca), znajduje najbardziej prawdopodobne słowo kolejne (dodaje kolejne słowo do fragmentu tekstu). Zbudowanie takiego algorytmu jest koncepcyjnie i obliczeniowo bardzo złożone, ale nie ma nic wspólnego z poznaniem rzeczywistego znaczenia tekstów i, by tak rzec, tym mniej z ich rozumieniem.
W tym miejscu warto zrobić taką uwagę. Mamy rację, martwiąc się, że studenci nie będą już sami pisać swoich prac, lecz będą to zlecać przyszłym, jeszcze lepszym wersjom systemu ChatGPT czy innego podobnego. Problem wszelako nie w istnieniu takich systemów jak ChatGPT, lecz w tym, że student… wcale nie chce studiować. Niczego nie chce studiować. Z tym że to jest temat na osobny artykuł.
Już z tego artykułu wynika, iż obecne i nadchodzące dekady będą czasem wielkich, fundamentalnych zmian cywilizacyjnych i kulturalnych (jeszcze słowo o tym za chwilę). Kevin Kelly słusznie zwraca uwagę, że rozwój AI stawia przed nami pytanie, po co jest człowiek. Pisze też, że to AI pomoże nam zdefiniować, czym jest człowieczeństwo. To ostatnie sformułowanie jest nietrafne, ponieważ nie chodzi tu o jakąś redefinicję, zdefiniowanie człowieczeństwa na nowo, lecz o przypomnienie sobie, czym człowieczeństwo jest i że przez całe tysiąclecie potrafiła to wyrażać chrześcijańska cywilizacja Zachodu. Jeśli ma w tym pomóc AI, niech tak się stanie. Ale moc jej przekonywania może mieć charakter jedynie negatywny – uświadamiając człowiekowi, że stoi na krawędzi przepaści.
Książka Kelly’ego jest jednym z wielu dowodów na to, że techne zastąpiło logos. Nie mylił się Weber, gdy pisał, jakie będą konsekwencje „odczarowania świata”. Nie wiedział tylko, że obecna, pochrześcijańska cywilizacja Zachodu uzna, iż wszystko, co jest technicznie możliwe, jest dobre. I pozwoli ta cywilizacja prowadzić się technice, zgodzi się uznać, iż samym rdzeniem cywilizacji Zachodu jest techniczny rozwój.
W tym samym kontekście Yuval Levin, znakomity obserwator społecznej współczesności, zwłaszcza amerykańskiej, pisze o odrzuceniu antropologii ciągłości pokoleń na rzecz antropologii innowacji. Ta pierwsza implikuje kultywowanie cnót i życie we wspólnocie wiążącej pokolenia, ta druga czyni fetyszem innowacje z przyszłością niezakotwiczoną w przeszłości i teraźniejszości.
Andrew Lytle, ważny reprezentant amerykańskiego Południa, pisał już w 1930 roku, iż „dążenie do szczęścia zostało zastąpione kręceniem się w kółko, pozbawionym nawet tej logiki, jaką kieruje się pies, goniąc własny ogon. […] Jest to sprawa konfliktu między ludźmi a nienaturalnym pokłosiem geniuszu inwencji. Jest to wojna na śmierć i życie między techniką a zwykłym ludzkim funkcjonowaniem. Prawa do takiego funkcjonowania są naturalnymi prawami człowieka, ale dziś, w XX, a nie XVIII wieku, są to prawa zagrożone po raz pierwszy w historii. […] Jesteśmy świadkami spektaklu zaiste tragicznego: widzimy ludzi oszalałych pod wpływem własnej inwencji, zastępujących samych siebie nieożywionymi przedmiotami. Ostatecznie jest to moralne i duchowe samobójstwo, po którym nastąpi destrukcja fizyczna”.
Co bez mała sto lat temu niepokoiło Lytle’a, było bez porównania mniej groźne od tego, co zagraża człowiekowi Zachodu dzisiaj. Jesteśmy „społeczeństwem sieci”.
Internet zmienia nasze życie tym głębiej, że jest to internet „inteligentny” – wszystko, co nam oferuje, ma za swój fundament programy AI. I tak – naturalne kontakty międzyludzkie przenoszą się do świata wirtualnego. Ów wirtualny świat wciąga nas coraz bardziej. Internet kontroluje obieg docierającej do nas informacji. O naszym zachowaniu zaczyna decydować internetowy doradca. I tak dalej, i tak dalej, ale zatrzymajmy listę tych naszych uzależnień od internetu w tym miejscu. Poza zwróceniem uwagi na to, że bez internetu nie byłoby i nie mógłby być rozwijany tzw. internet rzeczy – nie byłoby mowy o inteligentnej lodówce (która powie nam albo naszemu dostawcy, że kończy się masło), inteligentnym mieszkaniu, inteligentnym mieście. I jeszcze taka uwaga o naszym miejscu w tej internetowej sieci, która ma nas opleść – jak to się dziś skrótowo zapisuje – 24h/7. Nie mamy być tylko jej użytkownikami, mamy również być jej częścią. Ażeby internet rzeczy mógł działać rzeczywiście inteligentnie, a to znaczy możliwie najefektywniej, najlepiej będzie, gdy zostaniemy wyposażeni w implanty domózgowe, które nas uczynią jedną z rzeczy w tej całej sieci. (Chyba nikt nie opisał lepiej tego, co nas może czekać, niż przedwcześnie zmarły Marek Chlebuś w eseju pt. Lęk przyszłości). Czy się na taką przyszłość zgodzimy? Problem w tym, że w świecie bez logosu, w którym Zachód wyrzeka się własnej kultury, odrzuca swoje duchowe korzenie – a w takim świecie żyjemy – człowiek się gubi i może się zatracić w ucieczce od prawdziwego siebie, zatracić się w ucieczce od tego, co rozumne, i poddać w niewolę temu, co nierozumne. Inteligentne, ale nierozumne i po prostu nieludzkie.
Wspomnijmy jeszcze, że guru przewodzący takiej ucieczce roją o superinteligentnej AI, wyposażonej w świadomość podobną do naszej. Nazywają ją mocną (albo ogólną) AI. U podstaw myśli o takiej AI leży założenie, że człowiek jest li tylko maszyną przetwarzającą informację, komputerem, jakkolwiek my sami jeszcze nie potrafimy tego komputera skonstruować. Naturze już to się udało za sprawą ewolucji, my musimy to zrobić na nowo albo jakoś odtworzyć tamtą historię, by – tego chcą trans – i posthumaniści – oddać władzę owej mocnej AI, która ewolucję poprowadzi dalej, ku rzeczonej superinteligencji. Na szczęście to są tylko rojenia. Człowiek nie daje się zamknąć w naturalistycznych ramach, jest jednością ciała i niematerialnej duszy. A jeśli dawałby się zamknąć w owych ramach, to i rozum byłby nierozumny, jak to dosadnie i arcytrafnie ujął kiedyś Benedykt XVI. I wtedy hulaj duszo, przepraszam, hulaj materio, niechaj silna AI – jeśli kiedyś da się ją zbudować – poprowadzi dalej ewolucję w świecie, w którym triada Dobra, Prawdy i Piękna nie ma sensu.
Lepiej jednak chyba byłoby, gdyby człowiek Zachodu wrócił do swoich korzeni, porzucił uległość wobec fetysza innowacji i znalazł w sobie dość siły, by sprzeciwić się niczym nieokiełznanemu postępowi (zarazem zgadzając się na to, co ów postęp niesie dobrego). Warto na przykład zapytać, czy w ogóle chcemy mieć roboty do złudzenia przypominające piękne dziewczyny, pełniące rolę czułych pielęgniarek w szpitalu. Czy chcemy stać się elementem internetu rzeczy?
.I warto pochylić się nad tym, co w wydanej w 2020 r. książce pisze nie jakiś nostalgiczny marzyciel, lecz znakomity politolog amerykański George Friedman: „Adwokaci AI myślą, że byłby to [chodzi o wszechobecność AI w ludzkim świecie – przyp. J.K.] triumf ludzkości. Ale poza takimi problemami, jak utrata stanowisk pracy oraz komputerowe błędy, AI zredukowałaby ludzką potrzebę życia we wspólnocie, jednego człowieka z drugim. Tworzymy wspólnoty z konieczności ekonomicznej i z innych konieczności. Pozostajemy związani ze sobą, ponieważ czerpiemy radość z tego, iż jesteśmy ludźmi. Gdyby zadziałała, AI podkopałaby te konieczności, które nas wiążą. W sercu ludzkiej inteligencji leży przypadkowy, nieoczekiwany wgląd i takież spotkanie. Sztuczna inteligencja, gdyby [rzeczywiście – przyp. J.K.] mogła być stworzona, zniszczyłaby je swoją nieludzką skutecznością”.
Jacek Koronacki
Fragmenty tego artykułu zaczerpnąłem z mojego eseju pt. „Sztuczna inteligencja w odczarowanym świecie”, „Filozofia i Nauka”, tom 8, cz. 1, 2020.