Prof. Jacek KORONACKI: Glosa do artykułu prof. Andrzeja Kisielewicza  „Bajki o sztucznej inteligencji i prawdziwe zagrożenia”

Glosa do artykułu prof. Andrzeja Kisielewicza „Bajki o sztucznej inteligencji i prawdziwe zagrożenia”

Photo of Prof. Jacek KORONACKI

Prof. Jacek KORONACKI

Profesor nauk technicznych, doktor habilitowany nauk matematycznych, były długoletni dyrektor Instytutu Podstaw Informatyki PAN. W ostatnich latach zajmował się analizą molekularnych danych biologicznych.

Ryc. Fabien CLAIREFOND

zobacz inne teksty Autora

Niniejszy cytat dobrze oddaje główną myśl artykułu prof. Andrzeja Kisielewicza „Bajki o sztucznej inteligencji i prawdziwe zagrożenia” [LINK]: „ChatGPT nie myśli, nie wnioskuje, niczego nie rozumie i nie jest żadną »sztuczną inteligencją«, o ile termin ten rozumiemy zgodnie z ideami ojców dziedziny artificial intelligence jako »autonomiczny program myślący na podobieństwo człowieka«”. 

.Trudno nie zgodzić się w pełni z tą tezą Autora, który rozwija ją szeroko i ciekawie, pisząc z perspektywy matematyka logika oraz informatyka. Autor niniejszej glosy jest matematykiem i inżynierem, ale dziedziną, którą dziś nazywamy sztuczną inteligencją (AI), kilka ostatnich dekad zajmował się naukowo z perspektywy statystyka. Ściślej, piszący te słowa zajmował się tzw. uczeniem maszynowym (machine learning – ML), które jest dziś technicznym filarem AI. Prawdę mówiąc, nadal nie lubię terminu AI, jako że niemal wszystko, co w ramach tej dziedziny udało się wypracować, najzwyczajniej w świecie należy do domeny uczenia maszynowego i poza nią nie wyszło. Także większość tekstu prof. Kisielewicza poświęcona jest właśnie ML.

Jak już zasygnalizowałem, na interesującym nas polu współzawodniczyły dwa paradygmaty naukowe – logiki matematycznej oraz szeroko rozumianej statystyki matematycznej, a więc teorii prawdopodobieństwa z teorią procesów stochastycznych, wąsko rozumianej statystyki matematycznej oraz statystycznej analizy wielowymiarowej (ostatnie to właściwie tyle, co statystyczna analiza danych, które do nas docierają z otoczenia). Najpierw, czyli na początku lat 40. XX w., mieliśmy parę dekad złudnej nadziei, że budowane modele sieci neuronowych jakoś tam będą przypominać nasze myślenie. Następnie rolę królowej w dziedzinie AI objęła logika matematyczna, zresztą z naszym, polskim, widocznym wkładem. Wszakże z czasem okazało się, że w praktyce więcej daje oparcie się na paradygmacie statystycznym. O obydwu tych paradygmatach więcej napisałem na łamach czasopisma „Filozofia i Nauka”, w artykule Sztuczna inteligencja w odczarowanym świecie (FiN, t. 8, cz. 1, 2020 [tu link]), i tu pozwolę sobie tej kwestii nie rozwijać.

Ale tym sposobem – ujmując rzecz brutalnie – zniknął jakikolwiek związek uczenia maszynowego i, szerzej, sztucznej inteligencji z myśleniem człowieka (poza oczywistym i imponującym udziałem jego myśli w tworzeniu algorytmów owej AI). I kropka. O związku takim można było marzyć, póki u podstaw AI stał paradygmat logiki matematycznej, ale to marzenie straciło rację bytu wraz z triumfem paradygmatu statystycznego. W oczywisty tedy sposób możemy być pewni, że „ChatGPT nie myśli, nie wnioskuje [i] niczego nie rozumie”. 

W języku technicznym – to jedyne takie zdanie, które się w tym tekście ważę zamieścić – matematycznym fundamentem modelu języka, na którym opiera się ChatGPT, są autoregresyjne modele językowe, czyli pewne modele ze statystyki procesów stochastycznych, notabene bardzo ciekawie rozwinięte dzięki zastosowaniu tzw. transformerów (o których pisze prof. Kisielewicz, chociaż moim zdaniem w tonie niesłusznie krytycznym). Jak to „niemyślenie” algorytmów AI wygląda, napisałem szeroko na łamach „Wszystko co Najważniejsze” [LINK].

Profesor Kisielewicz przekonująco wyjaśnia, dlaczego nadzieja na to, że stworzymy „autonomiczny program myślący na podobieństwo człowieka”, jest na pewno dziś – a zapewne pozostanie i „pojutrze” – mrzonką. Ale to sprawiło, że na to, czym jest sztuczna inteligencja, patrzy się od jakiegoś czasu inaczej – jak zasygnalizowałem w artykule przywołanym w poprzednim akapicie. Mianowicie wystarczy się zgodzić, że inteligencja jest w pierwszym rzędzie tą jakością, która pozwala danemu stworzeniu – człowiekowi albo zwierzęciu, albo maszynie stworzonej przez człowieka – działać właściwie i przewidująco w jego otoczeniu. O myśleniu nie ma tu ani słowa, a owo „otoczenie” może być nader wąskie – np. dotyczyć wyłącznie gry w szachy.

Zgadzam się ze stwierdzeniami prof. Kisielewicza dotyczącymi rzekomych i rzeczywistych zagrożeń płynących z wszechobecności zastosowań AI. I ja o nich pisałem, na pewno ostrzej, sięgając do aspektów filozoficznych, w przywoływanym artykule we „Wszystko co Najważniejsze” i później jeszcze na łamach dwumiesięcznika kulturalnego „Arcana” (nr 171, czerwiec 2023). W tym drugim wspomniałem o nowych sukcesach AI, mianowicie o algorytmach, które nie wymagają ładowania do nich żadnych danych historycznych w trakcie ich uczenia się. Na przykład program AlphaZero z roku 2017 został jedynie „zaznajomiony” z regułami gry w szachy i szybko stał się najlepszym graczem na świecie. To nowy rozdział w rozwoju metod AI – metod, można rzec, od początku samouczących się – rozdział, o którym prof. Kisielewicz nie wspomniał.

I zgadzamy się z prof. Kisielewiczem, że bez względu na to, o jaki system AI chodzi, potrafi on wykonać konkretne zadanie szybciej lub lepiej niż człowiek nie dlatego, że rozumie polecenie, ale dlatego, że jego działanie zostało wcześniej zaprogramowane oraz że szybciej liczy. Najczęściej, jak w przypadku ChatGPT, system ma dużą ilość załadowanej doń wcześniej wiedzy, ma ogromną pamięć, zdolną pomieścić „nieskończenie” więcej informacji niż pamięć człowieka. Z kolei samouczące się systemy AI – takie jak AlphaZero – nie wymagają załadowania do nich żadnej wiedzy „historycznej”. Wymagają jedynie załadowania reguł ich działania oraz takiego zaprogramowania, by zmierzały do realizowania dobrze określonego celu (np. wygrywania gry o znanych regułach). Ale nie zmienia to trafności właśnie poczynionej obserwacji o „bezmyślności” systemów AI. Jak pisałem na łamach pisma „Arcana”, „program AlphaZero rozegrał w fazie uczenia miliony gier w szachy i okazał się najlepszym graczem na świecie. Ponieważ jest szybszy od człowieka, rozegrał tych gier więcej, niż może ich rozegrać człowiek, i ponieważ ma większą od człowieka pamięć, lepiej niż człowiek to swoje »doświadczenie« mógł wykorzystać (jeśliby wziąć człowieka, który potrzebuje 30 minut na rozegranie jednej partii szachów albo przeanalizowanie jednej partii rozegranej przez kogoś innego, który robi to 10 godzin dziennie przez 350 dni w roku, to człowiek ten potrzebowałby prawie 143 lat na rozegranie lub przeanalizowanie miliona partii)”.

.W sierpniu 2020 r. w symulowanych pojedynkach lotniczych między człowiekiem – pilotem siedzącym w symulatorze myśliwca F-16 – a programem AI symulującym jego przeciwnika, lepszy okazał się program nauczony walki na tej samej zasadzie samouczenia się co AlphaZero. Ale też w fazie samouczenia się program (stworzony przez firmę Heron Systems) rozegrał ze sobą… cztery miliardy pojedynków.

Żyjemy w odczarowanym świecie, w którym – jak pisał Max Weber – chodzi o opanowanie wszystkiego przez kalkulację…

Jacek Koronacki

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 19 lipca 2023
Ryc. Milad Fakurian