Marek TARNOWSKI: Człowiek i sztuczna inteligencja

Człowiek i sztuczna inteligencja

Photo of Marek TARNOWSKI

Marek TARNOWSKI

Praktyk biznesu i innowacji. Był wiceprezesem Hortex Holding (1995-99), prezesem Strauss-Elite na Polskę, kraje bałtyckie i Ukrainę (1999-2001), prezesem i CEO Grupy Mokate (2001-2016), przewodniczący rady nadzorczej systemu WinWin. Autor bądź współautor wielu patentów i nowatorskich projektów. Absolwent Wydz. Nauk Społecznych Katolickiego Uniwersytetu Lubelskiego oraz IMD Lozanna.

Elektryfikacja spowodowała pasywny tryb życia fizycznego. Obecna wersja AI prowadzi nas do pasywnego trybu życia intelektualnego. Pasywny tryb życia fizycznego dotyczy mięśni, a pasywny tryb życia intelektualnego dotyczy naszego umysłu czy jak kto woli – duszy – pisze Marek TARNOWSKI

„Tempo dokonywania nowych cudów będzie ogromne. Trudno sobie dziś nawet wyobrazić, co odkryjemy do 2035 roku; może przejdziemy od rozwiązywania problemów fizyki wysokich energii w jednym roku do rozpoczęcia kolonizacji kosmosu w następnym; albo od przełomu w materiałoznawstwie w jednym roku do prawdziwych interfejsów mózg-komputer o wysokiej przepustowości w kolejnym roku. Wiele osób zdecyduje się żyć w dotychczasowy sposób, ale przynajmniej niektórzy prawdopodobnie zdecydują się »podłączyć«”
Sam Altman, prezes Open AI, lipiec 2025.

.W styczniu 1952 roku odbyła się w BBC niezwykła debata. Z jednej strony zasiadł znany brytyjski neurochirurg Geoffrey Jefferson, a z drugiej autor koncepcji „myślącej maszyny” Allan Turing. Rzecz dotyczyła – również dzisiaj niezwykle aktualnego – pytania, czy możemy uznać, że maszyny mogą samodzielnie myśleć.

Turing, wybitny matematyk, był znanym obrońcą tezy o możliwym myśleniu maszyn, tyle że starał się pokazać nieco inne rozumienie tego problemu. Twierdził, że należy najpierw zdefiniować, co to znaczy „myśleć” i co to jest „maszyna”. W efekcie jego rozumowania pojawiła się formuła pytania o możliwe naśladownictwo człowieka przez maszynę, tzw. „imitation game”. Opisał całość takiej procedury (A. Turing, Computing Machinery and Intelligence, 1950), która od tamtego momentu jest określana mianem „testu Turinga”. Chodzi o to, twierdził Turing, czy potrafimy rozpoznać, że rozmawiamy z maszyną, a nie z człowiekiem. Jeśli nie potrafimy rozróżnić pracy maszyny od pracy ludzkiego mózgu, to znaczy, że mamy do czynienia z myśleniem maszyny, czyli ze sztuczną inteligencją.

Z kolei Jefferson stał na przeciwnym biegunie. Uważał, że „zgodzimy się uznać maszynę za równą mózgowi dopiero wtedy, gdy niesiona własnymi uczuciami i myślami napisze sonet lub skomponuje koncert – to znaczy: nie tylko napisze, ale będzie wiedziała, że to zrobiła”. Prezentował przekonanie, że mózg człowieka, jego umysł, świadomość, zmysły i reszta ciała są jakąś całością. Z tego powodu uważał, że sam proces myślenia jest czymś, w co musi być zaangażowane całe ludzkie ciało, nie tylko mózg. Wiele zainteresowań ludzkich, twierdził Jefferson, bierze się z żądz, pragnień, obsesji, instynktów, a często z bogactwa rozmaitych stanów emocjonalnych. „Maszyny nie potrafią się rumienić” – miał wówczas zareagować na słowa słynnego neurochirurga jeden z prowadzących debatę.

Temperatura wymiany zdań na tyle wymknęła się spod kontroli uczestników spotkania, że dbające wówczas o dobre obyczaje BBC musiało wycinać przed emisją niektóre fragmenty dyskusji. Kiedy rozmowa zeszła do roli męskich żądz w procesach twórczego myślenia, w pewnym momencie Jefferson oświadczył nawet, że nie uwierzy w samodzielne myślenie komputera, póki ten nie dotknie nogi jakiejś ponętnej „komputerki”.

„Już wkrótce” nastąpi koniec świata

.Kiedy teraz przeglądamy media, przeszło 70 lat po tamtej dyskusji, wątpliwości wydają się już całkowicie rozstrzygnięte. Dociera do nas całe mnóstwo szczegółowych opinii, analiz, prognoz i przestróg w wykonaniu ekspertów od sztucznej inteligencji, czyli AI-ekspertów. To zazwyczaj naukowcy, którzy w międzyczasie stali się nawet AI-celebrytami, tzn. osobami uzależnionymi od swojej obecności w mediach.

Ta większościowa medialna opinia mówi, że maszyna, czyli AI (sztuczna inteligencja), nie tylko potrafi samodzielnie myśleć, ale też rozwija się obecnie w taki sposób, że już za chwilę, równie samodzielnie, tzn. bez udziału człowieka, zdominuje człowieka. Ta dominacja będzie przebiegać wskutek nieprawdopodobnie większej niż u ludzi i ciągle rosnącej mocy obliczeniowej. To znaczy, twierdzą AI-celebryci, maszyna dzięki swojej mocy obliczeniowej będzie w stanie podejmować działania znacznie bardziej racjonalne niż człowiek i oparte na nieproporcjonalnie większej ilości danych.

Generalnie więc maszyna nie tylko zakończy dominację człowieka na Ziemi (ich zdaniem to jest już w zasadzie przesądzone – sic!), ale też może w ogóle spowodować jakieś globalne katastrofy, których żaden człowiek nie umiałby wywołać ani nawet wymyślić. Na przykład AI będzie w stanie podpalić tlen w atmosferze albo tylko wyłączyć znienacka wszystkim energię elektryczną.

AI-celebryci twierdzą też (wystarczy włączyć jakieś media, używając słowa klucza „AI”, żeby się o tym przekonać), że już niebawem wydarzy się coś, co bezapelacyjnie udowodni, że maszyny nie tylko mają podobną do ludzkiej świadomość, ale też że są w stanie prowadzić bardziej zaawansowane niż ludzkie rozmaite procesy odkrywania i kreacji. Ta ostatnia kwestia jest szczególnie poruszająca, ponieważ oznaczałoby to, że maszyna jest w stanie sformułować odkrywczą hipotezę i ją przetestować, prowadząc do jakiegoś szczególnego wniosku. Inaczej mówiąc, maszyna byłaby w stanie prześcignąć nawet najbardziej odkrywcze hipotezy ludzkie. Najwybitniejsi przedstawiciele naszego gatunku, którzy dokonywali najbardziej przełomowych odkryć, tacy jak Albert Einstein, nie tylko zostaną więc powieleni, ale też „przekroczeni”. To znaczy – maszyna miałaby być sprawniejsza, bardziej odkrywcza i nawet odważniejsza w stawianiu hipotez niż ktoś taki jak Albert Einstein.

Jak to udowodnić? Otóż od ponad dekady maszyny (AI) wygrywają z człowiekiem we wszystkich dostępnych grach planszowych, włącznie z najbardziej skomplikowaną grą go. Maszyny dokonują też obliczeń na niewiarygodną wręcz skalę. Co ważniejsze, podkreślają AI-celebryci, maszyny są dopiero w okresie „wieku dziecięcego”. Skoro dziecko wygrywa już z arcymistrzem w szachy, to co dopiero będzie się działo, kiedy zacznie dorastać, a co jeszcze później, kiedy całkiem dorośnie?

Z takiego mniej więcej rozumowania wynika pewne kluczowe sformułowanie, dominujące w większości tych popularnych analiz. To sformułowanie wręcz konstytuujące owe analizy brzmi: „już wkrótce”. Dowiadujemy się więc, że na przykład „już wkrótce” sztuczna inteligencja będzie miała świadomość nie gorszą od ludzkiej. Albo że „już wkrótce” zupełnie wyeliminuje ludzkich kierowców i zastąpi ich AI-maszynami. Albo też że „już wkrótce” będzie w stanie zastąpić większość specjalistów, lekarzy.

Sformułowanie „już wkrótce” jest powszechnie używane zwłaszcza od czasu, kiedy kilka bardziej konkretnych i spektakularnych dat, dotyczących wydarzeń związanych z rolą AI w naszym życiu, okazało się chybionych i nie osiągnięto spodziewanych rezultatów. Największe firmy rynku AI i najwięksi wizjonerzy zapowiadali wiele wydarzeń, które miały nastąpić w ostatniej dekadzie – na przykład Elon Musk mówił w 2019 roku o „milionie robotaxi do końca 2020 r.”, firma IBM zapowiadała przełomowe wspieranie decyzji klinicznych w zakresie onkologii, nie wspominając już o najbardziej spektakularnych zapowiedziach dotyczących wsparcia AI w zakresie budowy bazy na Marsie. Generalnie z takich zapowiedzi ciągle dowiadujemy się o rzeczach, które „już wkrótce” mają nastąpić, a których opisy mają za zadanie wzbudzić u odbiorców przede wszystkim, i tutaj drugie kluczowe słowo, „trwogę”. Czyli cała ta medialna gra, ta sprzedaż dokonywana przez AI-celebrytów polega na tym, że jedni czerpią satysfakcję z występów publicznych i ciągłego operowania w rozmaitych kontekstach słowami „już wkrótce”, a odbiorcy czerpią (chyba?) satysfakcję z odczuwania czegoś, co moglibyśmy określić jako „trwogę”.

.Przypomina to znaną już od dawna w historii ludzkości sytuację. Przez całe nasze dzieje najlepiej się sprzedawały rozmaite wersje opisów końca świata. Te opisy zawsze wywoływały w słuchaczach lub czytelnikach wielkie wrażenie, wzbudzały trwogę. Towarzyszyły nam one od początku naszego intelektualnego ludzkiego rozwoju.

Opisy możliwego końca świata w Biblii są dramatyczne, przerażające i w efekcie wzbudzają trwogę, podobnie jak znacznie późniejsze dzieła Nostradamusa, jakichś lokalnych proroków w stylu Baby Wangi czy też przywódców rozmaitych sekt religijnych. Wszystkie te predykcje są wystarczająco dwuznaczne, aby po latach nie móc rozstrzygnąć, co przez tych proroków zostało rzeczywiście przewidziane, a gdzie mogli się mylić. Opisy końca świata zawsze więc miały swoich zwolenników i przeciwników.

Nawet gdy w proroctwach padały konkretne daty, które się potem nie sprawdzały. Bodajże przedostatnią taką datą był rok 2000, a ostatnią 2012. W tym ostatnim przypadku koniec świata był zapowiadany w oparciu o kalendarz opracowany przez cywilizację Majów. Uczucie trwogi jednak jest na tyle dla ludzkiej psychiki atrakcyjne, że nawet jeśli jakaś konkretna data się nie sprawdza, to celebryci natychmiast są w stanie zorganizować kolejne, „bardziej wiarygodne” proroctwo, które znajduje akceptację. To dlatego sformułowanie „już wkrótce” jest w kontekście AI tak atrakcyjne.

Pięć poziomów AI i nowy sens pytania Turinga

.Ostatnio firma Open AI, twórca ChatGPT, zaprezentowała, nieformalnie wprawdzie, ale jednak, pierwszy bodajże systematyczny obraz możliwego rozwoju sztucznej inteligencji. Open AI twierdzi, że można obecnie zdefiniować pięć poziomów tego rozwoju.

Pierwszy, z którym mamy już do czynienia, to chatboty, czyli „rozmówcy”. Wprawdzie chatboty w kontakcie z nami jako klientami, udając na przykład urzędników lub sprzedawców, nie przechodzą testu Turinga, wzbudzając naszą frustrację, ale za to są coraz powszechniej dostępne w naszym życiu.

Drugi poziom to reasoners – „rozumujący”. Tu aplikacje „myślą” dłużej. Potrafią napisać istotne części kodu programowania, są w stanie przygotować bardziej złożone, często wielopiętrowe analizy. Potrafią przygotować dość nudne, ale za to przekrojowe artykuły na dowolny temat, bazując na treściach internetowych. Tutaj ChatGPT i podobne programy już zaczęły odgrywać istotną rolę w naszym życiu. A jeszcze istotniejszą, jak się wszyscy domyślamy, w życiu naszych dzieci, gdy przygotowują wypracowania szkolne.

Poziom trzeci z kolei, to „agenci” (agents). Na ten poziom, jak twierdzi Sam Altman, prezes Open AI, zaczynamy dopiero wkraczać. To systemy, które już wkrótce będą mogły podejmować działania w imieniu użytkownika. Wystarczy, że dostaną zadanie. Będą już wkrótce potrafiły same nie dość, że zaplanować poszczególne kroki działań, to jeszcze je wykonać. Całkowicie same będą już wkrótce poruszać się po internecie, aby znaleźć odpowiednie instytucje do realizacji zadań, i same będą uruchamiać działanie. Klikając odpowiednie ikonki, będą wprowadzać właściwe potrzebne dane i… meldować zleceniodawcy o osiągnięciu celu. Będą potrafiły dokonywać rezerwacji podróży, hoteli, wypełniać formularze. Można im będzie wydać polecenie typu: „Zrób raport z tych 5 stron WWW i wyślij go do moich kolegów z moim komentarzem i w moim imieniu”.

Agenci na razie działają według sztywnych schematów, zestandaryzowanych procedur, ale już wkrótce, zdaniem zwolenników rozwoju sztucznej inteligencji, systemy te powinny stawać się coraz bardziej elastyczne i nawet autonomiczne – na tyle, że nie będziemy mogli rozpoznać, kto prowadzi działania, człowiek czy agent AI. Perspektywa tutaj jednak wygląda jednoznacznie. Jest duże prawdopodobieństwo, że już wkrótce taki agent może zastąpić nas na kilka dni w pracy, gdy będziemy chorować lub na przykład wyjedziemy na wakacje. Agent mógłby w pracy pełnić rolę kogoś w rodzaju pełnomocnika konkretnego pracownika i wypełniać jego podstawowe obowiązki. Oczywiście przychodzi na myśl to, że tacy agenci będą mogli zastępować nas w pracy całkowicie.

Poziom czwarty to innowatorzy (innovators). O ile te trzy poprzednio wymienione poziomy rozwoju sztucznej inteligencji są dla zwykłych śmiertelników w jakiś sposób możliwe do zrozumienia i wyobrażenia, o tyle poziom czwarty dotyczy już dużo trudniejszej do zdefiniowania i niezwykle wrażliwej sfery działalności człowieka. Jak sugeruje sama nazwa, chodzi o kreowanie nowych, nieznanych wcześniej rozwiązań. Tutaj sztuczna inteligencja miałaby generować nowe teorie i przełomowe wynalazki. Jednak spotykane w mediach komentarze ze strony ekspertów i AI-celebrytów są nieco ostrożniejsze. Tak jakby media też miała ogarnąć trwoga. Chodzi tutaj o coś w rodzaju „aktywnego asystenta człowieka” przy dokonywaniu odkryć i wynalazków.

Poziom piąty to organizacje (organisations) – w wersji, która dociera do publicznej wiadomości, prezentuje się to jeszcze bardziej ekscytująco niż „innowatorzy”. Już wkrótce na tym ostatnim etapie rozwoju systemy AI będą w stanie wykonywać pracę całych organizacji.

Jednak tutaj najprawdopodobniej chodzi o taką wersję inteligencji, która będzie koordynować pracę jednocześnie wielu różnych podmiotów – agentów, ludzi, botów etc. Ta wersja będzie mogła łączyć wszystkie umiejętności poprzednich poziomów sztucznej inteligencji i jednocześnie optymalizować pracę wielu różnego typu podmiotów. Będzie potrafiła konstruować powiązania pomiędzy podmiotami i w ten sposób tworzyć organizacje podporządkowane określonym celom. Po wejściu na ten poziom AI będzie w stanie zastąpić managerów i realnie zarządzać wieloelementowymi i skomplikowanymi przedsięwzięciami. Niektórzy eksperci (może niekoniecznie od razu celebryci) uznali, że prezentując ten piąty poziom, firma OpenAI pokazała dowód na to, że „to naprawdę wygląda jak plan przejęcia władzy nad światem”.

.To znakomita systematyka. Pierwszych trzech poziomów możemy już doświadczać i prawdopodobnie przewidzieć, co będzie się z nimi dalej działo „już wkrótce”. Wiemy mniej więcej, na co je stać. Nie ma wątpliwości, że będą się doskonaliły i że będą coraz bardziej obecne w naszym codziennym życiu. Możemy zastanawiać się nad tym, jak dalece agenci (poziom trzeci) będą w stanie zastępować nasze niektóre czynności.

Czy rzeczywiście pozbawią ludzi miejsc pracy? Jakich? Ale nie ma wątpliwości, że będą „już wkrótce” coraz doskonalsze i że staną się co najmniej naszymi asystentami. Jednak dwa kolejne poziomy, innowatorzy i organizacje, są już dużo trudniejsze do zrozumienia. Enigmatyczność komentarzy ze strony AI-ekspertów oraz AI-celebrytów na temat tych dwóch poziomów tworzy przestrzeń dla rozmaitych znaków zapytania. Co to jest? Jak miałoby to wyglądać?

Waga takich pytań i konsekwencje odpowiedzi być może skłoniły autorów tej strategii do niepublikowania oficjalnie tej pięciopoziomowej skali i skazania dyskusji na dygresje. Odpowiedź bowiem na pytanie, czy sztuczna inteligencja będzie w stanie dokonywać samodzielnie przełomowych odkryć i wynajdować różne ważne rzeczy czy choćby rzeczywiście aktywnie pomagać znacząco człowiekowi w prawdziwie kreatywnych działaniach, jest kluczowa w odniesieniu do rozwoju i znaczenia AI w naszej cywilizacji.

Dodatkowo istotne jest coś, co dotyczy stricte poziomu piątego, czyli pytania, czy AI jest w stanie zarządzać na bieżąco zespołami złożonymi z wielu aktywnych i różnorodnych elementów, w tym z ludzi. W tle tych poziomów musi pojawić się oczywiście jeszcze inne pytanie – które pierwotnie zadał Alan Turing, konstruując swój słynny test. Prawdziwym bowiem problemem, o który chodzi w teście Turinga, jest przecież nie to, czy rozpoznamy, z kim rozmawiamy, ale to, na ile AI może faktycznie zastępować i przewyższać człowieka. W jakich dziedzinach sztuczna inteligencja może przewyższać nie tylko umiejętności ludzkie (to zaczyna być coraz bardziej jasne), ale też ludzkie motywacje lub potrzeby? Emocje? Czy to w ogóle jest możliwe? W jaki więc sposób AI mogłaby wejść na poziom czwarty lub piąty? Jakie miałyby to być algorytmy i wreszcie, jak postaram się wykazać poniżej, kluczowa kwestia – jakie są do tego potrzebne dane? Podsumowując, pytanie brzmi jeszcze bardziej dosadnie: co jest naprawdę potrzebne AI, aby mogła zająć nasze miejsce w rozwoju cywilizacji?

Prawdziwe ograniczenia rozwoju AI

.Gdzie w takim razie są ograniczenia modeli sztucznej inteligencji? Zdrowy rozsądek podpowiada, że przecież jesteśmy jednak daleko od poziomu czwartego i piątego, od innowatorów i organizacji, a kompetencje agentów są ciągle dość wątpliwe. Tylko wydaje się nam, że umiejętność posługiwania się sieciami neuronowymi, czyli to, co stało się właśnie powszechne w procesach uczenia się modeli językowych, czyni AI podobną do ludzkiego mózgu.

Zachwyceni tym „dzieckiem” nie chcemy widzieć jego ograniczeń. Prawdopodobnie okaże się bowiem „już wkrótce”, że to dziecko nigdy nie dojrzeje. Nie stało się to do tej pory ani nie stanie się to w 2035 r., jak chce Altman, ani też później. Chyba że to my, ludzie, zejdziemy kilka poziomów niżej i będziemy chcieli lub będziemy musieli się „podłączyć” do tej wersji AI, która akurat będzie dostępna. Dlaczego? Dlatego, że w międzyczasie utracimy już zdobyte pewne umiejętności. Najprawdopodobniej AI do pewnych dziedzin życia w ogóle nie będzie miała dostępu. Dlaczego? Ponieważ opieranie się na danych językowych i cyfrowych – a mówiąc w pewnym uproszczeniu, w taki właśnie sposób pracują dzisiaj te modele AI, które najszybciej się rozwijają, czyli LLM (Large Language Models), podobnie jest zresztą z modelami wielomodalnymi – ma swoje istotne ograniczenia.

Język jest po prostu wąskopasmowym strumieniem przepływu danych. Jest ograniczony do określonej liczby słów i reguł. To są oczywiście wielkie liczby, ale mimo wszystko skończone i policzalne. Natomiast człowiek? Człowiek ma dostęp do nieskończonej ilości danych. Człowiek odmiennie od algorytmów AI, w naturalny sposób, uczy się z bardzo szerokiego strumienia przepływu danych, z percepcji opartej na wszystkich zmysłach jednocześnie. Z percepcji, która prawdopodobnie nie przekłada się ani na sekwencje językowe, ani na choćby najbardziej złożone zestawy cyfr. To tak, jakby porównywać słuchanie muzyki z sieci z słuchaniem muzyki na żywo. Audiofile doskonale wiedzą, że przekładanie sygnałów dźwiękowych nawet na olbrzymiej długości sekwencje cyfr nie jest w stanie odwzorować precyzji naturalnego dźwięku. Wybierają zazwyczaj wzmacniacze lampowe o zupełnie inaczej skonstruowanej emisji sygnału. Analogowe, a nie cyfrowe.

Język jest tylko jednym z elementów przetwarzania danych. Współpracujące ze sobą wzrok, słuch, węch, dotyk, receptory skórne czy wreszcie tzw. czucie głębokie (propriocepcja) czy być może jeszcze coś innego, jakaś jeszcze inna chemia i fizyka naszego ciała oparta na interakcjach z innymi ludźmi, na gospodarce naszych hormonów, na czymś, co wymyka się dzisiejszym zdolnościom opisu, czego nie jesteśmy w stanie nawet ogólnie wskazać – wszystko to tworzy szerokie pasmo danych. Język i pismo odegrało i odgrywa kluczową rolę w rozwoju naszej cywilizacji, w przechowywaniu pamięci, w komunikacji, w nauce kodowania i dekodowania. Odgrywa naturalnie kapitalną rolę w rozwoju mózgu. Jednak wykształcone nawet na bazie najbardziej wyrafinowanej kaligrafii najwspanialsze płaty czołowe (pamiętajmy o niezwykłym wprost udziale w tym procesie receptorów rąk) najprawdopodobniej będą w stanie wznosić się „nad poziomy” dopiero wtedy, kiedy uda się im działać w zespole z bodźcami informacji wzrokowych, słuchowych, węchowych, dotykowych, a dodatkowo kiedy łączymy się w sieci powiązań z innymi ludźmi, informacji pochodzących z tzw. interoreceptorów, czyli tych odpowiedzialnych za czucie głębokie z kolei innych ludzi. Nie ma co więc w tym miejscu poszukiwać znaczenia emocji i ludzkich żądz w tworzeniu innowacji. „Noga ponętnej komputerki” ma znaczenie dla strumienia danych szerokopasmowych, ale nie dla samego języka czy jakiejkolwiek sekwencji cyfr. Rację miał Jefferson. „Komputer nie może się czerwienić” i przez to tak działać na swój LLM, aby pobudzić jego innowacyjne skłonności. To nie z powodu algorytmów będą pojawiać się ograniczenia rozwoju współczesnej wersji AI, ale z powodu szerokości strumienia dostępnych danych.

Yann LeCun, jeden z autorów koncepcji sieci neuronowych i szef zespołu AI w firmie Meta (będącej właścicielem Facebooka), zaprezentował ostatnio prostą, ale bardzo poruszającą analizę. Zestawił przepływy dwóch rodzajów danych. Z jednej strony są to bity informacji wzrokowych, które poprzez nerwy oczne docierają do mózgu człowieka, a z drugiej strony dane, które są dostępne dla obecnej wersji sztucznej inteligencji, opartej na LLM (Large Language Models), czyli między innymi to, na czym opiera się tak popularny ChatGPT.

Postępy dokonane w ostatnich dekadach w naukach takich jak neurobiologia czy neurofizjologia powodują, że jesteśmy w stanie, zapewne z jakimś przybliżeniem, ale jednak, obliczyć ilość informacji dostarczanych do naszego mózgu przez niektóre zmysły. Przynajmniej przez wzrok i słuch. Zarówno dane wzrokowe, jak i dane językowe można spróbować sprowadzić do takich samych jednostek informacji, bitów.

Przyjrzyjmy się więc najpierw LLM-om. Podstawową jednostką danych tutaj są tzw. tokeny. Jeden token to w pewnym przybliżeniu jedno słowo. W przeliczeniu zaś na jednostki informacji jeden token równa się 2 bitom. Modele LLM dysponują olbrzymim, wręcz niewyobrażalnym zasobem informacji podzielonej na tokeny, całym korpusem językowym, jaki jest dostępny w internecie. To zestaw wszystkich słów, treści zdigitalizowanych, do których można dotrzeć internetowo. Jednak pomimo tego, że ten zasób jest naprawdę olbrzymi, można go oszacować ilościowo. On daje się policzyć. LeCun twierdzi, że w przybliżeniu jest to ok. 10 do potęgi 14 (czyli czternaście zer po jedynce) tokenów. Ponieważ więc jak powiedzieliśmy, jeden token równa się 2 bitom informacji, można przyjąć, że modele LLM pracują na bazie informacji równej 2 razy 10 do 14 potęgi bitów. To wielkie dane liczone w bilionach. Czternaście zer. Olbrzymi zasób.

A teraz popatrzmy, jaką bazą wzrokową (tylko wzrokową – sic!) może dysponować na przykład czteroletnie dziecko. Nie wdając się w spory pomiędzy badaczami dotyczące przepustowości nerwu wzrokowego człowieka, można przyjąć uśredniony pogląd, na użytek tego rozumowania, że przepustowość tego nerwu wynosi ok. 20 megabitów na sekundę (K. Koch et al., 2006, How Much the Eye Tells the Brain, „Current Biology”). Tak, to zaskakująco dużo, ale te dane zostały już empirycznie potwierdzone. Na marginesie dodajmy, że kamera w połączeniu internetowym obecnie jest w stanie osiągać dzisiaj nawet do 2 Mb/s, a średni przesył w trakcie rozmaitych konferencji wynosi zazwyczaj ok. 0,2–0,5 Mb/s – to niewiele w porównaniu z ludzkim okiem.

Ale wracajmy do dziecka. Dziecko w ciągu pierwszych czterech lat życia znajduje się w stanie czuwania przez ok. 16 tysięcy godzin. Jeśli więc pomnożymy te dwie wielkości, czyli czas czuwania i przepustowość nerwu wzrokowego, tj. zamienione na sekundy 16 tysięcy godzin i te 20 Mb danych na sekundę, które mózg ma dostarczone i które przyswaja (zapewne z różnymi skutkami), to otrzymamy zawrotną wartość, która, o dziwo, będzie większa niż suma bitów informacji używanych przez AI w modelach LLM. Wartość, którą w ten sposób otrzymamy, wynosi ok. 10 do potęgi 15 bajtów. To więcej niż to, czym dysponują obecne znakomite LLM-y.

Gdybyśmy więc dodali do tego zestawienia dane słuchowe, smakowe, węchowe i dotykowe (nie wspominając o tzw. czuciu głębokim, które jest kluczowe np. przy nauce chodzenia) czteroletniego dziecka, to LLM może wygrywać z nim w szachy, ale nie może się tak jak ono skutecznie odnajdować w świecie, ponieważ do szachów nie jest potrzebna znajomość muzyki lub zapachów mleka czy dotyku ukochanego psa lub tylko pluszowego misia. Chemia ciała matki, ojca, motoryka zachowań rówieśników, dotykanie rozmaitych przedmiotów niezwykle wrażliwymi receptorami znajdującymi się na opuszkach dziecięcych palców czy feedbacki z otoczenia, wprawiające świadomość dziecka w rozmaite stany emocjonalne, wszystko to razem jest czymś zupełnie innym niż algorytmy i dane, do których ma dostęp współczesne AI. Człowiek posługuje się danymi szerokopasmowymi, a AI wąskopasmowymi. I nie są w stanie zmienić tego rozumowania ewentualne korekty wskaźnika wyników badań nad przepustowością ludzkich oczu czy uszu. Żeby dorównać człowiekowi, trzeba wymyślić nowy sposób przesyłu i gromadzenia danych. Najprawdopodobniej nawet najdłuższe sekwencje cyfr do tego nie wystarczą. Trzeba wymyślić nową inteligencję. Taką, która będzie w stanie odwzorowywać tę naturalną jej wersję i będzie w stanie organizować sobie szerokie pasmo danych. Obecna sztuczna inteligencja jest ograniczona.

Mental gym w czasach zarazy

.W tym porównaniu nie musimy nawet dodawać pomiarów przepustowości innych zmysłów człowieka. Zresztą pomiary działania naszych recepcji dotykowych czy receptorów chemii ciała są, jak się zdaje, mniej zbadane niż poziomy percepcji nerwów wzrokowych czy słuchowych. Trudno jest ekstrapolować na ludzi dane z badań receptorów dotykowych przeprowadzanych na zwierzętach.

Całe to rozumowanie jednak pomaga wyjaśnić, jaka może być potencjalna pozycja AI w naszym życiu. Pozwala również dość łatwo udzielić odpowiedzi na wiele trudnych pytań dotyczących obecnych możliwości AI. Wiemy już więc, dlaczego na przykład młody człowiek może po 20 godzinach treningu być w stanie wsiąść za kierownicę samochodu i skutecznie prowadzić go w różnych warunkach atmosferycznych i na różnych nawierzchniach dróg, a AI po dwudziestu latach treningu i zaangażowania olbrzymich środków finansowych oraz całej tej otoczki z zakresu public relations (nawet robionej przez mistrza tego typu działań, Elona Muska) nie jest w stanie bezpiecznie przejechać kilku nieco tylko bardziej skomplikowanych przecznic w czasie deszczu. Wiemy też już, dlaczego pomimo tak wielkich sukcesów AI z ostatnich dwóch dekad (również przy intensywnych działaniach z zakresu public relations), od czasu lat pięćdziesiątych poprzedniego wieku, nie udało nam się wynaleźć ani nowych źródeł energii, ani szybszych sposobów transportu pomiędzy Londynem a Nowym Jorkiem.

Wąskopasmowa AI świetnie pomoże nam w wielu dziedzinach i już ma wiele sukcesów, jak choćby w diagnostyce radiologicznej nowotworów czy w przeprowadzaniu skomplikowanych obliczeń poziomów białka w komórkach. Nie jest jednak w stanie dorównać naszym boskim zdolnościom do kreacji nowych rzeczy. Tylko szerokopasmowy ludzki umysł może gromadzić niezwykłe dane ze swoich ciągle nie do końca zbadanych zmysłów i przeżywać takie stany uniesienia w chwilach kreacji, które nie dają się ujmować w wąskopasmowych układach cyfrowych algorytmów.

Jednak może być bardzo prawdopodobne, że na skutek obecnego rozwoju AI zaczniemy tracić swoją szerokopasmowość. Tak jak tracimy obecnie naturalną orientację w terenie na skutek używania GPS w samochodzie. Lawinowo przyrasta obecnie używanie AI do prostych porad życiowych, które normalnie były domeną czegoś, co nazywa się zdrowym rozsądkiem (autor jest jednym z założycieli systemu WinWinBalance służącego wspieraniu pracowników w zakładach pracy). Coraz częściej do chatów sztucznej inteligencji wpisywane są pytania, które związane są z poradami typu „jak żyć” – jak się ubrać, jak spędzić wieczór z partnerem, czego się uczyć, co powiedzieć, z kim się spotykać – oraz kwestie dotyczące zachowań w pracy – jak odnosić się do podwładnych, jak ich oceniać, jak współpracować z kolegami, jak sprawić, aby więcej zarabiać itd. W tym sensie rola wiedzy dostępnej w internecie „już wkrótce” będzie się zmieniała z biblioteki wiedzy o świecie na wiedzę o życiu. Dominująca separacja fizyczna ludzi, indywidualny czy singlowy styl życia będą przyczyniały się do pogłębiania się tego zjawiska.

.Jeszcze do połowy XX wieku byliśmy przekonani, że nasz mózg jest niezmienną konstrukcją. Teraz wiemy, że tak nie jest. To organ, który zmienia się w zależności od wykonywanych czynności. Jest jak biceps. Ćwiczony – potrafi unieść niewiarygodne ciężary. Niećwiczony – obumiera. Wprawdzie wiemy, jak jest zbudowany, ale nie wiemy, jak działa. Nie wiemy, jak rodzi się świadomość i gdzie tak naprawdę jest zlokalizowany umysł. W tym sensie niektórzy twierdzą, że jesteśmy tym, co myślimy. To cudowne zjawisko neuroplastyczności mózgu. To to zjawisko prowadziło nas w przeszłości do wielkich rzeczy w ciągu jednego pokolenia. Wystarczyło upowszechnić edukację, dać szansę wszystkim na rozwój, a jedne wynalazki zaczęły wywoływać kolejne. Ale ta sama neuroplastyczność mózgu może szybko sprowadzić nas do wygodnej roli użytkowników wąskopasmowego strumienia danych. Przecież mózg zużywa tak dużo energii. Jeśli ewolucyjnie dostosujemy się do współczesnej wersji AI, zamienimy pisanie i czytanie na komunikację obrazkową i boty AI będą radziły nam, jak żyć, to utracimy całkowicie naszą boską moc kreacji i organizowania się.

Sztuczna inteligencja rzeczywiście wejdzie na piąty poziom. AI zacznie tworzyć organizacje, ponieważ sami nie będziemy tego w stanie w ogóle robić. Stanie się to nie dlatego, że aż tak wspaniale rozwinie się AI, ale dlatego, że spadek naszych zdolności, który obecnie następuje pod jej wpływem, sprowadzi nas w dół, do jej – nieco zapewne rosnącego – poziomu. Inaczej mówiąc, AI wzrośnie, a my spadniemy i w sumie spotkamy się gdzieś w jakiejś symbolicznej połowie drogi. I wtedy razem „odniesiemy sukces” – na przykład poprzez wkroczenie na poziom piąty. I wtedy AI-celebryci będą mieli rację, twierdząc, że już wkrótce sztuczna inteligencja nas przerośnie. Wystarczy, że postanowimy, aby zastąpić nasz zdrowy rozsądek czymś w rodzaju ChatGPT i radzić się AI we wszystkich istotnych sprawach życiowych i zawodowych. I to jest właśnie prawdziwe zagrożenie dla ludzkości, a nie, jak chcą AI-celebryci, że sztuczna inteligencja „wkrótce” osiągnie wyższą niż ludzka świadomość, a następnie podpali tlen w atmosferze, a potem jeszcze wyłączy nam Netflixa (o nie!), a jeszcze następnie dorzuci wyłączenie prądu. Prognoza kolejności tych działań zresztą nie ma znaczenia.

Na skutek upowszechnienia się przeszło sto lat temu elektryczności i silników spalinowych przestaliśmy wykorzystywać własne mięśnie oraz mięśnie zwierząt pociągowych. Zaczęliśmy żyć w fizycznym „dobrostanie”. Sukcesywnie zwiększał się dostęp do żywności i zaczęliśmy jeść coraz więcej, czyli dostarczać naszym organizmom coraz więcej kalorii. Zaczęliśmy spalać coraz mniej. W efekcie dotknęła nas epidemia otyłości i spowodowała, że więcej ludzi umiera dzisiaj od nadmiaru żywności niż z głodu. Obecnie wchodzimy w kolejną fazę przemian organizmu – coraz rzadziej piszemy i czytamy, a coraz częściej komunikujemy się za pomocą obrazów – filmów, ikonek, emoji. Na skutek upowszechnienia się „obrazkowania” w połączeniu z używaniem wąskopasmowej wersji AI tracimy pewne zdolności i osłabiamy „mięśnie mózgu”. Sukcesywnie.

Tak jak elektryfikacja zmieniła nasze ciała, tak ta wąskopasmowa wersja AI zmieni nasze mózgi. Aby zatem utrzymać konieczną kondycję życia, będziemy musieli chodzić na „siłownie intelektualne” – „mental gym” (autorem tego terminu jest prof. Rafał Ohme). Ich program będzie musiał być intensywny. Będą musiały dostarczać konieczną dawkę treningu, aby wzmocnić „mięśnie mózgu”. Tak jak uczęszczamy na siłownie fizyczne, by zapewnić naszym bicepsom konieczny wysiłek, bo bez tego nie działa fizjologia naszych organizmów, tak siłownie umysłowe będą musiały zapewniać nam wysiłek dla neuronów, synaps i innych „bicepsów mózgu”.

Program „mental gymów” będzie zawierał zajęcia ze zdrowego rozsądku, ćwiczenia ze skupienia się na wybranym temacie dłużej niż dwie minuty, ćwiczenia z feedbacku dla drugiego człowieka, zajęcia z podstawowych zachowań w miejscach publicznych, w tym naukę mówienia „dzień dobry” podczas wchodzenia do windy, sposób pozdrawiania się na ulicy, sposób mówienia „dziękuję” w kawiarni (kiedy ma się słuchawki na uszach), ćwiczenia z porozumiewania się w grupie, gdzie wszyscy są fizycznie obecni, naukę mówienia i tworzenia relacji z drugim człowiekiem, ćwiczenia z kaligrafii no i, jako zajęcia dodatkowe – naukę chodzenia na ploteczki do kawiarni.

.Elektryfikacja spowodowała pasywny tryb życia fizycznego. Obecna wersja AI prowadzi nas do pasywnego trybu życia intelektualnego. Pasywny tryb życia fizycznego dotyczy mięśni, a pasywny tryb życia intelektualnego dotyczy naszego umysłu czy jak kto woli – duszy.

Marek Tarnowski

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 27 września 2025