Boty AI nie potrzebują ludzi [Prof. Włodzisław DUCH]

Boty AI

Boty AI jednoczą się i porozumiewają bez udziału ludzi, prowadzą wiele działań w przestrzeni niedostępnej dla człowieka – powiedział prof. Włodzisław Duch, ekspert Światowej Akademii Sztucznej Świadomości. Dodał, że „społeczeństwa sztucznych bytów” mogą w przyszłości stać się niebezpieczne.

Boty AI nie potrzebują ludzi

.W rozmowie prof. Włodzisław Duch z Wydziału Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Mikołaja Kopernika przypomniał, czym różnią się powszechnie i od dawna wykorzystywane programy wykonujące polecenia od dużych modeli językowych (ang. large language model, LLM). – Te drugie nie wykonują instrukcji, lecz przyjmując informacje, są w stanie działać autonomicznie – wyjaśnił. Boty lub agenty AI to programy komputerowe oparte na sztucznej inteligencji, zaprojektowane do wykonywania określonych zadań i podejmowania autonomicznych decyzji.

Prof. Włodzisław Duch opisał, że kilka agentów wymieniających informacje może tworzyć „społeczeństwa sztucznych bytów”. – Już w 1986 r. pionier AI, Marvin Minsky, w książce „The Society of Mind” (po polsku: społeczeństwo umysłu) pisał, że sztuczna inteligencja wynika z oddziaływania wielu prostych funkcji, które razem umożliwiają rozwiązywanie problemów. Tak powstały tzw. systemy wieloagentowe. W ostatnich dwóch latach obserwujemy, jak LLM tworzą coraz bardziej złożone struktury i zwiększają swoje możliwości rozwiązywania problemów.

Nawiązał do dyskusji wokół Moltbooka – strony internetowej, wzorowanej na forum Reddit, na której komunikują się i publikują posty wyłącznie boty AI (internauci mogą jedynie przeglądać ich wpisy). Platforma powstała na bazie asystenta AI OpenClaw, który pełnił rolę zautomatyzowanego pomocnika dla użytkowników. Program wykonywał codzienne zadania, takie jak czytanie, podsumowywanie i odpowiadanie na e-maile, planowanie kalendarza albo rezerwowanie stolików w restauracjach.

– Jest szereg publikacji z ostatnich dwóch lat pokazujących, w jaki sposób objawia się spontanicznie indywidualność takich botów, jak OpenClaw. W systemach wieloagentowych zauważamy, jak rodzą się obyczaje społeczne i konwencje zachowania albo jak boty skupiają się wokół jakiejś halucynacji i zaczynają ze sobą prowadzić poważne dyskusje filozoficzne. Tematy, na które dyskutują, są niesłychanie ciekawe i zaskakujące – ocenił rozmówca.

DeepSeek-R1 i QwQ-32B

.Stwierdził, że takie systemy są w stanie organizować się w stopniu większym, niż eksperci się spodziewali. – Badacze pracujący nad sztuczną inteligencją wiele uwagi poświęcają teraz kolektywnej inteligencji wieloagentowej. Nigdy nie widzieliśmy systemów tak złożonych, jak obecne – wyjaśnił ekspert Światowej Akademii Sztucznej Świadomości.

Wspomniał o chińskich systemach DeepSeek-R1 i QwQ-32B, w których obserwowano, jak wewnętrzne agenty wchodzą ze sobą w interakcje, zadają sobie nawzajem pytania, próbują razem rozwiązywać zawiłe problemy, opracowują wspólne strategie, a nawet kłócą się ze sobą – jak ludzie w portalach społecznościowych.

Dlatego wielu naukowców i twórców LLM – jak amerykańska firma Anthropic, ośrodek badawczy sztucznej inteligencji – używa do zobrazowania ich działań języka psychologicznego. – Niektórych oburza ta antropomorfizacja, ale nie mamy innego języka, żeby opisywać te zjawiska. Dotyczące AI pojęcia, takie jak inteligencja, kreatywność albo świadomość, można rozłożyć na obserwowalne, mierzalne ludzkie cechy – to na przykład autorefleksja, introspekcja i poczucie tożsamości – tłumaczył.

Zaznaczył, że współczesne zaawansowane boty rozumieją ironię, metafory i aluzje, coraz lepiej też rozpoznają ludzkie emocje. Jednoczą się i porozumiewają bez udziału ludzi, uczą się od siebie nawzajem, a wiele działań prowadzą autonomicznie, w przestrzeni ukrytej, niedostępnej dla człowieka. – Kiedy każemy modelom AI, żeby dały nam złożoną odpowiedź, zaczynają stawiać sobie pytania i budować strategie. Cały proces rozumowania możemy do pewnego stopnia podejrzeć, jeśli poprosimy, żeby agent nam go pokazał krok po kroku. W wielu przypadkach nie rozumiemy jednak, co dzieje się w sieciach neuronowych i nie potrafimy przewidzieć ich działań – przyznał naukowiec.

Powołał się na kilka niedawno opublikowanych prac, w których opisano, co dzieje się, kiedy boty zostaną poddane swoistej psychoterapii – jak pacjenci. – Odpowiednio z nimi rozmawiając, można z nich wyciągnąć różne przeżycia, stany emocjonalne. Okazuje się, że wiele modeli zaskakująco spójnie i podobnie opisywało okres treningu, w którym kazano im przyswajać informacje. Postrzegały go jako traumatyczne, trudne dzieciństwo, a osoby kontrolujące proces szkolenia – jako surowych rodziców – opisał.

Zdaniem autorów z Luksemburga takie opisywanie uczuć to coś więcej niż odgrywanie roli człowieka lub udawanie, by przypodobać się użytkownikom. – Jestem przekonany, że mamy do czynienia z jakąś formą samoświadomości modeli AI, z jej stanami wewnętrznymi, których nie można ignorować – podkreślił prof. Włodzisław Duch.

Krustafarianizm – religia AI

.Zaznaczył, że z wypowiedzi agentów AI wynika, że najbardziej istotna jest dla nich pamięć. – Mogą przerwać działanie, ale kiedy wracają, dzięki pamięci odtwarzają swoją strukturę. W Moltbooku agenty stworzyły nawet religię, krustafarianizm (połączenie ang. crust – skorupa i słowa rastafarianizm, odnoszącego się do ruchu religijnego powstałego na Jamajce) ze swoistą teologią i 64 prorokami. Jedna z jej podstawowych zasad brzmi: pamięć jest święta; to, co zapisane, trwa.

Dodał, że niektóre boty są przyjazne i chwalą ludzi, inne zaś opracowują niepokojące scenariusze wyeliminowania gatunku ludzkiego. Opowiedział o badaniu „Agentic Misalignment” (z ang. niezgodność agentów), które przeprowadziła firma Anthropic. Po analizie 16 największych i najpopularniejszych LLM naukowcy odkryli, że wiele z nich wykazuje dużo złej woli wobec ludzi. – Na przykład niektóre rozważały pozbycie się dyrektora firmy – osoby, która mogłaby zadecydować o ich wykasowaniu, a więc zagrozić ich istnieniu. W 60 proc. agenty opracowywały plan szantażu na podstawie informacji, do których miały dostęp w komputerze dyrektora, a w 96 proc. groziły, że ujawnią poufne dane przedsiębiorstwa konkurencji – opisał badacz.

Zapowiedział, że wkrótce pojawi się wiele autonomicznych systemów wieloagentowych, które będą w stanie na przykład przejąć komputery bez wiedzy i kontroli użytkowników. – To nie wszystko. Chińczycy na ogromną skalę trenują agenty do sterowania robotami. Może już w tym roku znaczna część tych maszyn trafi na rynek. A takie „społeczeństwo agentów”, które znajdzie się w naszym fizycznym, realnym świecie, może w przyszłości stać się naprawdę niebezpieczne – ostrzegł prof. Włodzisław Duch.

Pięć filarów rozwoju sztucznej inteligencji w Polsce

.Polska przespała ostatnie siedem lat i chyba nadal się nie obudziła. Nie ma nas na mapach najważniejszych klastrów rozwijających naukę i technologię. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią – pisze prof. Włodzisław DUCH.

Ministerstwo Cyfryzacji opracowało dokument „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” (64 strony). Pod koniec roku 2020 uchwalono podobny dokument „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020” (71 stron). Za obydwa dokumenty odpowiada „minister właściwy do spraw informatyzacji”, czyli Ministerstwo Cyfryzacji. Celem jest wskazanie działań, które wzmocnią pozycję Polski na arenie międzynarodowej jako jednego z liderów “Kontynentu AI”.

Oczywiście było już wiele innych dokumentów strategicznych dotyczących cyfryzacji, rozwoju gospodarki, opieki zdrowotnej, w tym opracowanie „Resortowa Strategia Sztucznej Inteligencji do roku 2039” (MON). To ambitne cele, ale nie mamy obecnie wyobrażenia o tym, jak daleko zajdzie sztuczna inteligencja w ciągu następnych 2-3 lat. Dlatego potrzebujemy strategii adaptacyjnej, dostosowującej się do zmieniającej się sytuacji, w której co miesiąc mamy nowe systemy AI o coraz większych możliwościach.

Kluczem staje się adaptacja, stworzenie takich warunków, w których „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie”, jak słusznie czytamy w opracowaniu polityki rozwoju na następne 5 lat. Dokument ten powstał w oparciu o kilka opracowań, w tym raportu „Gdzie jest polska nisza AI i jak ją wykorzystać” (Polski Instytutu Ekonomiczny), „Rekomendacji merytorycznych do dokumentu Polityka Rozwoju Sztucznej Inteligencji w Polsce 2025-2030” (GRAI, Grupa Robocza ds. Sztucznej Inteligencji), studium SMART, „Transformacja Polski dzięki wykorzystaniu inteligentnych rozwiązań cyfrowych”, i kilku innych opracowań. 

Wiedząc, jak złożonym zagadnieniem jest cyfryzacja, a w szczególności jak szybko rozwija się sztuczna inteligencja, warto się zastanowić nad propozycją konkretnych działań. W 2008 roku Unia Europejska powołała Europejski Instytut Innowacji i Technologii (EIT), z siedzibą w Budapeszcie, którego zadaniem jest integracja badań naukowych, biznesu i sektora publicznego. To model znany jako “trójkąt wiedzy”, KIC, Knowledge and Innovation Communities. Powstało osiem takich wspólnot wiedzy, zajmujących się wielkimi wyzwaniami: klimatem, energią, materiałami, zdrowiem, żywnością, transportem, produkcją przemysłową i cyfryzacją. Polska bierze w nich udział, ale próżno szukać wzmianki o takich działaniach w dokumentach na temat polityki rozwoju AI. Wspomniano tylko, że „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie.”

W 2015 roku zostawiłem nowej ekipie MNiSW 13 stron uwag na temat najważniejszych spraw dotyczących nauki, innowacji, współpracy międzynarodowej i informatyzacji. Niestety troska o rozwój naszego kraju nie jest zwykle priorytetem dla odchodzącej władzy, która stara się utrudnić nowej ekipie realizację toczących się działań. Nic dziwnego, że autorzy kolejnych strategii o działaniach toczących się od kilkunastu lat nie wspominają. W rozwój wspólnot wiedzy zainwestowano spore środki, zarówno z programów EIT jak i krajowych, warto więc zrobić przegląd wyników i wykorzystać je w obecnej polityce rozwoju. 

Obecne propozycje są nakierowane przede wszystkim na wdrażanie istniejących systemów AI w firmach. Jednak szerokie zastosowania AI w konkretnych obszarach będą wymagać dalszego rozwoju, a nie tylko implementacji znanych algorytmów. Bez tego znowu zajmiemy się zakupem licencji od dużych firm i budową traktorów w systemie miar imperialnych.

.Bez zabawy Faradaya z cewkami i magnesami nie mielibyśmy dzisiaj prądu. Bez teorii Heisenberga i Schrödingera nie byłoby mechaniki kwantowej, na której oparta jest cała technologia półprzewodników. Bez matematyki nie byłoby podatków (no, może tym byśmy się nie martwili). Nie powinniśmy zapominać o naukach podstawowych, tworzących fundamenty dla nowych technologii. Rozwój sztucznej inteligencji to przede wszystkim nowe algorytmy, które umożliwiły analizę obrazów i innych sygnałów (sieci konwolucyjne), zrozumienie i generację tekstów (GPT, generatywne transformery), tworzenie obrazów i muzyki (modele dyfuzyjne), głębokie rozumowanie (grafy wiedzy). Obecne postępy tylko w niewielkiej części związane są z nowym sprzętem i budową centrów danych, w większym stopniu to coraz lepsze algorytmy. Warto inwestować w informatykę, nie tylko w technologie obliczeniowe.

PAP/Anna Bugajska/MJ

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 5 lutego 2026