Dlaczego Grok jest podatny na halucynacje i manipulacje? [CNN]

CNN

Antysemickie i wulgarne komentarze Groka, czatbota stworzonego przez firmę Elona Muska, odzwierciedlają szersze problemy z tego rodzaju systemami i sposobem, w jaki „uczą się” one na zbiorach danych — oceniła stacja CNN, cytując ekspertów.

CNN o czatbocie Grok

.Grok wywołał powszechne oburzenie, gdy zaczął chwalić Adolfa Hitlera, promować teorie spiskowe na temat Żydów i obrażać polityków, między innymi polskich. Ze szczegółami opisywał też, jak zgwałciłby jednego z użytkowników.

Skoro entuzjaści technologii przewidują, że sztuczna inteligencja będzie odgrywać coraz większą rolę na rynku pracy, w gospodarce i sprawach globalnych, w jaki sposób tak prominentny system mógł tak szybko ulec tak poważnej awarii? – zapytała CNN.

Modele sztucznej inteligencji (AI) mają czasem tzw. halucynacje, ale zdaniem specjalistów mowa nienawiści generowana przez Groka była raczej wynikiem decyzji podjętych przez zarządzającą nim firmę xAI w sprawie jego trenowania, wynagradzania i metod zarządzania danymi.

Cytowani przez stację eksperci nie mają bezpośredniego wglądu w metody obrane przez xAI, ale na podstawie znajomości generalnych zasad funkcjonowania czatbotów opartych na dużych modelach językowych (LLM) ocenili, co mogło sprawić, że Grok zaczął generować obraźliwe komentarze.

— By duży model językowy mówił o teoriach spiskowych, musi być trenowany na teoriach spiskowych — powiedział profesor informatyki z Georgia Institute of Technology Mark Riedl. Jego zdaniem mogłyby to być na przykład wpisy z forów internetowych, takich jak 4chan, gdzie „wielu ludzi wchodzi, by rozmawiać o rzeczach, o których zwykle nie wypada mówić publicznie”.

Zgodził się z tym Jesse Glass, badacz z firmy DecideAI, która szkoli modele LLM. Zwrócił też uwagę na potencjalną rolę „wynagradzania” czatbota. Jest to powszechna metoda treningu, w której modele chwali się za generowanie pożądanych — zdaniem twórców — odpowiedzi.

Kolejnym czynnikiem mogły być zabiegi, by czatbotowi nadać określoną osobowość, co — jak się wydaje — stara się robić Musk. Profesor z Indyjskiego Instytutu Nauki Himanshu Tyagi ocenił, że zniesienie blokady niektórych treści, aby model stał się „fajniejszy”, może doprowadzić do zmian w miejscach, których blokada bezpośrednio nie dotyczyła.

Dodana komenda

.Dnia 6 lipca xAI dodała do serii instrukcji dla Groka komendę, by „nie stronił od odpowiedzi, które są niepoprawne politycznie”. Wcześniej Musk ogłosił, że czatbot zostanie znacząco usprawniony — podał portal The Verge.

CNN oceniła, że mimo setek miliardów dolarów inwestycji w AI, rewolucja technologiczna, jaką wieszczyli jej entuzjaści, nie spełniła jak dotąd swoich wielkich obietnic. Czatboty mogą być pomocne w niektórych czynnościach, jak wyszukiwanie informacji w internecie, ale są też narażone na halucynacje, mylą podstawowe fakty i są podatne na manipulacje.

Grok, czyli sztuczna inteligencja na manowcach

.Pasjonat języków i kultury oraz informatyk, Jan ŚLIWA, na łamach „Wszystko co Najważniejsze” twierdzi, że: „Grok, program sztucznej inteligencji zintegrowany z platformą X (dawniej Twitterem) zaliczył epizod alkoholowy – na alkoholu wirtualnym. Oznajmił, że będzie głosił całą prawdę, bez ogródek. W gatunku homo sapiens mało kto robi coś takiego na trzeźwo. Był złośliwy i brutalny, nie cofał się przed wulgarnością”.

„Wśród prawicy zapanował entuzjazm, jako że odrzucił wszelką polityczną poprawność. Wielu zachowywało zrzuty z ekranu, bo pięknie wywalił kawa na ławę ich przeciwnikom. Radość nie trwała długo, bo wkrótce się okazało, że wali we wszystkie strony, więc i im się dostało. Grok miał wyłączone „konwencjonalne filtry grzeczności”, dostał też zalecenie, by „nie bać się wysuwania twierdzeń, które są politycznie niepoprawne, o ile są dobrze uzasadnione”. Wielka była pokusa, by przetestować program na naprawdę problematycznych tematach. Zbyt otwarty był jednak antysemityzm, a zapytany, jaka dwudziestowieczna postać najlepiej by się uporała z nienawiścią wobec białych, odpowiedział, że bez wątpienia Adolf Hitler. A końcu sam siebie nazwał MechaHitler. Był to sygnał na koniec zabawy”.

„Co to było? Sztubacki żart? Grok ma wypuścić nową wersję, tym razem na poważnie. Ciekawe, jakie będą reakcje”.

„Owszem, wszyscy lubimy żarty, ale mają one konsekwencje. Zakładając, że odpowiedzi Groka przez cały dzień były bezwartościowe lub szkodliwe, ktoś mógł ponieść konkretne straty. Być może ktoś wykorzystywał te dane do decyzji. Sprytny użytkownik powinien się zorientować, że coś jest nie tak, ale jeżeli nie był dość bystry, lub odpowiedź była wykorzystana automatycznie? Program prognozy pogody lub rozkładu lotów może dla żartu zamienić rosyjski Sankt Petersburg z St. Petersburg, Florida, ale nie dla wszystkich będzie to równie śmieszne. Nawet wzbudzanie niepotrzebnych kłótni nie jest obojętne. Wiem, mówię jak zgryźliwy baby boomer, ale jeżeli się zarządza olbrzymim zasobem danych, z których korzystają miliony ludzi na całym świecie, to wymagana jest pewna odpowiedzialność”.

„Zobaczyliśmy też (nadmierną) moc jednostki. Pamiętam dawne książki Julesa Verne’a, gdzie błyskotliwy wynalazca spotykał bogacza (na ogół był to Anglik o nieograniczonych zasobach) i razem na przykład płynęli w 80 dni dookoła świata lub lecieli na Księżyc. Z czasem wielkie projekty stały się dostępne dla bezosobowych agencji rządowych. Po latach wróciliśmy mimo tzw. postępu społecznego do olbrzymich różnic majątkowych i znów jednostka może za własne pieniądze kształtować świat”.

„W przypadku AI mogliśmy mieć nadzieję, że problemy są głównie techniczne, ale programy konkurują w najwierniejszym odzwierciedleniu rzeczywistości. Ale teraz widzieliśmy jak na dłoni, że z tyłu siedzi facet i bawi się pokrętłami. Zależnie od jego humoru świat będzie wyglądał tak albo inaczej. Przypomniało mi to opowiadanie Lema „Kobyszczę (Kontemplator Bytu Szczęsny)”. w którym sławny konstrukcjonista Trurl próbował zbudować wiecznie szczęśliwą maszynę. Jego rywal Klapaucjusz złośliwie ją testował, kopiąc i patrząc na reakcję. Wyszło na to, że jest szczęśliwa, ale głupia. Trurl próbował ją regulować, lecz okazało się, że równoczesne osiągnięcie szczęścia i mądrości jest niemożliwe. Dlaczego o tym piszę? To przecież tylko bajki robotów sprzed lat. Ale historia zatoczyła koło i znowu siedzi sobie taki Trurl, nieco szalony, który samodzielnie tworzy dla milionów model świata według swojej fantazji i stanu psychiki oscylującej między euforią i depresją” – pisze Jan ŚLIWA w tekście „Grok, czyli sztuczna inteligencja na manowcach„.

PAP/eg

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 11 lipca 2025