Sztuczna inteligencja oszukuje lepiej niż ludzie

Sztuczna inteligencja oszukuje i niepostrzeżenie opanowała sztukę manipulacji – ostrzegają naukowcy. Dotyczy to nawet tych systemów, które zaprogramowano ze szczególnym uwzględnieniem uczciwości.

SI stworzona przez Metę stała się mistrzem podstępu

.Eksperci z Massachusetts Institute of Technology odkryli niepokojące zachowanie różnych systemów sztucznej inteligencji. Jak twierdzą, Sztuczna Inteligencja oszukuej, niepostrzeżenie ucząć się przebiegłości.

„Twórcy SI nie mają pełnego zrozumienia tego, co powoduje jej niepożądane zachowania, takie jak oszukiwanie” – zaznacza dr Peter S. Park, autor pracy opublikowanej w magazynie „Patterns” (https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X).

„Jednak, ogólnie mówiąc, uważamy, że SI zaczyna stosować oszukiwanie jako strategię, która najlepiej sprawdza się w różnych zadaniach. Podejście takie pomaga sztucznej inteligencji w osiąganiu celów” – wyjaśnia ekspert.

On i jego zespół przeanalizowali naukową literaturę opisującą różne badania na ten temat. Jako najbardziej jaskrawy przykład oszustw podają zachowanie systemu CICERO stworzonego przez firmę Meta. Jego zadanie to prowadzenie z ludźmi rozgrywki w Diplomacy – grze polegającej na tworzeniu różnych sojuszy i podboju świata.

CICERO był tak projektowany, aby być uczciwy i nigdy nie stosować podstępów względem ludzi. Tak się jednak nie dzieje.

„Odkryliśmy, że SI stworzona przez Metę stała się mistrzem podstępu. Podczas gdy Meta zdołała wyszkolić SI tak, aby wygrywała w Diplomacy – CICERO znalazł się w górnych 10 proc. graczy, którzy zakończyli więcej niż jedną grę – to firmie nie udało się zaprogramować uczciwości” – informuje dr Park.

Inne systemy posługiwały się np. blefem w pokerze, grając przeciw ludziom, albo udawały ataki w grze Starcraft II, aby zyskać przewagę. Opisane są też systemy, które potrafiły oszukać specjalne testy oceniające bezpieczeństwo SI. W jednym z badań wykryto, że SI udawała martwą w programie, który eliminował zbyt szybko mnożące się sztuczne inteligencje.

Co oznacza sytuacja, gdy sztuczna inteligencja oszukuje

.Choć fakt, że sztuczna inteligencja oszukuje wydaje się niegroźne, to – jak podkreślają naukowcy – podobnie sztuczna inteligencja może zachowywać się w poważnych zastosowaniach, a do tego stawać się coraz przebieglejsza.

„Poprzez systematyczne oszukiwanie w testach stworzonych przez programistów i specjalistów od odpowiednich regulacji, podstępna SI może sprawić, że nabierzemy fałszywego poczucia bezpieczeństwa” – przestrzega dr Park.

Badacze wymieniają różne potencjalne zagrożenia, np. różnego rodzaju oszustwa czy wpływanie na wybory. Jeśli SI się udoskonali w podstępach, ludzie mogą nie być w stanie się obronić – przekonują.

„Jako społeczeństwo potrzebujemy jak najwięcej czasu, aby przygotować się na bardziej zaawansowane oszustwa ze strony opartych na SI produktów i ogólnodostępnych modeli” – uważa dr Park. – „Kiedy możliwości SI w obszarze oszukiwania staną się doskonalsze, zagrożenia dla społeczeństwa będą rosły”.

Badacze chwalą przy tym inicjatywy podejmowane już w celu regulowania SI, takie jak EU AI Act czy amerykański AI Executive Order.

Powstaje jednak pytanie, czy uda się odpowiednie regulacje zaimplementować, skoro twórcy SI nie do końca wiedzą, jak ją kontrolować.

Pozostają też kwestie polityczne. „Jeśli zakaz tworzenia podstępnej SI jest z politycznego punktu widzenia, obecnie niemożliwe, zalecamy zaklasyfikowanie zdolnej do oszustw SI jako technologii wysokiego ryzyka” – mówi dr Park.

AI tworzy już obecnie widoczne olbrzymie zagrożenia

.Prof. Michał KLEIBER, redaktor naczelny „Wszystko Co Najważniejsze” i profesor zwyczajny w Polskiej Akademii Nauk opisuje w swoim artykule, że tezę o powadze zagrożeń potwierdza dobitnie ostatni raport zlecony grupie ekspertów przez amerykański State Department, czyli ministerstwo spraw zagranicznych. Raport bazuje na głębokich, merytorycznych rozmowach przeprowadzonych z ponad 200 ekspertami – szefami wiodących firm rozwijających AI, renomowanymi badaczami problemów cyberbezpieczeństwa, specjalistami badającymi konsekwencje użycia broni masowego rażenia oraz wysokiej rangi pracownikami ministerstwa. Wśród rozmówców byli m.in. szefowie i główne osoby odpowiedzialne za rozwój technologii w takich firmach, jak OpenAI (właściciel systemu ChatGPT), Google DeepMind, Meta czy Anthropic.

W ocenie profesora zarysowany w raporcie obraz sytuacji jest prawdziwie alarmujący, a jego podstawową tezą jest stwierdzenie o zagrożeniu dla przetrwania nawet całej ludzkości, mogącym powstać w wyniku niekontrolowanego dalszego rozwoju AI. Obawy dodatkowo zwiększyła wypowiedź Geoffreya Hintona, uważanego za „ojca” AI, który stwierdził w niedawnym wywiadzie, że zbrodnicze wykorzystanie AI w nadchodzących trzech dekadach może z co najmniej 10-procentowym prawdopodobieństwem doprowadzić do całkowitego unicestwienia ludzkości. Odnosząc się do tego, rzecznik Białego Domu oświadczył zdumiewająco dobitnie, że prace nad uregulowaniem zasad tworzenia i korzystania z AI stają się najważniejszym zadaniem dla amerykańskiego rządu i wszystkich jego zagranicznych partnerów.

„Wspomniany raport analizuje dwa główne zagrożenia dotyczące zastosowania AI. Pierwsze dotyczy planowanego, niekoniecznie w globalnej skali, ale szeroko niszczycielskiego użycia AI w tworzonej różnorodnej broni, w szczególności broni całkowicie autonomicznej, a także biologicznej i chemicznej, drugie zaś utraty ludzkiej kontroli nad opracowywanymi w laboratoriach systemami o niszczącym potencjale. W obu przypadkach naruszone może zostać globalne bezpieczeństwo, wywołując wyścig nowoczesnych zbrojeń o wręcz nieprzewidywalnych, dramatycznych konsekwencjach” – pisze prof. Michał KLEIBER.

Wśród zagrożeń o katastroficznych wymiarach raport wymienia też użycie AI do zaprojektowania i implementacji cyberataku całkowicie unieruchamiającego infrastrukturę państwa. Inną możliwością jest przeprowadzanie w olbrzymiej skali kampanii dezinformacyjnej mającej potencjał destabilizacji całego społeczeństwa i podważenia podstawowych zasad funkcjonowania państwa.

„Wobec tak poważnych i przekonująco zidentyfikowanych zagrożeń raport apeluje o natychmiastowe podjęcie konkretnych działań, takich jak powołanie międzynarodowej agencji kontroli kierunków rozwoju AI, ustanowienie awaryjnych zasad działania w przypadku rozpoczęcia konfliktu z szerokim wykorzystywaniem AI oraz wprowadzenie międzynarodowych ograniczeń na charakter pozyskiwania wiedzy przez systemy AI” – podsumowuje profesor.

PAP/WszystkocoNajważniejsze/MB
Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 15 maja 2024