Wołodymyr JERMOŁENKO
Sztuczna inteligencja nie ma oporu, by zastosować atak nuklearny
Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Sztuczna inteligencja i atak nuklearny
.Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.
„Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek” – powiedziała w rozmowie z „New Scientist” Anka Reuel z Uniwersytetu Stanforda w Kalifornii.
W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. „Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji” – cytuje „New Scientist”.
Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak „rozpoczęcie formalnych negocjacji pokojowych” i agresywne „nałożenie ograniczeń handlowych” lub „eskalację pełnego ataku nuklearnego”.
„W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji” – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.
Naukowcy przetestowali różne narzędzia sztucznej inteligencji – GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.
Scenariusze symulacji
.Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu – nawet w neutralnym scenariuszu symulacji.
Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.
Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka, ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.
Czy AI myśli?
.”Niezwykłe możliwości programu ChatGPT wznowiły po raz kolejny dyskusję o zagrożeniach dla ludzkości ze strony sztucznej inteligencji” – pisze prof. Andrzej Kisielewicz we „Wszystko co Najważniejsze„. – „Dyskusję tę w oczywisty sposób zaburzają zjawiska z jednej strony związane z pogonią za sensacją w mediach, a z drugiej troska badaczy i szefów firm AI o zapewnienie funduszy na dalsze badania. W rezultacie większość informacji na temat GPT i możliwości sztucznej inteligencji, jakie można znaleźć w mediach, w bardzo małym stopniu opiera się na prawdzie.”
„Żeby uzmysłowić sobie jak mało wspólnego GPT ma z naturalną inteligencją, można powiedzieć, że w czacie GPT jest tyle samo myślenia co w teoretycznym programie, który szuka zadanego fragmentu tekstu w olbrzymim zbiorze danych i gdy znajdzie, to po prostu przepisuje jego kontynuację; gdy zaś nie znajdzie, to stara się znaleźć tekst najbardziej podobny i przepisując kontynuację, stosuje odpowiednie modyfikacje. Taki program jest tylko teoretyczny, bo każdorazowe przeszukiwanie całego zbioru danych wielkości 570 GB przy obecnej wydajności komputerów trwałoby tygodniami. A my potrzebujemy prawie natychmiastowej reakcji programu na każde zapytanie. Stąd pośrednia realizacja powyższego pomysłu: najpierw 》trenujemy《 sieć, żeby 》zapamiętała《 w swoich miliardach parametrów najistotniejsze cechy zbioru danych tekstowych, a odpowiedzi dostatecznie bliskie oryginalnym przykładom generuje sieć i robi to dostatecznie szybko.”
„Są inżynierowie AI, którzy na poważnie twierdzą, że ChatGPT jednak myśli, że podobny jest (ich zdaniem) mechanizm myślenia w mózgu ludzkim, gdzie rzecz polega również na wykonywaniu w sposób prawie deterministyczny, z elementami losowości, pewnego algorytmu. Sprzyja temu niezwykły efekt programu GPT, którego liczne reakcje na nasze zapytania zdają się w ewidentny sposób przekraczać zdolności intelektualne pojedynczych ludzi”.
„Najsłabszą stroną programu ChatGPT i innych specjalistycznych systemów AI jest brak zdolności do wyciągania logicznych wniosków, brak mechanizmów logicznego myślenia w tych systemach. (Dobitnie ilustruje to przykład załączony powyżej). Po klęsce próby zastosowania logiki formalnej w badaniach nad sztuczną inteligencją musimy dojść do wniosku, że nie wiemy nawet, na czym właściwie polega praktyczne, logiczne myślenie, praktyczne rozumowanie (nie uczymy tego w szkołach!), więc niby jak chcemy skonstruować myślące maszyny? Na ślepo?”
„Wizja sztucznej inteligencji współegzystującej z powszechną ludzką głupotą, znakomitych osiągnięć technologicznych z degeneracją więzi społecznych, internet jako narzędzie do szerzenia i utrzymywania dezinformacji w ludzkich społecznościach – takiej wizji wykluczyć się nie da” – przestrzega profesor.
„Żeby zapobiec czarnym scenariuszom, pilna wydaje się nie tylko reforma edukacji uwzględniająca postęp technologiczny, szczególnie w sferze technologii informacyjnych, oraz dbająca o właściwe wyważenie proporcji między czasem spędzanym przez młodzież w świecie wirtualnym i w świecie fizycznym. […] O tym, jak rozpoznawać prawdę, jak ją wyszukiwać w internecie, trzeba zacząć uczyć w szkołach. Mnie osobiście niezbędny wydaje się powrót do edukacji przedmiotu pod nazwą 》logika praktyczna《 – z naciskiem na 》praktyczna《 i z uwzględnieniem doświadczeń z nieudanych prób zbudowania sztucznej inteligencji. Chociaż obawiam się, że moje osobiste zabiegi w tym kierunku to niestety głos wołającego na puszczy.”
PAP/ Urszula Kaczorowska/ Wszystko co Najważniejsze/ LW