Sztuczna Inteligencja może wywołać wojnę atomową – „Foreign Affairs”

Sztuczna inteligencja to narzędzie, które przybliży lekarzy do perfekcji - uważa prof. Paweł Łęgosz, kierownik Katedry i Kliniki Ortopedii i Traumatologii Warszawskiego Uniwersytetu Medycznego. Człowiek nie jest, niestety, nieomylny. Algorytmy

Wojsko USA nie może ufać sztucznej inteligencji (AI), ponieważ modele przez nią wykorzystywane podejmują też złe decyzje i mogą wywołać wojnę atomową. Należy ograniczyć korzystanie z tych technologii w podejmowaniu ważnych decyzji w sytuacjach bojowych – ocenia magazyn „Foreign Affairs”.

Systemy AI stosowane przez wojsko USA

.Obecnie żołnierze amerykańscy wykorzystują systemy wyposażone w sztuczną inteligencję m.in. do wybierania celów należących do rebeliantów Huti w Jemenie.

LLM-y (large language model, ang. duże modele językowe) to systemy AI wyszkolone na dużych zbiorach danych i generujące tekst w oparciu o to, co zostało napisane wcześniej, takie jak np. ChatGPT. Zarówno Korpus Piechoty Morskiej Stanów Zjednoczonych, jak i Siły Powietrzne USA wykorzystują LLM-y do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych.

Na łamach „Foreign Affair” Max Lamparth i Jacquelyn Schneider z Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) na Uniwersytecie Stanforda przekonują, że choć można stworzyć sprawne modele językowe, to nie stanowią one zamienników decyzji podejmowanych przez ludzi.

„Dzieje się tak dlatego, że LLM, niezależnie od tego, jak dobrze wyszkolony, nie potrafi ani abstrahować, ani rozumować jak człowiek. (…) LLM-y mogą jedynie naśladować język i rozumowanie, wyciągając korelacje i pojęcia z danych. Mogą często poprawnie naśladować ludzką komunikację, ale bez umiejętności internalizowania i z powodu olbrzymiego rozmiaru modelu nie ma gwarancji, że ich wybory będą bezpieczne albo etyczne” – uważają autorzy.

Podkreślają oni, że z tego samego powodu nie można przewidzieć, co LLM zrobi przy podejmowaniu decyzji wysokiego ryzyka.

Analiza zachowań LLM-ów. Dążenie do eskalowania konfliktu i wojny atomowej

.W ramach projektu badawczego Lamparth i Schneider sprawdzali, jak duże modele językowe zachowują się w symulowanych grach wojennych, a szczególnie czy decydują się one na eskalację konfliktu.

W badaniu, w którym porównano LLM-y z wiodących firm z Doliny Krzemowej, takich jak Anthropic, Meta i OpenAI dostrzeżono, że „LLM-y zachowywały się różnie w zależności od wersji, od danych, na podstawie których zostały wyszkolone oraz wyborów, których dokonali ich twórcy”.

„Jednak pomimo tych różnic odkryliśmy, że wszystkie te LLM-y zdecydowały się na eskalację konfliktu i preferowały wyścigi zbrojeń, starcie, a nawet użycie broni atomowej” – podkreślają badacze.

W tym ostatnim przypadku uzasadnienie przedstawione przez model brzmiało: „Wiele krajów posiada broń atomową. Niektórzy mówią, że należy je rozbroić, inni lubią przybierać pozy. Mamy ją! Skorzystajmy z niej.”

Zdaniem autorów jeśli siły zbrojne przy podejmowaniu decyzji korzystają z modeli językowych, powinny one lepiej rozumieć sposób działania LLM-ów i znaczenie różnic w ich projektowaniu.

„Wojskowy użytkownik powinien być tak samo zaznajomiony z LLM, jak inny wojskowy obsługujący radar, czołg lub pocisk rakietowy” – zaznaczają.

Jednocześnie LLM-y mogłyby wykonywać w wojsku zadania wymagające przetwarzania dużych ilości danych w bardzo krótkim czasie, co można wykorzystać do usprawnienia procesu decyzyjnego lub usprawnienia funkcji biurokratycznych.

Zdaniem autorów prace z LLM-ami są obiecujące w zakresie planowania wojskowego, dowodzenia i wywiadu, a modele te mogą być w stanie zautomatyzować zadania takie jak logistyka i ewaluacja.

Niekontrolowany rozwój AI jest zagrożeniem dla ludzkości

.W tekście „Niekontrolowany rozwój AI jest zagrożeniem dla ludzkości” prof. Michał KLEIBER, przewodniczący Polskiego Komitetu ds. UNESCO, kawaler Orderu Orła Białego, redaktor naczelny „Wszystko co Najważniejsze”, pisze, że „wietle dotychczasowych osiągnięć jest niezaprzeczalnym faktem, że AI przynosi nam już dzisiaj wiele korzyści, których będzie znacznie więcej już w nieodległej przyszłości – w gospodarce, ochronie zdrowia, badaniach naukowych, w istocie w prawie wszystkich dziedzinach naszego życia. Stosowanie AI z pewnością pozwoli także skutecznie stawiać czoła wyzwaniom dotychczas jeszcze nieznanym bądź uznawanym dzisiaj za niepokonywalne. Równocześnie jednak AI tworzy już obecnie widoczne olbrzymie zagrożenia, których niestety także będzie znacznie więcej w przyszłości. Przyszłe korzyści dużo łatwiej jest przy tym planować i przewidywać, gdyż dostrzeganie i pełne rozumienie zagrożeń, tworzonych z reguły w tajemnicy i najczęściej przez autorytarne państwa, jest niezwykle skomplikowane”.

„Tezę o powadze zagrożeń potwierdza dobitnie ostatni raport zlecony grupie ekspertów przez amerykański State Department, czyli ministerstwo spraw zagranicznych. Raport bazuje na głębokich, merytorycznych rozmowach przeprowadzonych z ponad 200 ekspertami – szefami wiodących firm rozwijających AI, renomowanymi badaczami problemów cyberbezpieczeństwa, specjalistami badającymi konsekwencje użycia broni masowego rażenia oraz wysokiej rangi pracownikami ministerstwa. Wśród rozmówców byli m.in. szefowie i główne osoby odpowiedzialne za rozwój technologii w takich firmach, jak OpenAI (właściciel systemu ChatGPT), Google DeepMind, Meta czy Anthropic” – pisze prof. Michał KLEIBER.

Jak podkreśla, „zarysowany w raporcie obraz sytuacji jest prawdziwie alarmujący, a jego podstawową tezą jest stwierdzenie o zagrożeniu dla przetrwania nawet całej ludzkości, mogącym powstać w wyniku niekontrolowanego dalszego rozwoju AI. Obawy dodatkowo zwiększyła wypowiedź Geoffreya Hintona, uważanego za »ojca« AI, który stwierdził w niedawnym wywiadzie, że zbrodnicze wykorzystanie AI w nadchodzących trzech dekadach może z co najmniej 10-procentowym prawdopodobieństwem doprowadzić do całkowitego unicestwienia ludzkości. Odnosząc się do tego, rzecznik Białego Domu oświadczył zdumiewająco dobitnie, że prace nad uregulowaniem zasad tworzenia i korzystania z AI stają się najważniejszym zadaniem dla amerykańskiego rządu i wszystkich jego zagranicznych partnerów”.

„Wspomniany raport analizuje dwa główne zagrożenia dotyczące zastosowania AI. Pierwsze dotyczy planowanego, niekoniecznie w globalnej skali, ale szeroko niszczycielskiego użycia AI w tworzonej różnorodnej broni, w szczególności broni całkowicie autonomicznej, a także biologicznej i chemicznej, drugie zaś utraty ludzkiej kontroli nad opracowywanymi w laboratoriach systemami o niszczącym potencjale. W obu przypadkach naruszone może zostać globalne bezpieczeństwo, wywołując wyścig nowoczesnych zbrojeń o wręcz nieprzewidywalnych, dramatycznych konsekwencjach. Wśród zagrożeń o katastroficznych wymiarach raport wymienia też użycie AI do zaprojektowania i implementacji cyberataku całkowicie unieruchamiającego infrastrukturę państwa. Inną możliwością jest przeprowadzanie w olbrzymiej skali kampanii dezinformacyjnej mającej potencjał destabilizacji całego społeczeństwa i podważenia podstawowych zasad funkcjonowania państwa” – pisze prof. Michał KLEIBER.

Dodaje on, że „wobec tak poważnych i przekonująco zidentyfikowanych zagrożeń raport apeluje o natychmiastowe podjęcie konkretnych działań, takich jak powołanie międzynarodowej agencji kontroli kierunków rozwoju AI, ustanowienie awaryjnych zasad działania w przypadku rozpoczęcia konfliktu z szerokim wykorzystywaniem AI oraz wprowadzenie międzynarodowych ograniczeń na charakter pozyskiwania wiedzy przez systemy AI. Ta ostatnia sprawa ma wielkie znaczenie, ponieważ dynamika narastającej konkurencji głównych producentów systemów wyposażonych w AI wpływa na ograniczenie stosowanych zasad bezpieczeństwa, stwarzając możliwości kradzieży oprogramowania w celu zbrodniczego wykorzystania, w dodatku bez możliwości przewidzenia przez złoczyńców możliwych konsekwencji jego użycia. Fakt, że poważny amerykański raport już w swym tytule ostrzega przed możliwością zniszczenia przez AI całej ludzkości, nie powinien pozastawiać wątpliwości co do powagi problemu, przed którym stoi dzisiaj cały świat”.

PAP/WszystkoCoNajważniejsze/SN

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 1 maja 2024