ChatbotGPT jest coraz częściej używany w tajnych operacjach

Coraz więcej chińskich grup wykorzystuje ChatbotGPT do prowadzenia tajnych operacji – poinformowała w opublikowanym raporcie amerykańska spółka OpenAI, producent tego oprogramowania.

Rozszerzanie wpływów i tworzenie w mediach społecznościowych polaryzujących treści – ChatbotGPT jest używany ofensywnie

.Z raportu wynika, że powiększył się zakres i wachlarz taktyk stosowanych przez te grupy, choć wyryte operacje były niewielkie, a za ich cel obrano ograniczone grupy odbiorców.

OpenAI wykluczyła ze swojej platformy konta ChatGPT generujące posty w mediach społecznościowych na tematy polityczne i geopolityczne istotne dla Chin, w tym krytykujące gry wideo koncentrujące się na Tajwanie, fałszywe oskarżenia wobec pakistańskiego działacza oraz treści związane z zamknięciem amerykańskiej rządowej agencji pomocowej USAID.

Niektóre treści krytykowały podwyższenie ceł przez prezydenta Stanów Zjednoczonych Donalda Trumpa, na platformie X generowane były też posty takie jak: „Z powodu ceł importowane towary są skandalicznie drogie, a mimo to rząd trwoni pieniądze za zagraniczną pomoc. To kto ma jeść?”.

W ramach innej operacji związane z Chinami podmioty wspierały różne etapy swoich operacji cybernetycznych, w tym przeszukiwanie otwartych źródeł, modyfikacje skryptów czy konfigurowanie systemów naprawy błędów.

Trzeci znaleziony przez OpenAI przypadek dotyczył operacji rozszerzania wpływów i tworzenia w mediach społecznościowych polaryzujących treści, np. wspierających obie strony w amerykańskim dyskursie politycznym, przy wykorzystaniu generowanych przez AI oraz zdjęć profilowych.

OpenAI regularnie publikuje raporty o złośliwej działalności wykrywanej na jej platformie, takiej jak tworzenie złośliwego oprogramowania czy fałszywych treści na stronach internetowych i w mediach społecznościowych.

Niekontrolowany rozwój AI jest zagrożeniem dla ludzkości

.Wielu ekspertów pisze i mówi na temat sztucznej inteligencji, używając sformułowania: „AI – korzyści czy zagrożenia?”. Uważam takie alternatywne sformułowanie za nietrafne, ponieważ właściwa według mnie jest koniunkcja: „AI – korzyści i zagrożenia” – pisze prof. Michał KLEIBER.

W świetle dotychczasowych osiągnięć jest bowiem niezaprzeczalnym faktem, że AI przynosi nam już dzisiaj wiele korzyści, których będzie znacznie więcej już w nieodległej przyszłości – w gospodarce, ochronie zdrowia, badaniach naukowych, w istocie w prawie wszystkich dziedzinach naszego życia. Stosowanie AI z pewnością pozwoli także skutecznie stawiać czoła wyzwaniom dotychczas jeszcze nieznanym bądź uznawanym dzisiaj za niepokonywalne. Równocześnie jednak AI tworzy już obecnie widoczne olbrzymie zagrożenia, których niestety także będzie znacznie więcej w przyszłości. Przyszłe korzyści dużo łatwiej jest przy tym planować i przewidywać, gdyż dostrzeganie i pełne rozumienie zagrożeń, tworzonych z reguły w tajemnicy i najczęściej przez autorytarne państwa, jest niezwykle skomplikowane.

Tezę o powadze zagrożeń potwierdza dobitnie ostatni raport zlecony grupie ekspertów przez amerykański State Department, czyli ministerstwo spraw zagranicznych. Raport bazuje na głębokich, merytorycznych rozmowach przeprowadzonych z ponad 200 ekspertami – szefami wiodących firm rozwijających AI, renomowanymi badaczami problemów cyberbezpieczeństwa, specjalistami badającymi konsekwencje użycia broni masowego rażenia oraz wysokiej rangi pracownikami ministerstwa. Wśród rozmówców byli m.in. szefowie i główne osoby odpowiedzialne za rozwój technologii w takich firmach, jak OpenAI (właściciel systemu ChatGPT), Google DeepMind, Meta czy Anthropic.

Zarysowany w raporcie obraz sytuacji jest prawdziwie alarmujący, a jego podstawową tezą jest stwierdzenie o zagrożeniu dla przetrwania nawet całej ludzkości, mogącym powstać w wyniku niekontrolowanego dalszego rozwoju AI. Obawy dodatkowo zwiększyła wypowiedź Geoffreya Hintona, uważanego za „ojca” AI, który stwierdził w niedawnym wywiadzie, że zbrodnicze wykorzystanie AI w nadchodzących trzech dekadach może z co najmniej 10-procentowym prawdopodobieństwem doprowadzić do całkowitego unicestwienia ludzkości. Odnosząc się do tego, rzecznik Białego Domu oświadczył zdumiewająco dobitnie, że prace nad uregulowaniem zasad tworzenia i korzystania z AI stają się najważniejszym zadaniem dla amerykańskiego rządu i wszystkich jego zagranicznych partnerów.

Wspomniany raport analizuje dwa główne zagrożenia dotyczące zastosowania AI. Pierwsze dotyczy planowanego, niekoniecznie w globalnej skali, ale szeroko niszczycielskiego użycia AI w tworzonej różnorodnej broni, w szczególności broni całkowicie autonomicznej, a także biologicznej i chemicznej, drugie zaś utraty ludzkiej kontroli nad opracowywanymi w laboratoriach systemami o niszczącym potencjale. W obu przypadkach naruszone może zostać globalne bezpieczeństwo, wywołując wyścig nowoczesnych zbrojeń o wręcz nieprzewidywalnych, dramatycznych konsekwencjach. Wśród zagrożeń o katastroficznych wymiarach raport wymienia też użycie AI do zaprojektowania i implementacji cyberataku całkowicie unieruchamiającego infrastrukturę państwa. Inną możliwością jest przeprowadzanie w olbrzymiej skali kampanii dezinformacyjnej mającej potencjał destabilizacji całego społeczeństwa i podważenia podstawowych zasad funkcjonowania państwa.

Wobec tak poważnych i przekonująco zidentyfikowanych zagrożeń raport apeluje o natychmiastowe podjęcie konkretnych działań, takich jak powołanie międzynarodowej agencji kontroli kierunków rozwoju AI, ustanowienie awaryjnych zasad działania w przypadku rozpoczęcia konfliktu z szerokim wykorzystywaniem AI oraz wprowadzenie międzynarodowych ograniczeń na charakter pozyskiwania wiedzy przez systemy AI. Ta ostatnia sprawa ma wielkie znaczenie, ponieważ dynamika narastającej konkurencji głównych producentów systemów wyposażonych w AI wpływa na ograniczenie stosowanych zasad bezpieczeństwa, stwarzając możliwości kradzieży oprogramowania w celu zbrodniczego wykorzystania, w dodatku bez możliwości przewidzenia przez złoczyńców możliwych konsekwencji jego użycia. Fakt, że poważny amerykański raport już w swym tytule ostrzega przed możliwością zniszczenia przez AI całej ludzkości, nie powinien pozastawiać wątpliwości co do powagi problemu, przed którym stoi dzisiaj cały świat.

Przy tej tak dobitnie wyartykułowanej powadze wymienionych zagrożeń niełatwo pogodzić się z tym, że stanowią one niestety tylko część problemów dotyczących naszego bezpieczeństwa w pełnym znaczeniu tego słowa. Niektóre z tych problemów ze względu na ich drugie, nie do zakwestionowania pozytywne oblicze są w opinii publicznej praktycznie niezauważalne.

Spośród naprawdę wielu spraw mających taki charakter przytoczmy choćby najnowsze osiągnięcie firmy Neuralink w postaci bezprzewodowego chipa wszczepionego do ludzkiego mózgu. Firma ta jest startupem założonym w 2017 roku przez Elona Muska, której głównym celem jest stworzenie interfejsu mózg-komputer, umożliwiającego w szczególności sterowanie za pomocą myśli urządzeniami takimi jak komputer czy telefon. Pełna realizacja tego pomysłu byłaby oczywiście bardzo przydatna dla osób sparaliżowanych po urazach bądź niesłyszących lub niewidzących. Urządzenie Neuralink zawiera ponad 1000 elektrod, które po wszczepieniu do mózgu człowieka, za pomocą specjalnie zaprojektowanego robota chirurgicznego, oddziałują na poszczególne neutrony. Dzięki bezprzewodowej komunikacji sygnały mózgowe przesyłane są do specjalnego programu dekodującego je na intencje i działania pacjenta. Przeprowadzono już liczne próby na zwierzętach, w fazie rekonwalescencji jest pierwsza osoba ze wszczepionym implantem. Efekt wydaje się spektakularny – całkowicie sparaliżowany pacjent jest w stanie grać w szachy i korzystać z gier wideo, używając wyłącznie swych myśli. Neuralink planuje przeprowadzić w tym roku 11 operacji tego typu i doprowadzić do komercjalizacji urządzenia w ciągu paru nadchodzących lat.

Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-michal-kleiber-niekontrolowany-rozwoj-ai-jest-zagrozeniem-dla-ludzkosci/

PAP/MB


Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 5 czerwca 2025