Czy uda się zapanować nad militarnymi zastosowaniami nowych technologii, zanim będzie za późno?
Być może wstępem do nich w różnych krajach powinny stać się ustalenia wewnątrzpaństwowe, wprowadzające zasady militarnego użycia AI i promujące je w rozmowach międzynarodowych. Kolejnym krokiem mogłoby być powołanie grupy ekspertów analizujących zachodzące wydarzenia i rozpoznających ich podłoże decyzyjne – pisze prof. Michał KLEIBER
.Żyjemy w bardziej skomplikowanym świecie, niż wielu z nas może się to wydawać. Nie wszyscy jesteśmy np. świadomi dramatów wojennych ostatnich lat, takich jak tzw. druga wojna kongijska, która w latach 1998–2003 pochłonęła ok. 3 mln ofiar, trwająca od 2011 r. wojna w Syrii – ponad 300 tys. ofiar, konflikt w Darfurze zapoczątkowany w 2003 r. – 300 tys. ofiar i ponad 3 mln uchodźców, wojna w Afganistanie – ok. 100 tys. ofiar, trwająca od 2011 r. wojna w Jemenie – ok. 375 tys. ofiar czy wreszcie wojna w Ukrainie z liczbą zabitych bądź ciężko rannych osób sięgającą 500 tys.
Ta przerażająca lista jest niestety bardzo daleka od kompletności. A w dzisiejszym świecie przy stale narastających konfliktach nikt chyba nie ma wątpliwości, że istniejące zagrożenia dla bezpieczeństwa ludzi i całych państw stają się coraz większe ze względu na możliwości militarnego stosowania nowych technologii. Zagrożenia tego rodzaju ze strony państw autorytarnie rządzonych przesądzają o konieczności wykorzystywania przez państwa demokratyczne w swych militarnych arsenałach broni o odpowiednich zdolnościach obronnych, wśród których specjalną rolę ze względu zarówno na swój już znany, ale także przewidywany militarny potencjał odgrywa sztuczna inteligencja (AI).
Systemy AI mające potencjał zastosowań w obszarze bezpieczeństwa można podzielić na dwie grupy. Pierwsza grupa to systemy umożliwiające zapobieganie atakom możliwym w danej chwili dzięki prowadzeniu szerokiej działalności wywiadowczej, szybkie przetwarzanie i wykorzystywanie zdobytych informacji oraz zarządzanie organizacją działań obronnych i ćwiczeń zapobiegawczych. Druga grupa to systemy o znaczeniu strategicznym, umożliwiające wczesne rozpoznanie potencjału militarnego i możliwych celów ataków wroga oraz jego gotowości do zbrodniczych działań. Nie ma wątpliwości, że wspomaganie systemami AI własnego potencjału obrony przed sterowanymi AI autonomicznymi atakami pociskami i dronami jest dzisiaj niezwykle ważnym elementem zapewnienia bezpieczeństwa państwa.
Wobec rozpoznanej i w wielu aspektach już zaawansowanej budowy broni autonomicznej przez państwa takie jak Rosja, Chiny czy Korea Północna świat Zachodu stoi przed olbrzymim wyzwaniem. Najróżniejsze groźby użycia takiej broni wypowiadane przez polityków wymienionych wyżej państw w kontekście wojny w Ukrainie, konfliktu w Strefie Gazy czy niegasnących, a nawet zaostrzających się sporów wokół Tajwanu i na granicy dzielącej oba państwa koreańskie nie pozostawiają żadnych złudzeń dotyczących globalnego spokoju, jasno wskazując na możliwy agresywny charakter rozwiązywania trwających bądź przyszłych, być może już nieodległych w czasie sporów politycznych. Dodatkowo sprzyjać temu może niedostatek skutecznych międzynarodowych umów normujących takie zagrożenia.
.Wojna w Ukrainie bywa opisywana jako superlaboratorium innowacji, pozwalające producentom nowych technologii testować nowe produkty bezpośrednio na polu walki. W istocie ukraiński dramat zademonstrował światu zasadniczą zmianę w sposobie prowadzenia działań wojennych. Pierwszym elementem są w tym kontekście zintegrowane systemy śledzenia ruchów wrogiego wojska z dokładnością do najmniejszych nawet jego oddziałów oraz zarządzanie reakcjami na wykryte ruchy. Według opinii przedstawiciela służb wywiadowczych Ukrainy na precyzyjne ustalenie takich sytuacji wystarczy 3–5 minut, a kolejne 3 minuty zajmuje uruchomienie systemów obronnych i ewentualne wystrzelenie odpowiednich pocisków. Takie możliwości obronne zapewniają latające autonomiczne obiekty wyposażone w AI, monitorujące dany obszar i podejmujące natychmiastowe decyzje w sytuacjach stwierdzonych zagrożeń.
Potrzeba takich obronnych działań nie podlega dyskusji, są one bowiem jedyną możliwą odpowiedzią w warunkach nieustannych ataków autonomicznych dronów w obszarze prowadzonych działań militarnych. Dodatkową okolicznością uzasadniającą konieczność takiej obrony jest fakt, że atakujące drony po początkowym zaprogramowaniu celów są często świadomie pozbawiane kontaktu ze swymi operatorami, co może skutkować przypadkowymi bombardowaniami napotkanych po drodze obiektów cywilnych, w tym szpitali, szkół czy muzeów, trudno bowiem oczekiwać od AI odwoływania się do zasad humanitaryzmu i etyki.
Wspomaganie działań przez AI jest także ważnym elementem wojny w Strefie Gazy. Izrael wykorzystuje w tym celu system nazywany „The Gospel”, automatycznie generujący informacje identyfikujące pożądane cele ataków i rekomendujący sposób ich przeprowadzenia. Eksperci szacują, że spośród ok. 15 tys. ataków powietrznych przeprowadzonych tylko w pierwszym miesiącu tamtejszej wojny aż 90 proc. stanowiły działania wspomagane AI. Spowodowało to przypisanie systemowi nazwy „fabryka masowych zabójstw”. Dodatkowo obok tragedii ginących osób także w tym przypadku pełna tego rodzaju automatyzacja działań wojennych wywołuje dramatyczne implikacje etyczne, niszcząc obiekty i zabijając niewinne osoby, które prawdopodobnie nie byłyby celem ataku w przypadku decyzji podejmowanych przez ludzi, tj. dowodzących działaniami wojennymi.
Istniejąca sytuacja wywołuje powszechną konsternację i nawoływanie przywódców wielu państw do uzgodnienia zasad wykorzystywania nowych technologii w konfliktach międzypaństwowych. Nawet jeśli większość racjonalnie myślących ludzi widzi prawdopodobnie nieusuwalną sprzeczność w samej próbie łączenia pojęć etyki i wojny, narastający dramatyzm otaczających nas wydarzeń i życiowy pragmatyzm nakazują wspieranie prób przygotowania międzynarodowego porozumienia w tej sprawie. Po prostu dlatego, że ostatnie wydarzenia wyraźnie wskazują na śmiercionośny potencjał autonomicznych dronów używanych do ataków na zaludnionych terenach.
Trudno niestety uwierzyć, że możliwy byłby całkowity zakaz używania takiej broni, znalezienie jednak pewnych zasad jej stosowania wydaje się bardzo wskazane. Dotychczasowe wypowiedzi wpływowych polityków, takich jak prezydenci USA czy nawet Rosji, obfitują wprawdzie w stwierdzenia wskazujące na zasadność takiego porozumienia, ale nie idą za tym na razie żadne inicjatywy podjęcia konkretnych rozmów. Być może wstępem do nich w różnych krajach powinny stać się ustalenia wewnątrzpaństwowe, wprowadzające zasady militarnego użycia AI i promujące je w rozmowach międzynarodowych. Kolejnym krokiem mogłoby być powołanie grupy ekspertów analizujących zachodzące wydarzenia i rozpoznających ich podłoże decyzyjne. Przykładem znaczenia takich kroków mogłyby być ustalenia Konwencji Genewskiej po II wojnie światowej, oczywiście niedotyczące wtedy AI.
.Ważną przyczyną problemu z myśleniem o skutecznym ograniczeniu ryzyka związanego z wykorzystywaniem technologicznie zaawansowanej broni jest pojęcie dual use, opisujące militarne użycie innowacyjnych rozwiązań powstałych w trakcie badań o rzeczywistym bądź pozorowanym cywilnym charakterze. Trudno jest przecież ingerować w prowadzone na uniwersytetach i w instytutach wielu krajów badania nad nowymi technologiami, mimo że werbalnie bądź realnie prowadzona przez niektóre z tych krajów agresywna polityka pozwala przewidywać zbrodnicze zastosowanie wyników tych badań.
Sytuację pogarsza fakt, że badania nad AI i jej zastosowaniami rzutują na prace w innych dziedzinach nauki, mających podobnie groźny potencjał tworzenia broni masowego rażenia. Dotyczy to w szczególności broni biologicznej i chemicznej, a także działań w obszarze bezpieczeństwa cyfrowego, mającego rzadko rozpoznawany w tej skali, lecz podobnie groźny charakter. Wszystkie te zagrożenia rozpatrywane były do niedawna niezależnie od siebie i dopiero ostatnio zaczęła się szerzyć świadomość możliwości ich integracji, czyli wspólnego militarnego użycia, stanowiącego według ekspertów znacznie większe zagrożenie od prostej sumy użycia poszczególnych typów broni.
Przykładem integracji AI i biologii może być wykorzystanie AI do identyfikacji trujących czynników w nowo opracowywanych patogenach, a integrację AI i chemii ilustruje możliwość tworzenia nowych trujących składników implementowanych w różnych substancjach. Jak podaje ukraiński sztab generalny, realnym przykładem wykorzystywania zintegrowanej broni jest działanie Rosji, która dosłownie każdego dnia używa autonomicznie sterowanych dronów do zrzucania na ukraińskie miejscowości granatów wypełnionych drażniącym gazem opracowanym z pomocą AI, łamiąc przy tym konwencję o zakazie broni chemicznej. Bezpieczeństwo cyfrowe mogłoby zaś być w analizowanym kontekście zagrożone poprzez zastosowanie metod AI do szerokiej internetowej promocji skażonych produktów, nie wspominając już nawet o innych sieciowych zagrożeniach, takich jak automatycznie generowane fałszywe informacje udostępniane w internecie z wykorzystaniem spreparowanych wypowiedzi ważnego polityka jakiegoś państwa, mogące skłonić inne państwo do użycia broni masowego rażenia, czy takich jak włamania do systemów zarządzania politycznego i wojskowego. Do tego dochodzą zagrożenia, także dla bezpieczeństwa, znane od pewnego czasu w naszym codziennym życiu i określane jako phishing bądź ransomware.
Prace dotyczące zabezpieczeń przed powyższymi zagrożeniami, jakie przynoszą zintegrowane metody działań, są prowadzone oczywiście w wielu krajach, ale ich skuteczność jest na razie bardzo problematyczna. Jako jeden z przykładów można tu podać sprawę tworzenia trujących patogenów, dla których opracowanie skutecznych zapobiegawczych szczepień może wymagać długiego okresu prac badawczych. Aktywne prace dotyczące bezpieczeństwa wobec zagrożeń zintegrowanych broni masowego rażenia prowadzi wiele państwowych instytucji, a szczególnie aktywny jest w tym Kongres Stanów Zjednoczonych.
.Sednem dotychczasowych działań jest niestety jedynie apelowanie do świata o przyjęcie prawa do międzynarodowych audytów w laboratoriach prowadzących prace mogące być podstawą tworzenia takiej broni. Nawet jednak tak ograniczona inicjatywa wydaje się dzisiaj bardzo daleka od jakichkolwiek uzgodnień ze względu na nie tylko nieprzychylne i nietrudne do zrozumienia stanowisko władz krajów rządzonych autorytarnie, ale także opinie wielu polityków krajów demokratycznych, obawiających się, że przestrzeganie takich zasad może pogorszyć ich strategiczną pozycję. Trzeba mieć nadzieję, że świat osiągnie jednak w przewidywalnym czasie jakiś istotny konsensus w obawie o swe bezpieczeństwo. Coraz szersza jest bowiem dzisiaj świadomość, że rozwój technologii doprowadza nas do sytuacji mogącej w wyniku zaplanowanych bądź przypadkowych działań zagrozić całej ludzkości.