Militarne zastosowanie sztucznej inteligencji nową linią frontu

militarne zastosowanie sztucznej inteligencji

Militarne zastosowanie sztucznej inteligencji budzi ogromne kontrowersje, gdy technologiczni giganci ścierają się z wojskiem o ostateczne granice moralności.

.W świecie wielkich technologii lukratywne kontrakty obronne od zawsze stanowiły świętego Graala. Kiedy więc Anthropic, jeden z najważniejszych graczy na rynku sztucznej inteligencji, położył na stole zaporowe warunki przed podpisaniem umowy z Pentagonem, Dolina Krzemowa wstrzymała oddech. Dyrektor generalny firmy, Dario Amodei, zażądał żelaznych gwarancji, że jego technologia nigdy nie zostanie użyta do masowej inwigilacji obywateli ani do zasilania w pełni autonomicznej broni pozbawionej ludzkiego nadzoru. Reakcja amerykańskiej administracji była błyskawiczna i bezlitosna.

Prezydent Donald Trump natychmiast wydał zakaz korzystania z modeli językowych Claude we wszystkich agencjach federalnych, a sekretarz obrony Pete Hegseth publicznie określił firmę mianem „ryzyka dla łańcucha dostaw”. Zaledwie kilka godzin później rywalizujące z Anthropic, OpenAI z uśmiechem podpisało ten sam kontrakt, nie stawiając niewygodnych pytań. Zbieg okoliczności chciał, że zaledwie dzień po tych wydarzeniach Stany Zjednoczone i Izrael przypuściły potężną ofensywę na Iran. Przypomniało to światu w brutalny sposób, że debata o etyce AI to nie tylko akademickie dywagacje, ale kwestia życia i śmierci na współczesnym polu walki.

Czym właściwie jest w pełni autonomiczna broń oparta na sztucznej inteligencji? Nie mówimy tu o inteligentnych chatbotach, które nagle zyskują świadomość i przejmują kontrolę nad wyrzutniami rakiet. Zagrożenie jest znacznie bardziej subtelne i systemowe.

Współczesne modele AI są potężnymi narzędziami analitycznymi. Błyskawicznie przetwarzają dane z satelitów, radarów i kamer, tworząc listy priorytetowych celów. Problem pojawia się w momencie, gdy z tego łańcucha decyzyjnego wykluczymy człowieka. Zaawansowane helikoptery czy drony już dziś potrafią operować całkowicie samodzielnie. Jeśli pozwolimy maszynom na samodzielną interpretację zagrożenia i autoryzację ataku, wkroczymy na niezwykle niebezpieczny grunt. Skala tego ryzyka staje się przerażająco jasna w świetle niedawnych badańw zaawansowanych symulacjach wojennych sztuczna inteligencja aż w 95 procentach przypadków decydowała się na użycie broni nuklearnej.

Drugą nieprzekraczalną czerwoną linią dla Anthropic była masowa inwigilacja. Najnowsze modele językowe potrafią z przerażającą precyzją łączyć pozornie nieistotne kropki: od odciętych metadanych, przez wpisy w mediach społecznościowych, aż po systemy rozpoznawania twarzy w czasie rzeczywistym.

Pentagon argumentował, że systemy będą używane wyłącznie we „wszelkich celach zgodnych z prawem”. Z pozoru brzmi to jak solidny bezpiecznik, jednak w rzeczywistości to prawna pułapka:

*  prawo nie nadąża za innowacją – ustawodawstwo jest zawsze o krok w tyle za technologią, co daje rządom ogromne pole do swobodnej interpretacji.

*   błędy w skali makro – modele sztucznej inteligencji wciąż się mylą (tzw. halucynacje). Jeśli system błędnie powiąże obywatela z działalnością wywrotową i wdrożymy to na populacji liczącej miliony osób, doprowadzimy do masowego łamania praw obywatelskich.

*   brak transparentności – sieci neuronowe to „czarne skrzynki”. Gdy maszyna odrzuci wniosek o wizę lub wskaże kogoś jako zagrożenie dla bezpieczeństwa narodowego, człowiek po drugiej stronie ekranu często nie potrafi nawet wyjaśnić, jak algorytm doszedł do takich wniosków.

Sytuacja z Anthropic do złudzenia przypomina słynny bunt pracowników Google z 2018 roku wokół Projektu Maven. Wówczas pod presją tysięcy inżynierów zablokowano kontrakt na analizę nagrań z wojskowych dronów, a firma dumnie ogłosiła swoje zasady etyczne dotyczące AI. Historia uczy nas jednak bolesnej lekcji realizmu. Na początku 2025 roku Google po cichu wycofało się ze swoich zobowiązań, by móc ponownie ubiegać się o lukratywne zamówienia zbrojeniowe.

Różnica polega na tym, że dzisiejsze modele generatywne są nieporównywalnie potężniejsze niż algorytmy sprzed kilku-kilkunastu lat. Systemy takie jak Claude potrafią uczyć się na własnych błędach i samodoskonalić w oparciu o sprzężenie zwrotne. Udostępnienie tak elastycznego i potężnego narzędzia wojsku, bez nałożenia twardych, nienaruszalnych granic, to otwarcie puszki Pandory.

Bunt firmy Anthropic nie jest opowieścią o jednym szlachetnym gigancie technologicznym ani o krwiożerczym wojsku. To dzwonek alarmowy dla całego zdigitalizowanego świata. Nie możemy opierać globalnego bezpieczeństwa na tym, czy prezes danej korporacji akurat ma wyrzuty sumienia ani zostawiać etyki w rękach prawników negocjujących tajne kontrakty państwowe.

.Jeśli zadowolimy się rozmytą frazą „zgodnie z prawem”, oddamy kontrolę nad naszą prywatnością i bezpieczeństwem w ręce doraźnej polityki. Przykłady z innych państw, takich jak Kanada z jej dyrektywą o zautomatyzowanym podejmowaniu decyzji oraz rygorystycznymi ocenami wpływu algorytmów, pokazują, że istnieją skuteczne narzędzia nadzoru. Obywatele i organizacje międzynarodowe muszą patrzeć władzy na ręce, domagając się niezależnych audytów i twardego prawa, które jasno zdefiniuje, do czego maszyna nigdy nie powinna mieć prawa. W przeciwnym razie obudzimy się w świecie, w którym najważniejsze decyzje o naszym życiu będą podejmowane w ułamku sekundy, w chłodnych wnętrzach serwerowni.

Szymon Ślubowski

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 6 marca 2026