Elisabeth de CASTEX: Roboty-zabójcy a moralność i godność człowieka

Roboty-zabójcy a moralność i godność człowieka

Photo of Elisabeth de CASTEX

Elisabeth de CASTEX

Doktor nauk politycznych. Prowadzi blog poświęcony wyzwaniom dla człowieka w Fundacji na rzecz Innowacji Politycznych. Współprowadzi seminarium w Doctoral School of Science w Paryżu na temat kondycji człowieka w erze N.B.I.C. Jest członkiem Rady Naukowej Fundacji Innowacji Politycznych.

Roboty-zabójcy mogą odbierać życie… Nie chodzi oczywiście o roboty jako takie, gdyż za tym przyjętym powszechnie terminem kryje się cała seria zdalnie programowalnej i sterowalnej broni. Najbardziej autonomiczne z nich określa się nazwą LAWS (Lethal Autonomous Weapons). Są to maszyny zdolne do namierzenia i zniszczenia danego celu w zmieniającym się otoczeniu i bez udziału człowieka – pisze Elisabeth de CASTEX

Wielu zastanawia się, czy jest zgodne z naszym wyobrażeniem godności ludzkiej to, że pewnego dnia jakiś robot będzie na tyle autonomiczny, by przyjąć odpowiedzialność za decyzję o strzale czy odpaleniu ładunku wybuchowego. Zasada, że ostateczna decyzja zawsze ma należeć do człowieka, wciąż jednak jest w tym zakresie dominantą w dyskursie publicznym. To oczywiste, że człowiek kontroluje maszynę, ale pozostaje pytanie, jak dzieli się z nią tą kontrolą, na jakim etapie, z jakiej odległości. Oprócz problemów natury moralnej związanych z upowszechnianiem tego typu broni pojawiają się również inne kwestie: ryzyko błędów związanych z rzeczywistymi zdolnościami algorytmów do odróżniania żołnierza od żołnierza oraz żołnierza od cywila, problemy bezpieczeństwa, na które te maszyny mogą być narażone, tj. hacking, przypadkowe lub celowe wyłączenie, konieczność zapewnienia „czerwonego przycisku” w nagłych wypadkach…

Czy z moralnego punktu widzenia da się uzasadnić cedowanie takich decyzji na maszynę? Na pewno umożliwianie maszynie decydowania o życiu i śmierci ludzi jest sprzeczne z zasadami godności człowieka i może skutkować jego dewaluacją. Przy coraz większym oddaleniu operatora broni od miejsca uderzenia człowiek może po prostu stać się celem jak każdy inny obiekt.

Jak wskazuje raport Ethics and autonomous weapon systems: An ethical basis for human control, przygotowany przez Międzynarodowy Komitet Czerwonego Krzyża:

„Znaczenie zachowania ludzkiej sprawczości – i intencji – w decyzjach o użyciu siły jest jednym z głównych argumentów etycznych przemawiających za ograniczeniem autonomii w systemach uzbrojenia. Wielu uważa, że decyzji o zabijaniu, ranieniu i niszczeniu nie można delegować na maszyny, a ludzie muszą być obecni w tym procesie decyzyjnym na tyle, aby zachować bezpośredni związek między zamysłem człowieka a ostatecznym użyciem broni. Ściśle powiązane są obawy dotyczące utraty godności ludzkiej. Innymi słowy, ma znaczenie nie tylko to, czy dana osoba zostanie zabita lub zraniona, ale także sposób, w jaki zostaje zabita lub zraniona, w tym proces podejmowania tych decyzji. Argumentuje się, że jeśli brakuje ludzkiej sprawczości do tego stopnia, że maszyny skutecznie i funkcjonalnie delegują te decyzje, to podważa to ludzką godność tych walczących, którzy są celem, oraz cywilów, którzy są narażeni na ryzyko w wyniku ataki na cele wojskowe”. (2)

Można się zastanawiać, jaka jest różnica między śmiercią zadaną przez zdalnie programowalny i sterowalny pocisk a śmiercią zadaną przez robota typu LAWS. Obie bronie są automatami, a różni je jedynie stopień autonomiczności. Oczywiście istnieją między nimi różnice na płaszczyźnie praktycznej (w odniesieniu do takich kwestii jak ryzyko błędnego obrania celu, strach, jaki może wywoływać armia humanoidalnych robotów-zabójców czy naloty dywanowe dronów), ale na płaszczyźnie moralnej jest to problem dużo bardziej złożony.

Jaki zatem jest główny dylemat moralny związany z robotami-zabójcami? Robot, nawet autonomiczny, podobnie zresztą jak wszystkie inne maszyny, nigdy nie będzie moralny, tzn. nigdy nie będzie potrafił odróżnić dobra od zła i nadawać sensu swojemu działaniu. Siła robota ogranicza się jedynie do tego, co policzalne. Wszystko ponad wyliczenia jest ograniczeniem dla maszyny, niezdolnej do rozwiązania problemu moralnego czy do powzięcia intuicyjnego sądu przy braku pewności. Przymiotnik „moralny” w odniesieniu do robota określa nie sens działania wyznaczony przez wartości, ale praktyczne warunki, w których następuje podjęcie decyzji. Robot, który mógłby być akceptowalny dla wszystkich, to taka maszyna, która działa neutralnie na podstawie algorytmu i której decyzje są zawsze klarowne i zrozumiałe. Dziś jednak tak się nie dzieje.

Systemom zwanym „deep learning” towarzyszy efekt „czarnej skrzynki” algorytmów, niemożność wyjaśnienia mechanizmów, które prowadzą do określonych decyzji. Skuteczność idzie w parze ze złożonością, ze szkodą dla przejrzystości. I to właśnie ta niemożność wyjaśnienia, czym kieruje się maszyna, jest najważniejszym problemem w cedowaniu na nią decyzji o strzale czy odpaleniu ładunku.

W sytuacji rzeczywistego konfliktu kwestia ta nabiera innego, bardziej doniosłego i poważniejszego w konsekwencjach wymiaru. Czy zatem jesteśmy w stanie zaakceptować, że w czeluściach „czarnej skrzynki” algorytmu zapadać będzie decyzja o śmierci człowieka, decyzja, której nie będziemy w stanie w pełni wyjaśnić? Rozważania o skuteczności i szybkości podejmowania decyzji przez roboty trzeba jeszcze połączyć z rozważaniami o geopolityce i dążeniu niektórych państw do odgrywania roli globalnych mocarstw, a także z takimi zagadnieniami, jak konieczność deeskalacji zła, ochrony życia ludzkiego, zarówno żołnierzy, jak i cywilów.

Elisabeth de Castex

(1) Według autorów raportu komisji obronności francuskiego parlamentu broń LAWS jest definiowana dwojako. Z jednej strony pod skrótem LAWS może kryć się zespół zautomatyzowanej broni zdolnej zadawać śmierć, niezależnie od poziomu autonomii (mogą to być zarówno nowoczesne systemy zdalne, takie jak drony wykorzystywane przez armię francuską w Sahelu, ale też zautomatyzowane systemy używane w wojsku od dziesięcioleci). Ta definicja jest szeroko akceptowana przez organizacje pozarządowe (jak np. „Stop Killer Robots”). Z drugiej strony w definicji zawężonej do kryterium autonomii LAWS to maszyna zdolna do ustalania własnych reguł działania niezależnie od innego zewnętrznego operatora (człowieka lub innej maszyny). Tę definicję przyjmują wielkie mocarstwa wojskowe, w tym Francja. Komisja obronności podaje jeszcze jedną definicję, przedstawianą przez Jean-Baptiste’a Jeangène’a Vilmera jako akceptowalną przez społeczność międzynarodową. Według niej LAWS to systemy uzbrojenia zdolne wybierać i niszczyć cele samodzielnie, bez udziału człowieka, w zmieniającym się otoczeniu (http://www.assemblee-nationale.fr/dyn/15/rapports/cion_def/l15b3248_rapport-information, lipiec 2020). (2) Ethics and autonomous weapon systems: An ethical basis for human control, International Committee of the Red Cross, Genewa, 3 kwietnia 2018.

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 30 listopada 2020