Izrael ma aspiracje, aby stać się „supermocarstwem” sztucznej inteligencji
Naszą misją jest sprawić, że Izrael stanie się „supermocarstwem sztucznej inteligencji”, również o zastosowaniu bojowym – oznajmił w poniedziałek dyrektor generalny izraelskiego resortu obrony Ejal Zamir. Poinformował też, że zostanie na to przeznaczony „rekordowo wysoki budżet”.
.Zamir, który wystąpił na dorocznej konferencji na temat bezpieczeństwa w mieście Herzlijja w dystrykcie Tel Awiwu, podkreślił, że Izrael chce stać się członkiem klubu zrzeszającego nieliczne światowe mocarstwa dysponujące najbardziej zaawansowanymi technologiami z obszaru sztucznej inteligencji (AI).
Izrael – przyszłe supermocarstwo AI?
.Mimo iż na badania związane z rozwojem takich technologii i ich zastosowań militarnych ma zostać przeznaczony w 2023 roku rekordowy budżet, resort obrony odmówił podania jakichkolwiek informacji na temat inwestowanych środków.
Sztuczna inteligencja – kolejna rewolucja sztuki wojennej
.Zamir przypomniał, że zdaniem części ekspertów „AI jest kolejną rewolucją, która zmieni oblicze sztuki wojennej na polu walki”; jak dodał, może ona pozwolić na stworzenie „działających niezależnie systemów bojowych (dokonujących) fuzji danych i wspierających szybkie podejmowanie decyzji na wcześniej niespotykaną skalę”.
Autonomiczny okręt podwodny
.Agencja Reutera podaje, że siły obronne Izraela ujawniły informacje na temat niektórych wykorzystywanych już autonomicznych systemów o zastosowaniu militarnym, w tym pojazdów terenowych-robotów, które w 2021 roku patrolowały granicę ze Strefą Gazy. Ponadto państwowe przedsiębiorstwo Israel Aerospace Industries zaprezentowało niedawno autonomiczny okręt podwodny zbierający dane wywiadowcze, który zrealizował już „tysiące godzin ” misji.
Roboty-zabójcy a moralność
.Na temat robotów zabójców i moralnych dylematów z tym związanych, na łamach „Wszystko Co Najważniejsze” pisze Elisabeth De CASTEX w tekście „Roboty-zabójcy a moralność i godność człowieka„.
„Wielu zastanawia się, czy jest zgodne z naszym wyobrażeniem godności ludzkiej to, że pewnego dnia jakiś robot będzie na tyle autonomiczny, by przyjąć odpowiedzialność za decyzję o strzale czy odpaleniu ładunku wybuchowego. Zasada, że ostateczna decyzja zawsze ma należeć do człowieka, wciąż jednak jest w tym zakresie dominantą w dyskursie publicznym. To oczywiste, że człowiek kontroluje maszynę, ale pozostaje pytanie, jak dzieli się z nią tą kontrolą, na jakim etapie, z jakiej odległości. Oprócz problemów natury moralnej związanych z upowszechnianiem tego typu broni pojawiają się również inne kwestie: ryzyko błędów związanych z rzeczywistymi zdolnościami algorytmów do odróżniania żołnierza od żołnierza oraz żołnierza od cywila, problemy bezpieczeństwa, na które te maszyny mogą być narażone, tj. hacking, przypadkowe lub celowe wyłączenie, konieczność zapewnienia „czerwonego przycisku” w nagłych wypadkach…”.
„Czy z moralnego punktu widzenia da się uzasadnić cedowanie takich decyzji na maszynę? Na pewno umożliwianie maszynie decydowania o życiu i śmierci ludzi jest sprzeczne z zasadami godności człowieka i może skutkować jego dewaluacją. Przy coraz większym oddaleniu operatora broni od miejsca uderzenia człowiek może po prostu stać się celem jak każdy inny obiekt”.
.”Jak wskazuje raport Ethics and autonomous weapon systems: An ethical basis for human control, przygotowany przez Międzynarodowy Komitet Czerwonego Krzyża: „Znaczenie zachowania ludzkiej sprawczości – i intencji – w decyzjach o użyciu siły jest jednym z głównych argumentów etycznych przemawiających za ograniczeniem autonomii w systemach uzbrojenia. Wielu uważa, że decyzji o zabijaniu, ranieniu i niszczeniu nie można delegować na maszyny, a ludzie muszą być obecni w tym procesie decyzyjnym na tyle, aby zachować bezpośredni związek między zamysłem człowieka a ostatecznym użyciem broni. Ściśle powiązane są obawy dotyczące utraty godności ludzkiej. Innymi słowy, ma znaczenie nie tylko to, czy dana osoba zostanie zabita lub zraniona, ale także sposób, w jaki zostaje zabita lub zraniona, w tym proces podejmowania tych decyzji. Argumentuje się, że jeśli brakuje ludzkiej sprawczości do tego stopnia, że maszyny skutecznie i funkcjonalnie delegują te decyzje, to podważa to ludzką godność tych walczących, którzy są celem, oraz cywilów, którzy są narażeni na ryzyko w wyniku ataki na cele wojskowe” – pisze Elisabeth De CASTEX.
PAP/WszystkoCoNajważniejsze/MJ