
Licencja na zabijanie
Gdy sztuczna inteligencja przejmuje odpowiedzialność za nasze decyzje; gdy zastępuje człowieka przez to, co nieludzkie. – pisze Jacek KORONACKI
.Sztuczna inteligencja jest jednym z filarów tych przemian społecznych, które bez żadnej przesady można określić mianem rewolucyjnych, a to dlatego, że istotą tych przemian – co prawda ukrytą albo prawie niewidoczną – jest stopniowe zastępowanie człowieka przez to, co nieludzkie. Mówi się o tych przemianach bardzo dużo, i słusznie, ostatnio w numerze 59 „Wszystko co Najważniejsze”, gdzie zamieszczono rozmowę na ten temat premiera Rishiego Sunaka z przedsiębiorcą i wizjonerem Elonem Muskiem.
Fundamentem owej rewolucji jest postęp techniczny w obszarze mikroelektroniki, nanotechnologii, telekomunikacji i oczywiście informatyki (dziś wszyscy powiedzieliby „postęp technologiczny”, ale niesłusznie – technologia to po polsku, inaczej niż po angielsku, wyłącznie konkretna metoda przygotowania i prowadzenia procesu wytworzenia albo przetworzenia jakiegoś dobra). Postęp ten przynosi niesłychanie dynamiczny wzrost mocy obliczeniowych współczesnych komputerów, umożliwia gromadzenie oraz analizę nieomal niewyobrażalnie wielkich zbiorów danych, np. kolekcji dzieł drukowanych oraz dokumentów tworzonych przez wszystkich użytkowników sieci internetowej. Postęp ten umożliwia również stałe zwiększanie prędkości przesyłania coraz większych ilości informacji przez wspomnianą sieć. Wręcz niewiarygodne jest tempo, w jakim powstają zupełnie nowe, coraz potężniejsze algorytmy owej sztucznej inteligencji (dalej będziemy opatrywać ją powszechnie przyjętym skrótowcem anglojęzycznym AI – od słów artificial intelligence).
Czym jest AI, wiemy już wszyscy doskonale, jakkolwiek jest wiele nieco różniących się między sobą jej definicji. Inteligencja naturalna jest w pierwszym rzędzie jakością, która pozwala danemu stworzeniu – człowiekowi albo zwierzęciu – działać właściwie i przewidująco w jego otoczeniu. I krótko rzecz ujmując, sztuczna inteligencja – AI – jest efektem ludzkiego działania, zmierzającego do uczynienia maszyn inteligentnymi. Taką maszyną jest komputer (albo wiele ze sobą połączonych komputerów) wyposażony w algorytmy AI. Pisałem o tym w artykule Historia ChatGPT, danologia, sztuczna inteligencja oraz ryzyko pochwały nierozumnego rozumu w numerze 50 „Wszystko co Najważniejsze” [LINK]. Przedstawiłem tam krótko historię AI, a właściwie tej części informatyki, która nosi nazwę maszynowego uczenia się (albo uczenia maszynowego, ML – od ang. machine learning) i która stanowi rdzeń współczesnych algorytmów AI. Wspomniałem o paradygmacie tzw. głębokiego (maszynowego) uczenia się, którego intensywny rozwój został zapoczątkowany na przełomie XX i XXI wieku i który umożliwił stworzenie nowego podejścia do budowy algorytmów ML, tzw. uczenia generatywnego (lepszą nazwą jest uczenie naśladowcze). To nowe podejście jest koncepcyjnym i technicznym fundamentem słynnego dziś chatbota o nazwie ChatGPT, czyli bardzo rozbudowanego modelu języka naturalnego, którego zdolności tłumaczenia tekstów, odpowiadania na pytania, streszczania dokumentów czy wręcz generowania nowych tekstów w języku naturalnym mogą zdumiewać. Dotyczy to zwłaszcza jego zdolności naśladowania naszego piśmiennictwa oraz prowadzenia dialogu z człowiekiem. Ów chatbot jest stale ulepszany, powstają jego kolejne, coraz doskonalsze wersje. Pierwsza powstała w roku 2018.
Od początku istnienia algorytmów ML ich umiejętność uczenia się zaczynała się od wczytania do pamięci komputera jak największej ilości danych dotyczących zadania, jakie algorytm ma wypełniać – np. rozegranych w przeszłości gier w szachy, jeśli zadaniem algorytmu jest rozgrywanie partii szachów, czy w przypadku ChatGPT m.in. dokumentów tekstowych (książek, artykułów prasowych, zapisów z portali społecznościowych itd.). Ale oto zaprezentowany w roku 2017 program AlphaZero firmy DeepMind (przejętej w 2014 przez Google) nie posiadał żadnej wiedzy o partiach wcześniej rozegranych przez ludzi, znał jedynie reguły gry i doskonalił swą grę, grając… z sobą samym (oczywiście zadaniem każdego z „graczy” było wygranie partii). Był to zatem program „samouczenia się od podstaw”. Idea ta okazała się w pewnej mierze rewolucyjna. Algorytm zapamiętywał rozegrane przez siebie partie i na tej podstawie wyliczał, rozgrywając partię kolejną, jaki ruch przy zadanej sytuacji na szachownicy daje największe prawdopodobieństwo wygranej. W fazie owego samouczenia się algorytm rozegrał miliony gier. Zaprezentowany światu okazał się… najlepszym graczem na świecie – lepszym od najlepszych szachistów i lepszym od innych programów. Grę programu oceniono jako wyjątkowo oryginalną, zaskakującą. Arcymistrz Garri Kasparow napisał, że AlphaZero odmienił szachy aż po same korzenie. I właściwie nic dziwnego, skoro program nie miał wcześniej wczytanych żadnych ludzkich strategii gry.
.W sierpniu 2020 roku w symulowanych pojedynkach lotniczych między człowiekiem – pilotem siedzącym w symulatorze myśliwca F16 – a programem AI symulującym jego przeciwnika lepszy okazał się program nauczony walki na tej samej zasadzie samouczenia się co AlphaZero. W fazie samouczenia się program rozegrał ze sobą cztery miliardy pojedynków (program został stworzony przez firmę Heron Systems, przejętą w roku 2021 przez firmę Shield AI, o której jeszcze wspomnimy).
ChatGPT oraz dwa ostatnie przykłady mówią wiele o tempie i niezwykłości postępu na polu tworzenia niebywale skutecznych algorytmów AI. Ale też te trzy przykłady wiele mówią o niebezpieczeństwach, jakie rozwój AI niesie.
Jeśli chcesz pokoju, szykuj się do wojny (si vis pacem, para bellum), na przykład zastępując pilota myśliwca lepszym od niego programem AI, przynajmniej na czas pojedynku z pilotem innego myśliwca. Tego wymaga rywalizacja między siłami zbrojnymi różnych państw. Amerykanie mają takie programy dzięki firmie Heron Systems połączonej w jedno z Shield AI. Natomiast w czerwcu 2021 roku Chińczycy ogłosili, że ich system AI również wygrywa symulowane pojedynki z pilotami chińskiej armii. Kto nie zainstaluje w swoich myśliwcach skutecznych „pilotów AI”, ten osłabi swoje siły powietrzne, być może zachęcając przeciwnika do podjęcia jakichś działań zaczepnych.
Firma Shield AI została założona przez dwóch braci – Brandona i Ryana Tsengów. Pierwszy z nich służył przez siedem lat w marynarce wojennej, w słynnych oddziałach SEAL, odpowiadając za wspomaganie walczących środkami AI, m.in. w Afganistanie. Zobaczył, co to znaczy wejść do budynku, w którego pomieszczeniach czai się wróg. Firma Shield AI wyspecjalizowała się w produkcji najlepszych na świecie dronów (m.in. Nova 2), zdolnych prowadzić samodzielnie rozpoznanie pomieszczeń zamkniętych, wewnątrz budynków czy pod ziemią, gdy nie można skorzystać z pomocy urządzeń GPS czy komunikować się z innymi urządzeniami lub ludzkim operatorem. W przypadku działań wojennych wyniki rozpoznania przekazywane są jednostce mającej wykonać zadanie bojowe. Shield AI może się również pochwalić systemem AI (Hivemind), który potrafi pilotować samolot w trudnych warunkach na podstawie samodzielnego rozpoznania otoczenia, bez GPS czy komunikowania się z zewnętrzem. System może wspomagać samoloty cywilne i wojskowe, w drugim przypadku w trakcie działań bojowych, aż do – o czym już wspomnieliśmy – pojedynku z innym samolotem.
Drony Nova 2 są używane przez armię izraelską w jej obecnej wojnie z Hamasem. Izrael ma też własne drony o podobnych zdolnościach (o nazwie Lanius, produkowane przez korporację Elbit Systems). Jak łatwo się domyślić, armia izraelska zakupuje drony od większej liczby producentów, dostosowując je do swoich potrzeb. Drony takie mogą być stosowane jako autonomiczne urządzenia latające, służące do rozpoznania celu ataku (np. składu broni, żołnierza ukrytego za barykadą czy w zamkniętym pomieszczeniu), albo jako tzw. amunicja krążąca, czyli drony wyposażone w ładunek wybuchowy, uderzające w cel i tym sposobem go niszczące. Termin „autonomiczne” oznacza tu urządzenie bezzałogowe, samodzielnie wybierające trasę do wyznaczonego celu.
.Według doniesień mediów światowych armia izraelska w Strefie Gazy dokonała od pierwszego dnia wojny, czyli od 7 października, do początku listopada aż 11 000 ataków na cele wroga, przy czym wiele z tych celów zostało wyznaczonych przez specjalnie do tego przeznaczone centrum wywiadowcze, opierające swoje działanie na metodach AI. Armia izraelska potrafiła w ciągu jednego dnia zniszczyć 150 celów ukrytych w tunelach podziemnych. Centrum wywiadowcze sił zbrojnych Izraela działa od wielu lat, ma potężną, stale uaktualnianą bazę danych o potencjalnych celach – składach broni, małych fabrykach tejże, ośrodkach dowódczych, wyższych oficerach Hamasu, a od niedawna, twierdzi się, również o żołnierzach Hamasu niższego szczebla. Według znawców tematu oraz strzępów informacji uzyskanych od oficerów z centrum wywiadowczego właściwe wykorzystanie sprzętu i metod AI walnie przyczyniło się do sukcesów Izraela w obecnej wojnie z Hamasem. W tym miejscu abstrahuję od oceny moralnej działań izraelskich – ogromu strat wśród ludności cywilnej, skali zniszczeń materialnych w Strefie Gazy. Ale może to dzięki AI Gaza nie została zrównana z ziemią, a jej ludność nie ucierpiała nieporównanie bardziej. Wszakże nie tu miejsce na całościową ocenę moralnych aspektów konfliktu palestyńsko-izraelskiego, jego długiej historii i stanu obecnego.
Wojna Izraela z Hamasem nie jest wojną typową, wielkoskalową wojną między dwiema równorzędnymi armiami. Jest to, rzec można, asymetryczna wojna miejska. A co dziś wiemy o planowaniu bitew w przyszłych wojnach symetrycznych? Odnotowałem już, że w pojedynkach myśliwców człowiek ma… nie przeszkadzać działaniu AI. Okazuje się, że to samo można powiedzieć o dużych bitwach przyszłości. Prowadzone doświadczenia pokazują, że im mniej jest podczas ataku interwencji człowieka w decyzje systemów AI, tym atak jest szybszy i skuteczniejszy. Tak było np. podczas ćwiczeń armii amerykańskiej na pustyni Arizony w roku 2020, gdzie symulowano bitwę lądową w roku 2035. (Więcej o tym i również o dylematach związanych z eliminowaniem człowieka ze współpracy z systemami AI – w wojskowości i innych dziedzinach – można przeczytać np. w The New Fire. War, Peace, and Democracy in the Age of AI, książce Bena Buchanana i Andrew Imbriego z 2022 r.).
Żołnierza szkoli się, by zabijał. Ale normalny człowiek nie chce zabijać. Badacze problemu doskonale wiedzą, że np. skuteczność salw oddawanych przez żołnierzy jednej strony do żołnierzy strony drugiej była bardzo mała. Żołnierze nie chcieli zabijać i zabijali niewiarygodnie rzadko. Po bitwie pod Gettysburgiem w 1863 roku odnaleziono 27 574 muszkiety. Około 24 tysiące było załadowanych, połowa z nich miała w lufach więcej niż jeden nabój. Żołnierze nie chcieli strzelać do przeciwników! Ocenia się, że w czasie II wojny światowej 15–20 proc. żołnierzy w ogóle nie strzelało. Większość pozostałych celowo strzelała niecelnie (ponieważ trudno uwierzyć w te stwierdzenia, dodaję, że istnieje na ten temat bogata literatura, pełna podobnie zadziwiających danych; polecam stosunkowo niedawno wydaną książkę doświadczonego w boju oficera i psychologa wojskowego ppłk. Dave’a Grossmana, On Killing: The Psychological Cost of Learning to Kill in War and Society, 1995). Trzeba było poradzić sobie z tym problemem, odpowiednio szkoląc przyszłych żołnierzy. Jednym z ważnych elementów takiego szkolenia jest swego rodzaju depersonalizacja przeciwnika, uczynienie zabijania człowieka czynnością jakby czysto techniczną, wykonywaną szybko i niezawodnie, z należytym skoncentrowaniem się na wykonywanym zadaniu, i tyle (zupełnie inna, łatwiejsza, jest sytuacja zabijającego, gdy przeciwnik jest zbiorowy i najlepiej znajduje się daleko, jak np. statek na morzu czy „gdzieś tam” znajdująca się kompania czołgów atakowana przez artylerię). Współczesna wojna najczęściej ma stwarzać takie właśnie warunki.
Szybko rozwijająca się współczesna neurobiologia pozwala zlokalizować sygnały neuronowe w mózgu odpowiedzialne za nasz nastrój, uczucie niepokoju, zmęczenia, chwilę dekoncentracji uwagi czy osłabnięcie działania tzw. pamięci roboczej, która przechowuje akurat potrzebne informacje i bez której nie można by wykonać bieżącego zadania. Stale doskonali naszą wiedzę o tym, jak zmieniać te stany naszego mózgu, a zatem co czynić, gdzie i jakie sygnały przesyłać do mózgu żołnierza, by ten przestał czuć niepokój, zmęczenie itd. Rozwijana jest przeto inżynieria budowy interfejsów mózg-komputer, czyli elektrod podczaszkowych umieszczonych tak, by wychwytywały wybrane sygnały mózgowe i przekazywały je do komputera. Ten zaś jest już „nauczony” przez odpowiedni algorytm AI, jak szybko rozpoznać niepożądany pod danym względem stan żołnierza i jak wymusić oczekiwaną zmianę w jego mózgu (via elektrosygnał modulujący pracę właściwych neuronów).
.W tym samym obszarze badań niemało już osiągnięto, gdy chodzi o sterowanie myślą i różnymi urządzeniami na odległość, np. dronami. Wypada zaznaczyć, że komunikacja za pomocą interfejsu mózg-komputer jest dwustronna. Mózg człowieka może nie tylko sterować więcej niż jednym dronem, ale również otrzymywać informacje od dronów o ich otoczeniu. Warto nadmienić, że w USA praktycznie wszystkie prace badawcze, o których tu wspominamy, są zamawiane i finansowane – w ramach systematycznie planowanych, szeroko, ale precyzyjnie zakrojonych obszarów tematycznych – przez Defense Advanced Research Projects Agency, czyli Agencję Zaawansowanych Projektów Badawczych Departamentu Obrony (w skrócie DARPA). Właśnie wspomniana zdolność dwustronnej komunikacji między urządzeniami i mózgiem człowieka była efektem programu sfinansowanego przez agencję DARPA, zakończonego w roku 2018. W tym samym roku DARPA ogłosiła konkurs na prace, których owocem mają być urządzenia o podobnych zdolnościach, ale niewymagające interwencji chirurgicznych u człowieka.
Jak już wcześniej wspomniałem, z inżynierskiego punktu widzenia AI to tyle co ML, przynajmniej do chwili obecnej. Zasadne jest natomiast mówienie o systemach AI, nawet gdy unikamy podania ich ścisłej definicji, ale mamy na myśli większe systemy, których podstawowym elementem jest algorytm ML albo które powstały z wykorzystaniem metod ML.
Dziedzinami, w których algorytmy ML mają szczególnie duże pole do popisu, są te, w których opisy obiektu zainteresowania są szczególnie złożone albo analiza danego problemu wymaga zbadania wielkiej liczby różnych możliwości. W pierwszym przypadku przykładem może być populacja pacjentów cierpiących na pewną chorobę (pacjenci są wspomnianymi obiektami). Atrybutów opisujących każdego pacjenta może być bardzo dużo, mogą ich być setki tysięcy albo więcej, np. gdy opis zawiera dane biomolekularne – dotyczące genomu oraz charakterystyk epigenetycznych. Algorytmy ML pozwalają sprawdzić, czy np. zbiór takich opisów, a więc populacja pacjentów, nie daje się podzielić na podgrupy, w których mechanizmy zapadnięcia na chorobę są różne albo w których istotnie różne są rokowania dotyczące przebiegu choroby. Przykładem sytuacji, w której niezbędne jest zbadanie wielkiej liczby różnych możliwości, jest odkrywanie nowych leków, np. antybiotyków. Algorytm ML „uczy się” najpierw na znanych antybiotykach, jakie cechy ich struktur molekularnych decydują o możliwości zabicia danych bakterii, by następnie dokonać przeglądu tysięcy albo więcej molekuł o nieznanych właściwościach w celu wykrycia wśród nich kandydatów na nowe antybiotyki, być może zdolne zwalczyć choroby bakteryjne, na które nie było dotąd lekarstwa. W lutym 2020 roku zespół badaczy z MIT (Massachusetts Institute of Technology) ogłosił poczynione tą drogą ważne odkrycie: molekuła o nazwie halicin jest antybiotykiem o szerokim spektrum działania – jest zdolna pokonać patogeny różnych chorób, także tych, na które żadne znane antybiotyki nie działały.
Włączenie algorytmów ML do procedur diagnostycznych pozwala często na wcześniejsze wykrycie – a jest to niesłychanie ważne – danej choroby. Tak się np. stało w przypadku badań przesiewowych, dotyczących raka piersi. Z tym że nie zawsze jest to łatwe. Zbudowanie systemu AI, który rekomendowałby sposób leczenia pacjentów onkologicznych na podstawie posiadanych danych o pacjencie, okazało się zadaniem zbyt trudnym. Przekonał się o tym koncern IBM, który zbudował dwa systemy tego typu – Oncology Expert Advisor oraz Watson for Oncology – i pierwszy z tych projektów zamknął w roku 2016 (włożywszy weń pięć lat pracy i wydawszy 62 miliony dolarów), natomiast drugi system, powstały w 2015 roku, przestał być oferowany szpitalom w roku 2020. Zadowalające rozwiązanie zadań postawionych przed systemami okazało się niewykonalne. Systemy AI nie mają czarodziejskich zdolności – działają w oparciu o dostarczone im dane i mogą je „zmyślnie” przetwarzać, ale nic więcej. W przypadku systemów mających sobie radzić z problemami onkologicznymi okazało się, że wiedza o tych problemach jest zbyt złożona, by dało się ją „wydobyć” od specjalistów i tak zapisać, by można było ją wczytać do komputera.
Podane zastosowania medyczne dotyczyły leczenia. Ale medycyna obejmuje również inne obszary działania człowieka. W październiku 2023 roku Klinika Gyncentrum Sp. z o.o. zamieściła na swojej stronie internetowej takie ogłoszenie: „Naukowcy Gyncentrum opracowali własny algorytm do oceny zarodków najlepiej rokujących w procedurze in vitro. Wykorzystanie sztucznej inteligencji w procedurach zapłodnienia pozaustrojowego to innowacja mająca na celu zwiększenie ich skuteczności. W Gyncentrum dążymy do tego, by w przyszłości algorytm stał się standardowym narzędziem dodatkowej oceny każdego zarodka przed transferem […]”.
Dalej wyjaśniono w przywołanym tekście: „Do piątej doby od zapłodnienia komórki jajowej w laboratorium embriologicznym, zanim zarodek trafi do macicy lub zostanie zamrożony w ciekłym azocie, przebywa on w specjalnym inkubatorze, a jego rozwój obserwowany jest za pomocą kamer. Powstaje wówczas seria ponad półtora tysiąca zdjęć dokumentujących jego kolejne etapy rozwoju. W zdjęciach zapisane są dane, które stanowią o tym, czy z danego zarodka może rozwinąć się zdrowe dziecko. Embriolog ocenia m.in. jego wygląd czy tempo podziału komórki. Niestety nie wszystko da się dostrzec ludzkim okiem. Tu wkracza sztuczna inteligencja, dla której takie ograniczenia nie istnieją”.
To oczywiście nieprawda, że algorytm ML może „zobaczyć” wszystko, ale spuśćmy zasłonę milczenia na ten chwyt reklamowy. Prawdą jest, że w diagnostyce związanej z procedurami in vitro jest miejsce dla algorytmów ML. Wraz z rozwojem metod in vitro i ich nowymi zastosowaniami będzie tego miejsca coraz więcej (o tym rozwoju, abstrahując od ML, pisałem w artykule In vitro i hodowla ludzi, „Wszystko co Najważniejsze”, nr 48 [LINK]).
We wspominanym już moim artykule w numerze 50 „Wszystko co Najważniejsze” sygnalizowałem oczywiste zagrożenia, np. wprost związane z tym, że za sprawą algorytmów ML oraz dostarczanych przez nas samych informacji o sobie wielkie koncerny usług internetowych – a zatem i rządy państw – wiedzą dziś o nas prawie wszystko. Stanowimy dziś „społeczeństwo sieci”. Internet połączył ze sobą miliardy komputerów, których właścicielami są osoby prywatne i różne organizacje, które służą przedsiębiorstwom, bankom, koncernom, rządom, armiom, społecznościom internetowym itd. To ta sieć jest dziś najważniejszym kanałem informacyjnym.
Wraz z rozwojem wielkich modeli językowych z łatwością można generować wiadomości fałszywe lub wypowiedzi i teksty rzekomo tworzone przez konkretne osoby, np. ze świata polityki. Rozwój technik symulacji komputerowej pozwala na wygłoszenie takiego tekstu przez awatar do złudzenia przypominający owego polityka. Nie trzeba się rozwodzić nad tym, jakie to niesie niebezpieczeństwa w świecie polityki i za sprawą informacji o nas dla nas samych. Jakie to daje możliwości manipulowania nami jako wyborcami. Tytułem przykładu: nie przypadkiem wśród najbliższych doradców Donalda Trumpa jako kandydata na urząd prezydenta w roku 2016 znalazły się – o co nie mam zresztą do niego pretensji – najważniejsze osobistości z Doliny Krzemowej i rynków finansowych i nie przypadkiem znakomita firma software’owa jednej z nich profilowała obywateli USA z myślą o wspomożeniu kampanii przyszłego prezydenta. I jeszcze jeden przykład, tym razem dotyczący wszystkich obywateli jednego państwa: oto rząd Chin zainicjował w roku 2014 powstanie komputerowego, inteligentnego systemu oceny obywateli Państwa Środka, o nazwie China Social Credit, z myślą o uzależnieniu np. wydania pozwolenia na budowę domu czy licencji na prowadzenie rikszy od oceny wygenerowanej przez system.
Zasygnalizowałem w owym artykule zagrożenia związane z robotyzacją – nadchodzącym otoczeniem nas przez inteligentne roboty humanoidalne – oraz z tym, że możemy stać się elementem, można rzec, rzeczą, w tzw. internecie rzeczy.
Dużo miejsca poświęciłem tutaj nowym sposobom uzdalniania żołnierza do walki, wspomniałem o wymuszaniu zmiany jego stanu psychicznego, likwidacji uczucia zmęczenia itd. Jest to oczywista ingerencja w osobowość żołnierza, zagrożenie jego godności i osobowej integralności. Przyszły żołnierz musi zostać poinformowany, co go czeka, gdy mu przyjdzie walczyć, i musi wyrazić na to zgodę. A co powiedzieć o tym, że już na przełomie wieków agencja DARPA zainicjowała projekt skonstruowania interfejsów wewnątrzczaszkowych, które pozwolą ludzkiemu operatorowi sterować na odległość np. robotem albo dźwigiem? Nie można wykluczyć, że doprowadzi to do rozmycia granicy oddzielającej człowieka od mechanicznego sprzętu – z czasem zaangażowany w to sterowanie fragment kory mózgowej mógłby uznać maszynę za kolejną przez nią poruszaną kończynę. Nie ma wątpliwości, że tego typu programy i w rezultacie zastosowania systemów AI muszą podlegać kontroli i zatwierdzeniu przez specjalnie do tego przygotowane agendy rządowe (nie muszę dodawać, że wszystkie programy agencji DARPA realizowane są w ramach obowiązującego prawa i pod kontrolą rządu USA).
.Wspomniałem o porażce koncernu IBM, któremu nie udało się zbudować systemu AI rekomendującego terapię osób dotkniętych chorobami onkologicznymi. Mamy tu do czynienia z niebezpieczeństwem wynikającym z działania systemu AI niezgodnie z intencjami jego projektantów. To projektanci ustalają, na podstawie jakich danych ma system podejmować decyzje. I warto jeszcze w tym miejscu dodać, że nawet, zdawałoby się, dobrze przemyślany dobór danych może prowadzić system do podejmowania niepożądanych decyzji. Na przykład w roku 2019 wykryto, że szeroko stosowany w USA system AI, oceniający ryzyko zachorowania osób na różne mniej albo bardziej skomplikowane choroby, w pewnym sensie dyskryminuje społeczność czarnoskórą (w USA prowadzi się takie badania np. po to, by wiedzieć, które osoby włączyć do specjalnych programów leczenia zapobiegawczego lub leczenia na wczesnym etapie choroby). Jedną ze zbieranych informacji była wysokość wydatków ponoszonych na leczenie. Analizujący dane algorytm „zorientował się”, że czarnoskórzy Amerykanie „kosztują” mniej i stąd wywnioskował, iż jest to populacja zdrowsza od populacji białych Amerykanów. Czarni Amerykanie prawie w ogóle nie byli kierowani do udziału w programach specjalnych. Opierając swoją analizę na kosztach leczenia, algorytm nie mógł uwzględnić tego, że czarnoskórzy obywatele unikają wczesnego leczenia i że leczenie podjęte zbyt późno, gdy rokowania są już marne, jest tańsze.
Znacznie poważniejsze niebezpieczeństwo działania systemu AI niezgodnie z intencjami projektantów powstaje wtedy, gdy sam algorytm lub rozwiązywany problem jest tak złożony – a spotykamy się z tą sytuacją coraz częściej – że projektanci nie potrafią powiedzieć, dlaczego algorytm przyjął takie, a nie inne rozwiązanie zadania (czyli podjął taką, a nie inną decyzję). Nie bez przyczyny w biurach badawczych, agencjach finansujących badania oraz sztabach wojskowych toczą się gorące debaty nad tym, jak duży stopień autonomii przyznać sterowanym przez systemy AI śmiercionośnym autonomicznym środkom bojowym (amunicji krążącej, inteligentnym pociskom innego typu, rakietom, minom itd.). Zawsze wszak istnieje niebezpieczeństwo wybrania przez te środki niewłaściwych celów. Z drugiej strony, o czym już wspomniałem, im mniej jest podczas ataku interwencji człowieka w decyzje systemów AI, tym atak jest szybszy i skuteczniejszy.
Dotąd opisywałem istniejące systemy AI albo rozpoczęte już prace badawcze w tym zakresie. Widoczne tempo rozwoju tych systemów sprawia, że nie sposób przewidzieć, jak ten rozwój przebiegnie dalej, nawet w niedalekiej przyszłości. Pewne jest, że będzie to rozwój w weberowskim odczarowanym świecie, w którym wszystko można „opanować przez kalkulację”. Sukcesy AI zapierają dech w piersiach, ale bez względu na to, o jaki system AI chodzi, nie dlatego potrafi on wykonać konkretne zadanie szybciej i lepiej niż człowiek, że rozumie polecenie i że myśli, ale dlatego, że jego działanie zostało wcześniej zaprogramowane, że system ma wystarczająco dużo wczytanej do niego wcześniej wiedzy, ma ogromną pamięć, zdolną pomieścić „nieskończenie” więcej informacji niż człowiek, oraz dlatego, że szybciej liczy. W tym miejscu wypada zauważyć, że samouczące się systemy AI – takie jak AlphaZero – nie wymagają wczytania do nich żadnej wiedzy „historycznej”. Wymagają jedynie wczytania reguł ich działania oraz takiego ich zaprogramowania, by zmierzały do osiągnięcia dobrze określonego celu, w przypadku AlphaZero – wygrywania gry o znanych regułach. Wszakże nie zmienia to trafności właśnie poczynionej obserwacji o „bezmyślności” systemów SI. Program AlphaZero rozegrał w fazie uczenia miliony gier w szachy i okazał się najlepszym graczem na świecie. Ponieważ jest szybszy od człowieka, rozegrał tych gier więcej, niż może ich rozegrać człowiek, i ponieważ ma większą od człowieka pamięć, lepiej niż człowiek to swoje „doświadczenie” mógł wykorzystać (gdyby wziąć człowieka, który potrzebuje 30 minut na rozegranie jednej partii szachów albo przeanalizowanie jednej partii rozegranej przez kogoś innego i który robi to 10 godzin dziennie przez 350 dni w roku, to człowiek ten potrzebowałby prawie 143 lat na rozegranie lub przeanalizowanie jednego miliona partii).
W dającej się przewidzieć przyszłości najpewniej nie będzie systemów przypominających inteligencję ogólną, a więc zdolnych do działania na różnych polach, wcześniej niewpisanych w software urządzenia – innymi słowy, nie będzie systemów AI zdolnych do wykonywania zadań zupełnie nowych, które nie zostały wcześniej wpisane w program systemu, sterujący jego działaniem (takie systemy określa się jako systemy ogólnej albo silnej AI, ang. AGI). Ale zapewne pojawią się systemy zdolne same doskonalić programy w nie wpisane. I to będzie ten moment, w którym dziś znana dyscyplina ML ulegnie rozszerzeniu za sprawą samych maszyn.
.Niezależnie od tego, jak będzie wyglądać przyszłość AI i jakie będą konsekwencje powstania w dalszej perspektywie jakiejś superinteligencji maszynowej, już dziś widać, że powszechna informatyzacja administracji, bankowości, przemysłu i usług, wreszcie komunikacji międzyludzkiej, ich powszechne usieciowienie – niosą ze sobą ogromne ryzyka. Po pierwsze, są to ryzyka wynikające z możliwych i zdarzających się coraz częściej ataków na istniejące systemy informatyczne – by tak rzec, pełne podsystemów AI – ze strony aktorów, których można nazwać zbójeckimi, takich jak terroryści, państwa dokonujące ataków cybernetycznych na infrastruktury innych państw, w końcu nawet niezwiązani z wymienionymi podmiotami, działający dla własnej satysfakcji hakerzy. I po drugie, ryzyka wynikające z możliwego zadziałania systemów AI niezgodnie z życzeniem ich projektantów oraz zleceniodawców.
Przeciwdziałanie pojawieniu się takim zagrożeniom albo ich skutkom wymaga istnienia i stałego doskonalenia wyspecjalizowanych agend państwowych oraz międzynarodowych. Wiele i słusznie się o tym pisze, trwają rozsądne debaty na ten temat, rządzący – np. w Wielkiej Brytanii – starają się odpowiedzieć na te wyzwania, powołując do życia odpowiednie agendy i łożąc na ich działanie coraz więcej pieniędzy. Nie będę tutaj tego wątku rozwijać; zasygnalizuję tylko, że często wymaga to wprowadzenia zabezpieczeń polegających na możliwości odcięcia danego podmiotu od sieci i przekazania zarządzania nim człowiekowi.
Wspomnę jeszcze tytułem przykładu, że władze USA przyrzekły w 2021 roku, że broń nuklearna nie znajdzie się pod kontrolą systemów AI. Dodam, że różne think tanki, także wybitni twórcy algorytmów AI, apelują o zapewnienie możliwości ingerencji człowieka w decyzje podejmowane przez tzw. autonomiczne systemy bojowe, zwane również śmiercionośną bronią autonomiczną (nazewnictwo i klasyfikacja tych systemów nie są ustalone, chodzi m.in. amunicję krążącą oraz roboty zabijające; ang. autonomous weapons systems, lethal autonomous weapons). Większe niebezpieczeństwo tkwi jednak gdzie indziej – w możnych tego świata, którzy chcą AI wykorzystać do zawładnięcia światem.
.Na koniec tych uwag sprawa moim zdaniem najważniejsza, o której piszę może zbyt często – ostatnio i bardzo krótko w numerze 59 „Wszystko co Najważniejsze”, przy okazji publikacji w Polsce rozmowy premiera Rishiego Sunaka z Elonem Muskiem [LINK]. Naszym największym kłopotem nie jest ML czy AI – jesteśmy nim my sami. Jest nim to, że głównym nurtem (anty)kultury Zachodu jest poddanie się techne, porzucenie mądrości, logosu. Kto, na litość boską, każe nam historii filozofii uczyć się od jakiegoś chatbota zamiast od Władysława Tatarkiewicza, poprzez czytanie jego Historii filozofii? Korzystajmy z owych chatbotów, algorytmów ML, ale nie dopatrujmy się w nich swoich nauczycieli. Niech ML i AI pomagają nam znaleźć informację, niech pomagają nam na setki innych sposobów – niech pomagają, a nie rządzą nami. Nie dajmy sobie wmówić, jak sądzi wielu, że postępy techne każą nam na nowo szukać sensu życia. Albo szukać nowej odpowiedzi na pytanie „kim jesteśmy?”, jak pisał niedawno temu zmarły wybitny Henry Kissinger (w skądinąd ciekawej książce, choć aż zabawnie wrogiej naszej chrześcijańskiej historii, pt. The Age of AI: And Our Human Future, czyli „Wiek SI. Oraz nasza ludzka przyszłość”, autorstwa Kissingera, Erica Schmidta oraz Daniela Huttenlochera). To droga do uczynienia z człowieka rzeczy, jak na przykład chcą tego zwolennicy przyszłych metod zapłodnienia in vitro, np. z wcześniejszą – przed transferem do macicy matki – modyfikacją genomu zarodka. Rzecz jest przydatna albo nie. Przyszłe dziecko ma w takim świecie odpowiadać preferencjom rodziców. Starca można już teraz w niektórych krajach pozbyć się z racji jego nieprzydatności. W nowym, wspaniałym świecie sztuczna inteligencja będzie mogła ocenić, czy np. siedmiolatek okaże się przydatny w przyszłości, gdy osiągnie pełnoletność…
Tekst ukazał się w nr 60 miesięcznika opinii „Wszystko co Najważniejsze” [PRENUMERATA: Sklep Idei LINK >>>]. Miesięcznik dostępny także w ebooku „Wszystko co Najważniejsze” [e-booki Wszystko co Najważniejsze w Legimi.pl LINK >>>].