Wprowadźmy czwarte prawo robotyki - prof. Dariusz Jemielniak

Sztuczna inteligencja coraz lepiej udaje człowieka, co stwarza możliwości różnorodnych nadużyć – uważa prof. dr hab. Dariusz Jemielniak z Akademii Leona Koźmińskiego, wiceprezes PAN. Jego zdaniem dotychczas znane trzy prawa robotyki powinny być rozszerzone o obowiązek narzędzi AI do identyfikowania się.
Prawa robotyki wchodzą do świata realnego
Według profesora rozpoczyna się czas, kiedy prawa robotyki z domeny fantastyki naukowej będą musiały przejść do świata realnego. Trzy słynne prawa robotyki zwane również prawami Asimova, są następujące: jeden – robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia; dwa – robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem; trzy – robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z pierwszym lub drugim prawem.
„Chyba właśnie nadchodzi ten moment. O ile kiedyś była to całkowita fikcja, o tyle teraz prawa robotyki zaczynają dotyczyć naszego codziennego życia. Może np. autonomiczny samochód nie będzie musiał decydować, czy przejechać zakonnicę, grupkę dzieci, czy dwóch wstawionych naukowców, ale może już być w sytuacji wymagającej decyzji, czy hamować i chronić kierowcę, czy gwałtownie skręcić, narażając go, ale np. chronić pieszych. Pierwsze prawo robotyki mówi, że robot ma nie krzywdzić ludzi” – mówił naukowiec z PAN.
Jednak prawa te nie muszą dotyczyć fizycznych maszyn, choć oryginalnie właśnie tak było. Miało to dużo sensu, ponieważ zostały sformułowane ponad pół wieku temu, jako część świata science-fiction. – Jednak w realnym świecie dzisiaj nie one nam sprawiają kłopoty. Roomba nas w domu nie zaatakuje. Problemy może jednak stwarzać sztuczna inteligencja i różnego rodzaju tzw. boty. Stąd mój pomysł i postulat wprowadzenia IV prawa robotyki, podchwycony już przez ważne czasopismo branżowe 'IEEE Spectrum’. Prawo to nakazuje prostą rzecz – aby wszelkiego rodzaju sztuczna inteligencja ujawniała się, że nią jest, i nie udawała człowieka. Obecnie mamy już sytuację, w której często nie udaje się prosto dokonać rozróżnienia. Jeśli pozwolimy im na swobodne działanie bez identyfikowania się, będziemy mieli coraz większy problem” – wyjaśnia ekspert.
Prof. Dariusz Jemielniak wylicza różne rodzaje nadużyć udającej człowieka sztucznej inteligencji. Przede wszystkim jest to tzw. oszustwo „na wnuczka”, które może ewoluować w stronę, że oszuści posłużą sie programem udającym prawdziwego wnuczka danej starszej osoby – mającym jego twarz i głos i próbującym wyłudzać pieniądze. Podobnym rodzajem nadużyć może być również nachalny marketing telefoniczny: dzięki sztucznej inteligencji firmy mogą dzwonić do ludzi minimalnym kosztem, a odbiorców kosztuje to cenny czas.
Niektórzy argumentują, że osoby chcące łamać prawo i tak nie zastosują się do przepisów, ale według prof. Jemielniaka to nie jest prawidłowy sposób rozumowania.
„Podam taki przykład – to, że przestępcy drukują fałszywe pieniądze, nie oznacza, że zakaz takiego czynu, w tym posiadania odpowiednich do tego materiałów, jest bezwartościowy. Odpowiednie prawo podnosi próg ryzyka dla oszustów. Muszą kalkulować, czy im się taki czyn opłaci. Inny przykład – zakaz posiadania broni może nie sprawi, że całkowicie zniknęły napaści z jej użyciem, jednak zdarzają się dużo rzadziej. Nie tylko trudniej jest o samą broń, ale rosną też konsekwencje prawne dla tego, kto ją nawet nielegalnie posiada” – podkreślił prof. Jemielniak.
Zdaniem profesora pierwsze prawo robotyki nie wystarczy. „Zabronienie AI krzywdzenia ludzi nie jest wystarczające. Jeśli głębiej tę kwestię przeanalizujemy, okaże się, że ludzie często nie potrafią stwierdzić, czy kogoś będą czymś krzywdzić, czy też nie. Często mamy do czynienia np. z dezinformacją opartą na założeniu, że ktoś chce zrobić dobrą rzecz – choćby sprzedać odkurzacz, oparty na agentach SI system psychoterapii, albo usługi typu virtual girlfriend, które rzekomo zaspokoją czyjeś potrzeby emocjonalne. Łatwo zauważyć, że rozwój sztucznej inteligencji i jego faktyczne skutki to często dwie różne sprawy i nigdy nie wiemy do końca, czy coś do prowadzi do negatywnych konsekwencji. Nie zawsze wyrządzona szkoda musi mieć charakter fizyczny” – wyjaśnił specjalista.
Jak postawić granice AI
.Czasami jednak AI mogłaby, a nawet musiałaby udawać ludzką istotę – np. szukając przestępców w internecie.
„Tak musiałoby się zdarzać, aby chronić ludzkie życie i w ogóle człowieka przed krzywdą, czasami należałoby wykorzystać techniki maskujące. Podobnie prawo mówiące o ochronie przez robota samego siebie nie jest uniwersalnym prawem – bo właśnie musi, po pierwsze, dbać o człowieka. Istnieje też prawo zerowe mówiące, że roboty muszą dbać o dobro ludzkości – nie mogą np. doprowadzić do jej zagłady. Z tego wynika, że czasami robot mógłby nawet skrzywdzić człowieka, dla dobra całej populacji” – mówił prof. Jemielniak.
Jednak zdaniem profesora można to w prosty sposób zorganizować. „Przez cały czas będzie zachowywana hierarchia praw. Drugie prawo podlega pierwszemu, trzecie – drugiemu. Proponowane prawo czwarte miałoby podlegać pierwszemu. Stałoby się de facto prawem drugim, drugie trzecim, a trzecie – czwartym” – tłumaczył ekspert, jednocześnie zaznaczając, że mogą się oczywiście okazać potrzebne dodatkowe regulacje.
„Prawa robotyki w ogóle są raczej pewnym kierunkiem myślenia, niż ścisłym, precyzyjnym nakazem. Łatwo znaleźć sytuacje, w których samo ich ogólne brzmienie nie wystarczy. Nakaz identyfikowania się AI w interakcjach z ludźmi jest prostym, operacyjnym rozwiązaniem problemu tego, żeby nie trzeba było zastanawiać się, jakie skutki dany kontakt przynosi i aby ciężar rozważań nie był po stronie tego, w czyim interesie będzie usilne udowadnianie, że przecież ten kontakt to tak naprawdę był dla dobra nagabywanego człowieka. Czwarte prawo robotyki całkiem dobrze radzi sobie samodzielnie – nie jest silnie związane z pozostałymi, choć oczywiście łatwo możemy wyobrazić sobie ich wzajemne powiązanie” – podsumował prof. Jemielniak.
Prof. dr hab. Dariusz Jemielniak jest kierownikiem Katedry Management in Networked and Digital Societies (MINDS) w Akademii Leona Koźmińskiego. Od 2023 roku jest wiceprezesem Polskiej Akademii Nauk. Oprócz głównych zainteresowań dotyczących strategii organizacji z branży technologicznej (internetowej) i w badaniu społeczności otwartej współpracy, zajmował się także przemianami organizacyjnymi zachodzącymi na uczelniach i reformą szkolnictwa wyższego w Polsce.
Arystoteles a sztuczna inteligencja
.Rozważania na temat granic, jakie należy stawiać rozwojowi sztucznej inteligencji, podejmują regularnie publicyści i myśliciele publikujący na łamach „Wszystko co Najważniejsze”. Jednym z nich jest Kiriakos Mitsotakis – grecki publicysta, i były premier Grecji. Jego zdaniem w określaniu natury problemów generowanych przez AI pomogą narzędzia dostarczone tysiące lat temu przez greckich myślicieli.
Dyskurs na temat relacji pomiędzy ludźmi a technologią jest stary. Jednak pytanie, na które musimy teraz odpowiedzieć, obecnie jest nawet bardziej aktualne niż wcześniej. Brzmi ono następująco: Czy w rewolucji sztucznej inteligencji jest coś zasadniczo innego w porównaniu z poprzednimi rewolucjami technologicznymi? Uważam, że rewolucja technologiczna, której obecnie doświadczamy, jest czymś zupełnie innym, ponieważ po raz pierwszy mamy narzędzia, które mogą symulować rzeczywiste przejawy ludzkiej inteligencji – pisze Mitsotakis.
PAP/Marek Matacz/WszystkocoNajważniejsze/ad