Prof. Piotr CZAUDERNA: Boty śmierci

Boty śmierci

Photo of Prof. Piotr CZAUDERNA

Prof. Piotr CZAUDERNA

Lekarz, chirurg dziecięcy, profesor nauk medycznych, w 2019 prezes Agencji Badań Medycznych. W 2015 r. powołany w skład Narodowej Rady Rozwoju przy Prezydencie RP.

ryc. Fabien CLAIREFOND

zobacz inne teksty Autora

Istnieją już boty AI, które rozmawiają z pacjentami na przykład na temat ich problemów ze zdrowiem psychicznym. Wiele osób używa AI, aby uzyskać informacje o swoim stanie zdrowia i otrzymać odpowiedź, czy powinny zasięgnąć opinii lekarzy i pielęgniarek. Rodzi to wiele nowych problemów, zarówno natury etycznej, jak i regulacyjnej – pisze prof. Piotr CZAUDERNA

„Medycyna wyznaje, iż zawsze miała doświadczenie za kamień probierczy swej sztuki. Platon słusznie powiadał, iż kto by chciał być prawdziwym lekarzem, winien by sam przejść wszystkie choroby, które chce leczyć, i wszystkie wypadki i okoliczności, o jakich chce sądzić. […] Zaprawdę, takiemu bym się zawierzył” – Michel de Montaigne, Próby

.Postępując zgodnie z powyższymi słowami Montaigne’a, gdy udajemy się do lekarza, na ogół staramy się zebrać o nim opinie i dowiedzieć się czegoś o jego doświadczeniu. Tymczasem w dziedzinie zastosowań sztucznej inteligencji w medycynie (artificial intelligence – AI) często zupełnie nieświadomie stajemy przed ogromnym i nie do końca rozpoznanym wyzwaniem. I choć początkowo Amerykańska Agencja Żywności i Leków odpowiadająca za rejestrację leków i produktów leczniczych (FDA) zatwierdziła stosowanie aplikacji informatycznych bazujących na AI zaledwie w kilku przypadkach, to obecnie lista takich zaaprobowanych produktów i technologii sięga już prawie 1000 pozycji.

Dobitnie dowodzi to, że zastosowania AI w medycynie są coraz powszechniejsze. Sztuczna inteligencja i uczenie maszynowe są już dziś stosowane w analizie obrazów (w radiologii i patomorfologii, ale także w dermatologii) czy też analizie wielkich zbiorów danych, tzw. big data. Ma to znaczenie w interpretacji danych molekularnych, a szczególnie w poszukiwaniu ich korelacji z danymi klinicznymi pacjentów, np. w przypadku chorób nowotworowych.

Po pierwsze, platforma Watson for Oncology (WFO) koncernu IBM, oparta na sztucznej inteligencji, daje możliwości opracowywania prognoz dla pacjentów onkologicznych i dopasowywania dla nich optymalnego leczenia w oparciu o bazy opublikowanych doniesień naukowych i dostępnych badań klinicznych. WFO dostarcza dowodów na poparcie swoich zaleceń, a dowody te są przedstawiane zgodnie z wiarygodnością opartą na literaturze naukowej. Kiedy lekarz wybiera konkretny sposób leczenia, WFO dostarcza również informacji na temat szansy przeżycia czy częstości występowania działań niepożądanych oraz ich rodzaju.

Po drugie, WFO może znacznie skrócić czas, jaki młodsi lekarze muszą poświęcić na analizę odpowiedniej literatury, poprawiając w ten sposób ich zdolność do stawiania trafnych diagnoz i zaleceń dotyczących leczenia w krótkim czasie. Po trzecie, WFO może wyeliminować czas marnowany na wizyty w różnych ośrodkach medycznych i pomóc pacjentom uzyskać najlepsze leczenie tak szybko, jak to możliwe. Po czwarte wreszcie, WFO może pomóc rozwiązać problemy wynikające z braku zaufania między lekarzem a pacjentem. Co więcej, oprogramowanie to posiada również zdolności samouczenia się.

Sztuczna inteligencja wkracza też w obszar ludzkiej komunikacji. Posługuje się w tym celu tzw. botami. Czym są boty? Bot (od „robot”) jest oprogramowaniem mającym zdolność wykonywania pewnych zadań w zastępstwie człowieka, na ogół w sposób zautomatyzowany, co oznacza, że działa zgodnie ze swoimi instrukcjami bez konieczności ręcznego uruchamiania za każdym razem przez użytkownika. Boty często imitują lub zastępują zachowanie człowieka, działając w sposób powtarzalny. Szacuje się, że ponad połowa ruchu internetowego pochodzi od botów skanujących treści, wchodzących w interakcje ze stronami internetowymi lub użytkownikami internetu, dlatego hakerzy często wykorzystują je do ataków na serwery czy do włamywania się na konta użytkowników albo do rozsyłania spamu.

.Boty możemy napotkać na platformach mediów społecznościowych, ale także gdy łączymy się z infoliniami bankowymi czy operatorami telefonii komórkowej, a nawet z czatami sieci zakupowych. Boty wypierają też tradycyjne dziennikarstwo, a nawet powieściopisarstwo. Do tworzenia relacji sportowych w sposób zautomatyzowany zastosowano je po raz pierwszy w czasie olimpiady w Rio de Janeiro. Korzystało z nich wówczas 30 agencji i mediów sportowych. Szacuje się, że 80 proc. postów tych agencji na Twitterze stanowiły treści napisane przez boty. W czasie  zimowej olimpiady w roku 2018 było to już 100 proc. Jak pisze polski medioznawca, prof. Jan Kreft: „W cyfrowym środowisku współczesnych mediów algorytmy mogą tworzyć tekstowe i wizualne treści dziennikarskie oraz wiele wersji tego samego artykułu z uwzględnieniem potrzeb poszczególnych odbiorców/użytkowników. Algorytmizacja pracy dziennikarskiej jest coraz chętniej wykorzystywana w zarządzaniu organizacjami mediów, a analizy danych o czytelnikach, widzach i słuchaczach decydują o podejmowanych tematach, zastępując tradycyjnego dziennikarskiego nosa i ułatwiają reklamodawcom dostęp do odbiorców. Obecność dziennikarza w procesie powstawania i dystrybucji treści medialnej nie jest już niezbędna”. Co więcej, stopień zaawansowania generowanych przez boty treści czyni je nieodróżnialnymi od wytworów człowieka. Szczególną uwagę należy zwrócić na tzw. chatboty, czyli programy komputerowe umożliwiające prowadzenie konwersacji z użytkownikiem i symulowanie oraz przetwarzanie ludzkiej mowy.

Istnieją już boty AI, które rozmawiają z pacjentami na przykład na temat ich problemów ze zdrowiem psychicznym. Wiele osób używa AI, aby uzyskać informacje o swoim stanie zdrowia i otrzymać odpowiedź, czy powinny zasięgnąć opinii lekarzy i pielęgniarek. Rodzi to wiele nowych problemów, zarówno natury etycznej, jak i regulacyjnej. Taką nieuregulowaną przestrzenią jest obszar styku sztucznej inteligencji i ludzkiego smutku i żałoby. Stosowane przy tym boty zyskały nazwę „botów śmierci”, choć może lepszy byłby termin „boty żałoby”. Art Caplan, etyk z NYU Grossman School of Medicine, należącej do Uniwersytetu w Nowym Jorku, przytoczył niedawno w swoim wywiadzie internetowym dla portalu Medscape historię pacjenta, który był w końcowym stadium raka jelita grubego. Rozmawiał on ze swoją żoną, świadom zbliżającej się śmierci, o tym, jak będzie wyglądało jej życie po jego odejściu. Odpowiedziała, że będzie jej bardzo brakowało możliwości zadawania mu pytań na różne tematy, w których był ekspertem. Mężczyzna zastanowił się nad tym i zdecydował, że żona może nagrać jego głos, a następnie użyć AI do wyszukiwania i odczytywania informacji, aby uzyskać odpowiedzi na pytania, które mogłaby mu zadać, gdy już go nie będzie.

Okazuje się, że zarówno w USA, jak i w Europie powstały już firmy, które oferują tego rodzaju usługę. Idea jest szczytna: nagranie głosu umierającej osoby ma pomóc ludziom w żałobie, pozwalając im na interakcję ze zmarłym dzięki mechanizmom sztucznej inteligencji. AI będzie w stanie przeszukać nie tylko nagrane informacje, ale wszystko, co można znaleźć w internecie: pamiętniki, teksty, które zmarli mogli napisać za swego życia, filmiki i informacje z wcześniejszych okresów ich egzystencji – wszystko po to, aby generować odpowiedzi na pytania, które mogą zostać zadane „sztucznej wersji osoby zmarłej”.

Oczywiście pozwoliłoby to nie tylko małżonkom, ale również wnukom, a nawet przyszłym pokoleniom na interakcję ze zmarłym przodkiem. Może to pozwolić ludziom poczuć się bardziej komfortowo i ukoić tęsknotę za ukochaną osobą poprzez usłyszenie jej głosu, i to nie tylko poprzez odsłuchanie nagrania, ale i w kreatywnej interakcji z danym zmarłym, a raczej rodzajem jego awatara. Jak zwraca uwagę dr Regina Fabry z Uniwersytetu Macquarie w Australii, z optymistycznej perspektywy boty śmierci można rozumieć jako zasoby technologiczne, które mogą kształtować i regulować emocjonalne doświadczenie żałoby, a interakcje z botem mogą pozwolić ludziom pogrążonym w żałobie na kontynuowanie pewnych rytuałów intymności, takich jak rozmowy, kontrola własnych emocji i spędzanie czasu razem. Z drugiej jednak strony interakcje człowiek-bot mogą doprowadzić do zastąpienia utraconej nieodwracalnie relacji międzyludzkiej relacją cyfrową za pośrednictwem AI, co może prowadzić do samooszukiwania się, a nawet powstania urojeń.

.Cały ten pomysł rodzi wiele wątpliwości natury etycznej, związanych z tworzeniem sztucznej wersji samego siebie. Jednym z oczywistych problemów jest to, jak dokładna będzie wersja danej osoby stworzona z wykorzystaniem AI. Bot może tworzyć wypowiedzi brzmiące jak wypowiedzi konkretnego człowieka, ale w rzeczywistości nie są one przecież tym samym, co ten ktoś by powiedział, bo tego z całą pewnością nie wiemy, i to pomimo wysiłków, aby uprawdopodobnić te wypowiedzi na podstawie wcześniejszych informacji na temat danej osoby. Czy jest zatem stosowne, aby ludzie próbowali wchodzić w sztuczną interakcję z kimś, kto nie żyje? Istnieją przecież inne, znane od dawna, sposoby na pozostawienie wspomnień: można nagrywać wiadomości, można pisać pamiętniki lub pozostawić pisemne dyspozycje i przesłania. Do tego dochodzi jeszcze jeden problem, tzw. halucynacje chatbotów, czyli generowanie przez nie treści, które nie odpowiadają rzeczywistości i wprowadzają użytkowników w błąd, a więc są nowym rodzajem dezinformacji. Naukowcy z Wydziału Medycznego Uniwersytetu Florydy przetestowali niedawno ChatGPT pod kątem typowych problemów medycznych w zakresie urologii. Okazało się, że chatbot udzielał właściwych odpowiedzi tylko w 60 proc. przypadków. Często błędnie interpretował wytyczne kliniczne, pomijał ważne informacje kontekstowe i formułował niewłaściwe zalecenia dotyczące leczenia. Tylko ta jedna sytuacja pokazuje, do jak poważnych konsekwencji prowadzić może bezkrytyczne zaufanie do AI i jak ważne jest zapewnienie dokładności i niezawodności medycznych systemów sztucznej inteligencji. Ma temu zaradzić tzw. wyjaśnialna sztuczna inteligencja (XAI), która ma na celu poprawę przejrzystości procesów decyzyjnych w zakresie AI. Czy jednak nie przypomina to leczenia dżumy cholerą?

W przypadku botów śmierci pojawiają się jeszcze inne istotne pytania, jak np. to, kto tak naprawdę ma kontrolować sztuczną pośmiertną wersję naszego „ja”. I kto ma decydować o tym, co można dodawać, a co modyfikować po naszej śmierci? Czy informacje te mogą i powinny być udostępniane osobom trzecim, które nie zapisały się do takowej usługi?

Wielu z nas może po prostu stwierdzić, że nie jest to właściwy i godny sposób przeżywania żałoby, gdyż prowadzi on do unikania tradycyjnego podejścia, polegającego na zaakceptowaniu faktu skończoności ludzkiego życia, na rzecz umożliwienia innym interakcji ze skonstruowaną sztucznie, pośmiertną wersją własnego „ja”. W rezultacie zamiast uznania śmierci za nieodłączny składnik naszego życia otrzymujemy raczej pewną formę zaprzeczenia jej czy też próbę zapewnienia sobie jakiejś ułomnej formy nieśmiertelności. Na dodatek nie jest wcale pewne, czy przyniesie to korzyści dla zdrowia psychicznego osób żyjących, które nie umieją się pogodzić z faktem, że ktoś z ich bliskich odszedł na zawsze.

Pokazuje to, jakie problemy rodzi sztuczna inteligencja i obejmowanie nią wrażliwych sfer ludzkiej egzystencji. Trudno mieć pretensje do ludzi, że chcą zostawić po sobie spuściznę. Niewątpliwie nowoczesne technologie mogą być w tej kwestii przydatne. Jak mówi Art Caplan, trzeba mieć oczy szeroko otwarte – zanim takie produkty pojawią się na rynku usług, trzeba stworzyć odpowiednie zabezpieczenia i regulacje. Musimy na przykład ustalić, kto kontroluje informacje, kto je edytuje i kto może definitywnie usunąć z portalu AI profil osoby zmarłej, szczególnie w sytuacji, gdy krewni nie chcą, by sztuczna inteligencja imitująca ich bliskiego zmarłego nadal działała. A co, jeśli w rodzinie pojawi się różnica zdań na ten temat? Trzeba też zbudować społeczne zrozumienie, że nie mamy do czynienia z dokładną wersją tego, co osoba zmarła mogłaby odpowiedzieć na zadane jej pytania ani jak wyglądałaby rozmowa z nią, gdyby nadal żyła.

.Opisane powyżej zjawiska obrazują, jak w niekontrolowany sposób zaczyna się zmieniać świat, który znamy i w którym przyszło nam żyć. Zmiany te dotyczą także sposobów przeżywania ludzkiej żałoby. Czy świat, w którym osoby terminalnie chore będą chciały pozostawić po sobie spuściznę, która jest czymś więcej niż tylko pamiętnikiem lub nagranym filmem wideo, będzie bliższy idei godnego ludzkiego życia? I czy powstanie sztucznej, interaktywnej wersji zmarłego człowieka rzeczywiście zapewni niektórym osobom właściwe pocieszenie po śmierci ich bliskich?

Piotr Czauderna

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 19 września 2024