Prof. Piotr CZAUDERNA: Medycyna przyszłości, automatyzacja, sztuczna inteligencja... I co dalej?

Medycyna przyszłości, automatyzacja, sztuczna inteligencja... I co dalej?

Photo of Prof. Piotr CZAUDERNA

Prof. Piotr CZAUDERNA

Lekarz, chirurg dziecięcy, profesor nauk medycznych, w 2019 prezes Agencji Badań Medycznych. W 2015 r. powołany w skład Narodowej Rady Rozwoju przy Prezydencie RP.

ryc. Fabien CLAIREFOND

zobacz inne teksty Autora

„Obecnie największą chorobą na Zachodzie nie jest gruźlica ani trąd; jest nią bycie niechcianym, niekochanym i zaniedbanym. Możemy leczyć choroby fizyczne różnymi lekami, ale jedynym lekarstwem na samotność, rozpacz i beznadziejność jest miłość. Na świecie jest wielu, którzy umierają za kawałek chleba, ale o wiele więcej jest tych, którzy umierają z powodu braku odrobiny miłości. Ubóstwo na Zachodzie jest innym rodzajem biedy – to nie tylko ubóstwo polegające na samotności, ale także na braku duchowości. Powszechny jest głód miłości, podobnie jak i głód Boga”.
Św. Matka Teresa z Kalkuty

.Współczesny świat ma do medycyny ogromne zaufanie (szczególnie w dobie pandemii COVID-19), podobnie zresztą jak i do całej sfery nauki, i wydaje się rościć w stosunku do niej nierealistyczne oczekiwania i nadzieje. Dlatego warto zadać sobie pytanie, w jakim kierunku zmierza medycyna.

W jednym z ostatnich artykułów we „Wszystko co Najważniejsze” wybitny arcymistrz szachowy Garri Kasparow opisał tzw. outsourcing umysłowy, polegający na przykład na wykorzystywaniu swego smartfona w celu zapamiętywania numerów telefonicznych, planowania swego kalendarza czy organizacji spotkań, co pewnie codziennie czyni każdy z nas [LINK].

Czy rzeczywiście, gdy znajdujemy się online, w zasięgu sieci, jesteśmy prawdziwymi geniuszami, a po odłączeniu od niej stajemy się umysłowymi kalekami? A przede wszystkim czy wynikająca z tego dostępność informacji i biegłość w ich zdobywaniu przekłada się na lepsze rozumienie świata i na większą mądrość?  To bardzo ważne pytania. 

Zacznijmy zatem od definicji mądrości. Dla Platona mądrość była tożsama z pełnią wiedzy, gdyż wierzył on, że osoba posiadająca kompletną wiedzę automatycznie będzie podejmowała zawsze właściwe decyzje. Jednak już Arystoteles, jego uczeń, pogląd ten odrzucił. Uważał on bowiem, że sama wiedza nie wystarcza do podejmowania odpowiednich decyzji bez posiadania szeregu określonych zdolności psychicznych. Z kolei większość myślicieli chrześcijańskich wiązała mądrość z miłością do Boga i ludzi, przy czym część z nich, np. św. Augustyn, uważała ją za rodzaj daru, który otrzymują od Boga jedynie nieliczni. Klasyczna koncepcja prawdy jest chyba najlepiej przedstawiona u św. Tomasza Akwinaty. Określił on ją jako veritas est adaequatio intellectus et rei, czyli zgodność naszych sądów z rzeczywistością. Uważał on jednocześnie, że mądrość nie jest nikomu automatycznie ani darowana, ani odmówiona, trzeba ją natomiast stopniowo zdobywać, rzetelnie i wytrwale na to zapracowując. Warto w tym miejscu przypomnieć, że słynna i największa świątynia chrześcijańska starożytnego świata, Hagia Sophia w Konstantynopolu, nosiła właśnie miano świątyni Mądrości Bożej.

Św. Augustyn w swoich Dialogach filozoficznych pięknie napisał:

„Rozum: Prawda będzie zatem istniała, choćby nawet świat zginął.
Augustyn: Nie mogę zaprzeczyć.
R: A jeżeli zginie sama prawda? Czy nie będzie wówczas prawdziwe twierdzenie, że prawda zginęła?
A: Temu także nikt nie może zaprzeczyć.
R: A przecież nie może ono być prawdziwe, jeżeli prawda nie istnieje.
A: Już poprzednio się na to zgodziłem.
R: A zatem prawda nie może przestać istnieć”.

Tymczasem europejska filozofia nowożytna, począwszy od przewrotu kartezjańskiego, w zasadzie porzuciła pojęcie prawdy, uważając je za niejasne i niedefiniowalne. I choć jeszcze sam Kartezjusz uważał, że prawdziwe jest to, co oczywiste, to jednak jego „myślę, więc jestem” przesunęło pojęcie prawdy na poziom metodologii poznawczej. Dopełnił tej zmiany Immanuel Kant, który powiązał prawdę z wynikiem działalności człowieka, wprowadzając pojęcie prawdy transcendentalnej, która opierała się na koncepcji, iż podmiot jest poznawczym warunkiem przedmiotu. Później twórczo rozwinął to w swoim dziele Prawda i metoda (Wahrheit und Methode) Hans-Georg Gadamer, twórca pojęcia hermeneutyki filozoficznej, który choć przeciwstawiał rozum praktyczny rozumowi teoretycznemu i uważał, że to filozofia integruje wszystkie rodzaje ludzkiego poznania, to jednak podkreślał równocześnie rolę językowych uwarunkowań poznania i niemożność oddzielenia formy językowej od przekazywanych treści.

Jak widać, nowoczesna filozofia zaczęła przenosić pojęcie prawdy na poziom języka. Przodował w tym niemiecki filozof Ludwig Wittgenstein. Bartosz Kaluziński z UAM w Poznaniu napisał o filozofii późnego Ludwiga Wittgensteina: „Po ukazaniu, że nasze słowa mają znaczenie dopiero w ramach pewnych kontekstów społeczno-językowych (gier językowych) i uznaniu, że te konteksty określają, co można powiedzieć sensownie, a czego sensownie powiedzieć nie sposób, Wittgenstein mógł już wprost wyrazić, w jaki sposób określać prawdziwość lub fałszywość zdań w ramach poszczególnych gier. […] Reguły gry językowej określają bowiem to, co da się powiedzieć sensownie, i w takim samym stopniu określają, które zdanie jest prawdziwe, a które fałszywe”.

Wittgenstein pisze: „To, czy zdanie może w końcu okazać się fałszywe, zależy od warunków, które według mnie mają dla niego obowiązywać”. A zatem to język dostarcza nam kryteriów oraz metod rozpoznawania wartości logicznej zdań. Jednak jak słusznie zauważył polski filozof prof. Jan Woleński: „Najpoważniejszy zarzut przeciwko koherencyjnej teorii prawdy […] polega zawsze na wskazaniu, że może być więcej niż jeden koherentny system zdań. […] W szczególności można pomyśleć koherentną bajkę […] lub koherentny zbiór składający się ze zdań fałszywych”.

Z kolei wybitny polski filozof i logik Alfred Tarski (swoją drogą, to fascynująca postać) stworzył nową definicję prawdy, przeniesioną na poziom poznawania i języków formalnych, uznając, że jest ona pewną cechą zdań, wyrażalną jednak w języku zewnętrznym (czyli w metajęzyku) wobec języka, w jakim wypowiadane są owe zdania. Najlepiej wytłumaczył to w swojej Filozofii XX wieku sam będący filozofem Alfred Ayer, pisząc: „Tarski wykazuje najpierw, że każda próba podania ogólnej definicji prawdy, która stosowałaby się do wszystkich języków naturalnych, pada ofiarą paradoksu kłamcy; definicje takie zawsze dopuszczają bowiem możliwość tworzenia zdań, które mówią o sobie, iż nie są prawdziwe”. Nieco wcześniej powstała tzw. pragmatyczna teoria prawdy oparta na utylitarnym jej rozumieniu. Amerykański filozof z przełomu XIX i XX wieku William James napisał wręcz, że prawda jest tylko pożyteczna w naszym sposobie myślenia tak jak prawo jest tylko pożyteczne w naszym sposobie zachowania oraz że to my i rzeczywistość wspólnie tworzymy prawdę. A zatem jego zdaniem prawda jest relatywna i zmienna. W ten sposób ścisłe powiązanie prawdy z – ze swej natury subiektywnymi, bo zależnymi od podmiotu – uwarunkowaniami poznawczymi oraz językowymi doprowadziło do problemu istnienia wielu równoważnych prawd, co jest głównym źródłem relatywizmu poznawczo-moralnego we współczesnym świecie. Co więcej, zawęziliśmy nasze władze poznawcze do percepcji zmysłowej i wąsko pojmowanego rozumu.

Odeszliśmy w ten sposób niesłychanie daleko od potocznego rozumienia prawdy, wróćmy więc może bardziej do korzeni realizmu poznawczego. Św. Augustyn zadał w swoich rozważaniach ciekawe pytanie, czy głupota, a więc przeciwieństwo mądrości, jest grzechem. Nieco przewrotnie odpowiedział, że nie może nim być, ponieważ są ludzie głupi z urodzenia, a nadto każdy grzech jest dobrowolny jako skutek wolnej woli człowieka, tymczasem głupota nie jest dobrowolna. Nie jest też ona sprzeczna z żadnym przykazaniem bożym w przeciwieństwie do innych grzechów. Z drugiej jednak strony głupota jest co do zasady sprzeczna z przykazaniami nakazującymi kontemplację prawdy. Być może dlatego św. Augustyn wyróżnia jeszcze inny rodzaj głupoty, oznaczający odrętwienie zmysłu w osądzie poprzez zanurzenie zmysłów człowieka w rzeczach czysto ziemskich, co grzechem już być może. Koresponduje to ze zdaniem św. Pawła z Listu do Koryntian: „Człowiek zmysłowy nie pojmuje tego, co jest z Ducha Bożego”. 

Myślę, że niewielu z nas zdaje sobie sprawę, w jakim stopniu maszyny i sztuczna inteligencja zaczęły zmieniać nasz świat. Być może są to wręcz zmiany nieodwracalne. Jak napisał w swoim tekście Garri Kasparow, korzystanie z maszyn samo w sobie nie musi być czymś złym. Trzeba jednak zadać sobie pytanie, czy komputery wzmacniają, czy osłabiają nasze rozumienie świata i nasze rozpoznanie własnej sytuacji oraz kondycji, i to oczywiście nie tylko w grze w szachy.

Wydaje mi się, że wielki, choć już trochę zapomniany przełom nastąpił w roku 1997, kiedy to komputer „Deep Blue” zbudowany przez IBM po raz pierwszy pokonał w grze w szachy człowieka w stosunku 3,5 do 2,5, a przeciwnikiem maszyny był wspomniany Garri Kasparow. Jeszcze rok wcześniej Kasparow bez problemu wygrał podobny mecz. Trzeba też mieć na uwadze, że Garri Kasparow oskarżył koncern IBM o oszustwo i korzystanie w trakcie meczu z pomocy innych arcymistrzów szachowych, a sam komputer „Deep Blue” uczył się poprzez analizę milionów partii szachowych rozgrywanych przez ludzi. Jednak już w roku 2016 zbudowany przez korporację Google superkomputer „Alpha Go” pokonał człowieka w o wiele bardziej skomplikowanej grze, zwanej go. Jego przeciwnikiem był Lee Sedol, bohater narodowy Korei Południowej, 18-krotny mistrz świata w go i profesjonalny gracz od 12. roku życia. Przegrał on z komputerem w stosunku 4:1, a jego przegrana tak wstrząsnęła Koreą, że pod jej wpływem rząd tego kraju podjął decyzję o przekazaniu w kolejnych latach blisko miliarda dolarów na badania nad sztuczną inteligencją (AI – artificial intelligence). Co ciekawe, komputer „Alpha Go” uczył się, rozgrywając partie go już nie z ludźmi, ale z innymi komputerami poprzez metody uczenia maszynowego. Przypomnę, że już w 1945 r. wybitny brytyjski matematyk Alan Turing stwierdził, że „łatwo jest stworzyć maszynę, która będzie grała w szachy słabo. […] Istnieją przypuszczenia, że można stworzyć maszynę, która będzie wykazywać inteligencję, ale istnieje wewnętrzne ryzyko, że czasami popełni ona poważne błędy. Jeśli to zaakceptujemy, prawdopodobnie będziemy mogli bardzo dobrze opracować maszynę grającą w szachy”.

Sztuczna inteligencja podlega stałemu rozwojowi i można wyróżnić kolejne jej generacje: pierwszą, której przedstawicielem jest system IBM Watson, drugą, tzw. inteligencję ogólną, której przykładem są sieci neuronowe, uczenie maszynowe i tzw. uczenie głębokie (deep learning), oraz trzecią – zwaną superinteligencją, która obejmuje samonaukę, interakcję pomiędzy ludzkim mózgiem a maszyną, a w przyszłości może i samoświadomość. 

Bill Gates, którego raczej trudno posądzić o niechęć do nowych technologii cyfrowych, powiedział na temat sztucznej inteligencji i jej zastosowań: „Nie rozumiem, dlaczego niektórzy ludzie się tym nie przejmują”, a niedawno zmarły Stephen Hawking przepowiedział, że najbliższe 100 lat może być najtrudniejszym testem dla ludzkości.

Przypomnę, że w 2004 r. dwaj amerykańscy eksperci z Harvardu oraz Massachusetts Institute of Technology, Frank Levy i Richard J. Murnane, stwierdzili, iż komputery nigdy nie będą w stanie prowadzić samochodów. Tymczasem do 2018 roku samochody autonomiczne przejechały 20 mln kilometrów! Sonda wśród specjalistów od AI pod kątem rodzajów zawodów podlegających automatyzacji i czasu jej nastąpienia wykazała, że do 2024 r. zautomatyzowane zostaną call centers w bankowości (to dzieje się już – wystarczy zadzwonić na infolinię jednej z sieci komórkowych). Do 2027 r. zmianami zostaną objęci kierowcy ciężarówek, do 2031 – sprzedawcy sklepowi, do 2049 – pisarze bestsellerów (myślę, że stanie się to znacznie wcześniej). Z mojego punktu widzenia – na szczęście w odniesieniu do chirurgów proces ten według przewidywań będzie znacznie opóźniony (2051). Choć pewnie nie zdajemy sobie z tego sprawy, już żyjemy w wieku algorytmów. Wkroczyliśmy na przykład w erę cyfrowego dziennikarstwa. Ponad 90 proc. relacji sportowych z ostatniej olimpiady w Rio de Janeiro (2016) dla jednego z wpływowych amerykańskich dzienników napisały tzw. boty, czyli oprogramowanie.

Roboty chirurgiczne, szczególnie osławiona maszyna zwana „Da Vinci”, znalazły już swoje miejsce w chirurgii, a za chwilę zacznie przybywać ich masowo w związku z wygaśnięciem patentu firmy Surgical Intuitive i nowymi rozwiązaniami robotycznymi dla chirurgii opracowywanymi przez kolejne firmy z całego świata, stojące już niejako w blokach startowych. Warto przypomnieć, że wiele pomysłów, które zmieniły współczesną medycynę, powstało na zapotrzebowanie armii amerykańskiej i wynikało z potrzeb medycyny wojskowej; wystarczy wymienić choćby: roboty chirurgiczne, elektroniczna historia choroby, telekonsultacje czy ucyfrowienie badań obrazowych. Już Hipokrates mawiał, że „jeśli chcesz się nauczyć chirurgii, idź na wojnę”.

Powyższe zmiany wynikają nie tylko z postępów w zakresie sztucznej inteligencji, ale i tzw. prawa Moore’a, według którego zdolności obliczeniowe procesorów podwajają się co dwa lata. Ponadto ceny robotów spadają o jakieś 10 proc. rocznie. Według raportu McKinsey Global Institute Jobs Lost, Jobs Gained. Workforce transition in a Time of Automation do 2030 r. 15–30 proc. ludzi na świecie straci swoją pracę, co stanowi 400–800 milionów osób. Obecna gospodarka USA to około 125 milionów miejsc pracy, z czego 30 milionów jest zagrożonych przez rozwój automatyzacji i sztucznej inteligencji. Jej zwolennicy podkreślają, że AI wygeneruje także nowe miejsca pracy, jednak według szacunków może to być w USA jedynie około 700 000 miejsc pracy, i to na ogół wymagających dość wysokich kwalifikacji. Zatem około 60 proc. ludzkich profesji może ulec automatyzacji. Generalnie bezpieczniej mogą się czuć przedstawiciele zawodów, które wymagają relacji interpersonalnych, np. kelnerzy czy barmani.

Sztuczna inteligencja (AI) jest także coraz szerzej stosowana w medycynie. Według stanu na rok 2018 pojawiły się pierwsze publikacje wskazujące na to, że AI przewiduje ataki serca i udary mózgu dokładniej niż standardowe metody kliniczne, a algorytm AI opracowany na Uniwersytecie Stanford jest w stanie lepiej diagnozować zapalenie płuc niż wykwalifikowani radiolodzy. Oprócz tego sztuczna inteligencja bije na głowę dermatologów w diagnozowaniu grzybicy paznokci. Także w roku 2018 amerykańska Agencja Leków i Żywności (FDA) zezwoliła na marketing oprogramowania wspomagającego podejmowanie decyzji klinicznych w celu ostrzegania świadczeniodawców usług medycznych o potencjalnym udarze u pacjentów.

Opracowane przez koncern IBM oprogramowanie Watson tworzy plan leczenia pacjenta z nowotworem w 10 minut, podczas gdy lekarzom zajmuje to 160 godzin. Analiza badania genomu pacjenta zajmuje 10 minut w miejsce dotychczasowych 9600.

System ten umożliwia nie tylko wspomaganie decyzji klinicznych, ale i tzw. drugie konsultacje trudnych przypadków czy szybką analizę danych molekularnych w połączeniu z danymi klinicznymi w celu oceny rokowania pacjenta. To cyfrowe narzędzie zaczyna się szybko rozpowszechniać: obejmuje już 13 rodzajów nowotworów i z początkowego zastosowania u niespełna 2000 pacjentów w roku 2015 jest obecnie używane u ponad stu tysięcy chorych, a jego liczba instalacji na świecie wzrosła do grubo ponad 200. Sztuczną inteligencję zastosowano już także do rozpoznawania radiologicznego obrazu COVID-19 na podstawie zdjęć rentgenowskich klatki piersiowej lub tomografii komputerowej.

Wszystko to powoduje ogromny postęp medycyny i wzrost jej możliwości. Wystarczy tylko przypomnieć opracowanie w rekordowo krótkim czasie szczepionek przeciwko COVID-19. Z drugiej jednak strony postęp technologii w medycynie ma i swoje ciemne strony. Medycyna ulega postępującej specjalizacji i nikt już „nie ogarnia” człowieka w całości. Mamy coraz lepszych specjalistów od coraz mniejszych części ludzkiego ciała i jak to kiedyś żartobliwie powiedziano, jedni lekarze nie wiedzą niczego na temat wszystkiego, inni zaś wiedzą wszystko na temat niczego. Zmienia się też w sposób absolutnie dramatyczny relacja lekarz – pacjent. Ustępuje związek oparty na wzajemnym zaufaniu i budowaniu nadziei, być może w przeszłości zbyt nierównoważny i w pewien sposób nadmiernie paternalistyczny, na rzecz relacji klient – usługodawca. Pacjent żąda usługi medycznej wysokiej jakości i ją na ogół otrzymuje. Ale skoro jest to usługa i do tego niekiedy dobrze opłacana, to każdy konsument ma prawo do reklamacji wynikającej często z jego nierealistycznych oczekiwań. Może stąd bierze się naiwna niekiedy wiara w nieograniczone możliwości medycyny? Przecież w szpitalu nikt nie ma prawa umrzeć, bo medycyna ma uzdrawiać, a jeśli tak się nie dzieje, to znaczy, że najpewniej ktoś popełnił błąd. Rodzi się wszechobecna podejrzliwość, z czego wynika na przykład nagrywanie personelu medycznego przez pacjentów telefonami komórkowymi. Dopiero pandemia COVID-19 nieco zmieniła to postrzeganie rzeczywistości. Co jednak najsmutniejsze, nadal nie ma tu miejsca na holistyczne spojrzenie na pacjenta w całej jego psychofizycznej złożoności. Nie ma czasu na budowanie wzajemnej relacji opartej na niesieniu także pociechy duchowej i psychicznej. Ale o tym może więcej przy innej okazji. 

Niewątpliwie lawinowo przybywa nam informacji, zwiększają się stopniowo możliwości ich analizy i przetwarzania, choćby w oparciu o technologię big data. Czy jednak równocześnie przybywa nam mądrości? Dokąd zmierzamy? Quo vadis, medicina?

.Jak napisał Garri Kasparow, „zbytnie poleganie na maszynie może osłabić, a nie wzmocnić nasze własne rozumienie sytuacji”, a już z całą pewnością może rozleniwić nasz umysł. Czy końcowa wizja komputera HAL przejmującego całkowitą kontrolę nad statkiem kosmicznym i ludźmi, pochodząca z filmu Stanleya Kubricka 2001: Odyseja kosmiczna, była na swój sposób prorocza? Czy też jest odwrotnie i należy wielbić wysiłki ludzkiej inteligencji, poprzez które mozolnie budowany jest lepszy i wspanialszy świat?

Piotr Czauderna

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 11 kwietnia 2021