Sztuczna Inteligencja niszczy zdolności lekarzy

Polskie badanie analizuje wpływ sztucznej inteligencji na pracę lekarzy wykonujących kolonoskopię. Naukowcy zaobserwowali, że po kilkumiesięcznym okresie korzystania z systemu AI, skuteczność diagnostyczna endoskopistów podczas badań przeprowadzanych bez tego wsparcia była niższa niż przed wdrożeniem technologii. W jaki sposób sztuczna inteligencja niszczy zdolności specjalistów?
Autorzy badania ostrzegają przed wyciąganiem zbyt pochopnych wniosków
.W artykule opisano retrospektywne badanie obserwacyjne, które przeprowadzono w czterech polskich ośrodkach endoskopowych biorących udział w projekcie ACCEPT. Ośrodki te wdrożyły systemy sztucznej inteligencji do pomocy w wykrywaniu polipów jelita grubego.
Naukowcy porównali jakość diagnostyki w dwóch okresach: przez trzy miesiące przed wprowadzeniem AI oraz w trakcie trzymiesięcznego okresu, gdy część badań wykonywano już bez jej wsparcia. Wyniki badań – opisane w „The Lancet” – dają do myślenia.
Przed wdrożeniem systemu ACCEPT lekarze w badanych placówkach wykrywali polipy u średnio 28 proc. pacjentów. Jednak po trzech miesiącach, w dniach, kiedy lekarze wykonywali kolonoskopię bez pomocy AI, wskaźnik ten spadł do zaledwie 22 proc. Ten 6-punktowy spadek stał się dla badaczy kluczową zagadką.
Czy to oznacza, że narzędzie AI do tego stopnia obniżyło czujność lekarzy, że bez jego wsparcia przeoczali oni średnio co piątą zmianę (21 proc.), którą wcześniej by wykryli? Autorzy badania ostrzegają przed wyciąganiem zbyt pochopnych wniosków.
- Nie wiemy, czy ten efekt był związany np. z tym, że pozbawieni wsparcia AI mniej widzimy, czy np. z tym, że w inny sposób wykonujemy badanie. To musi zostać dogłębnie zbadane, bo przykład kolonoskopii może być jednym z wielu w medycynie, gdzie wpływ AI na umiejętności człowieka może być widoczny – komentuje w rozmowie z PAP dr Maciej Romańczyk z HT Centrum Medycznego, Kliniki Gastroenterologii Akademii Śląskiej, jeden z autorów publikacji.
Badanie zwraca uwagę na to, jak niewiele wciąż wiadomo o długofalowym wpływie korzystania z AI na ludzkie umiejętności. Pokazuje, jak ważne jest, by zbadać jak szybko człowiek może tracić wprawę, czujność i nawyki wypracowane podczas samodzielnego wykonywania zadań. Konieczne są dalsze badania i eksperymenty, które jednoznacznie wyjaśnią te zależności.
Dr Maciej Romańczyk wyjaśnia, że podczas kolonoskopii wprowadza się endoskop z kamerą na jego końcu do jelita grubego w celu wykrywania polipów, w tym przede wszystkim gruczolaków, czyli łagodnych nowotworów. – Chcemy je usuwać i w ten sposób zapobiec wystąpieniu raka jelita grubego – tłumaczy. Skuteczność badania mierzy się tzw. współczynnikiem wykrywalności gruczolaków (ADR, Adenoma Detection Rate). Jest to odsetek pacjentów, u których wykryto co najmniej jednego gruczolaka. Im wyższy wskaźnik ADR, tym większa pewność, że lekarze nie przeoczyli istotnych zmian.
Co ciekawe, wdrożenie AI samo w sobie nie przyniosło natychmiastowej poprawy skuteczności. Zarówno przed jej zastosowaniem, jak i w trakcie okresu, gdy była aktywnie używana, wskaźnik ADR utrzymywał się na poziomie około 28 proc. Podczas badania system AI na bieżąco analizował obraz z kamery i zaznaczał na ekranie potencjalnie podejrzane miejsca. Jak tłumaczy dr Romańczyk, narzędzie jest bardzo czułe i wskazywało wiele niegroźnych zmian, co początkowo nie przyspieszało pracy lekarzy.
W ciągu trzech miesięcy korzystania z AI, gdy pacjentów losowo przydzielano do grup z asystą systemu lub bez niej, zaobserwowano wspomniany spadek skuteczności w grupie pracującej samodzielnie.
Niestety nie można było sprawdzić, czy np. wśród lekarzy, którzy wrócili do wykonywania kolonoskopii bez pomocy AI, wskaźnik ADR z czasem wróciłby do normy. W Polsce przerwano bowiem program badań przesiewowych w kierunku raka jelita grubego, a potem wznowiono go na zupełnie innych zasadach. – Zmieniły się grupy pacjentów kierowanych na badania, co uniemożliwiło kontynuację obserwacji i porównywanie danych – wyjaśnia dr Romańczyk.
- Nie powinniśmy obawiać się rozwoju sztucznej inteligencji, ale musimy monitorować „miękkie” aspekty wdrażania technologii. Skuteczność narzędzia zależy nie tylko od samej maszyny, ale też od sposobu, w jaki zintegrujemy ją z naszą pracą. To, że ten problem dostrzegliśmy już teraz, a nie za pięć lat, daje nam przewagę – podsumowuje autor pracy.
Badacz zwraca również uwagę, że całe badanie przeprowadzono w prywatnych centrach medycznych. – Warto wspierać jednostki spoza struktur uniwersyteckich, którym zależy na prowadzeniu badań naukowych. Również w takich warunkach można realizować projekty o wysokiej jakości – dodaje.
Pojedyncze badania wskazujące na negatywny wpływ stosowania AI na umiejętności użytkowników należy na razie traktować z dużą ostrożnością. Potrzebne nam krytyczne, ale i spokojne zbadanie, jaki wpływ ma sztuczna inteligencja na naszą pamięć, kompetencję, uważność – ocenił psycholog dr Maksymilian Bielecki.
Psycholog z Uniwersytetu SWPS odniósł się do badań zespołu dr. Marcina Romańczyka w „The Lancet”. W badaniu tym – na przykładzie endoskopistów, którzy wykonują kolonoskopię – zwrócono uwagę na ryzyko „deskillingu”, czyli utraty umiejętności specjalistów, którzy korzystają w pracy z AI. W badaniach tych wyszło, że w ośrodkach, w których przez 3 miesiące używano AI, a potem wykonywano badanie bez jego wsparcia – trafność diagnoz spadła.
Dr Bielecki zwrócił uwagę, że metodologia badań opisanych w „The Lancet” nie pozwala na wyciągnięcie prostych wniosków. Nie wiadomo, czy zmiany w trafności diagnoz miały konkretnie związek z zanikiem umiejętności, czy może z tym, że korzystanie z rozwiązań AI daje użytkownikom poczucie złudnej pewności.
Jego zdaniem, badanie miało charakter obserwacyjny, nie było zaś kontrolowanym eksperymentem. A na wyniki mogło mieć wpływ wiele czynników – niekoniecznie zanik umiejętności w wyniku korzystania z AI. – W tych badaniach nie było losowego przydziału pacjentów do grup. Porównywano trafność diagnoz w dwóch różnych okresach w życiu szpitala, co otwiera pole dla wielu alternatywnych wyjaśnień, jak np. sezonowość profilu pacjentów czy zmiana w zachowaniu lekarzy – zaznaczył dr Bielecki.
Czy będzie więcej badań sprawdzających, czy sztuczna inteligencja niszczy nasze umiejętności?
.Dodał, że w nauce pojedynczy, niepowtórzony w kolejnych badaniach wynik jest jedynie wskazówką i rzadko kiedy może być podstawą do wyciągania ostatecznych wniosków.
Ekspert odnosząc się do zjawiska utraty umiejętności w wyniku korzystania z AI powiedział, że to może być naturalny proces.
– Jeśli nie używa się pewnych umiejętności, to one zanikają. Jest bardzo wiele zawodów, w których codzienny rzemieślniczy kontakt z danym zajęciem i wprawa mają znaczenie. Im więcej zabiegów danego typu wykonał dany lekarz, tym większe są szanse na pozytywne wyniki leczenia kolejnych pacjentów. Stawiam więc na to, że jeżeli rzeczywiście AI jest nas w stanie całkowicie odciążyć z wykonywania zadania, to będą zachodzić procesy zapominania – skomentował psycholog.
Czy jednak powinniśmy się obawiać, że ćwiczone przez lata umiejętności mogą na stałe zaniknąć w parę miesięcy? – Jeżeli zajmowaliśmy się czymś przez 20 lat, to 3 miesiące przerwy prawdopodobnie nie spowodują znaczącego i trwałego spadku umiejętności. Gdy mówimy o umiejętnościach bardzo niedawno nabytych – sytuacja na pewno będzie zupełnie inna – komentuje psycholog.
Pytanie jednak, czy rzeczywiście wszystkie umiejętności, które mamy, są ważne i chcemy dbać o to, żeby ich nie stracić. – Dziś rzadko kto potrafi osiodłać konia albo kosą kosić pole, ale co z tego, skoro nie jest to potrzebne – powiedział psycholog z USWPS.
Dr Bielecki wskazał, że zapominanie i wychodzenie z wprawy to naturalny proces, ale równie dużym zagrożeniem jest spadek uwagi w obecności AI i nadmierne zaufanie do systemów. Sztuczna inteligencja może też sprawiać, że stajemy się nieuważni, a niekoniecznie mniej kompetentni. – W zawodach o wysokim stopniu odpowiedzialności oba zjawiska są jednak groźne – ocenił.
Psycholog zwrócił uwagę, że aby chronić te najbardziej potrzebne umiejętności, warto zadbać o odpowiednie projektowanie systemów AI. Jednym z rozwiązań może być choćby okresowe wyłączanie wsparcia AI, aby zmusić specjalistów do treningu, lub ciągłe przypominanie ekspertom, że maszyna popełnia błędy.
– AI to dwie litery. I my je przyklejamy do bardzo różnych rozwiązań, zastosowań, kontekstów, w których korzystamy z tej technologii. Warto to starannie porozklejać. Bo to tak, jakbyśmy pytali, czy korzystanie z komputera jest dobre czy złe. To jest błędnie postawione pytanie – skomentował rozmówca PAP.
Jego zdaniem kluczowym pytaniem na przyszłość nie jest to, czy AI jest od nas lepsza, ale jakich nowych kompetencji będziemy potrzebować, aby efektywnie z nią współpracować. Wskazał, że podobnie jak komputery, sztuczna inteligencja stworzy zapotrzebowanie na zupełnie nowe umiejętności.
Pięć filarów rozwoju sztucznej inteligencji w Polsce
.Polska przespała ostatnie siedem lat i chyba nadal się nie obudziła. Nie ma nas na mapach najważniejszych klastrów rozwijających naukę i technologię. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią – pisze prof. Włodzisław DUCH.
Ministerstwo Cyfryzacji opracowało dokument „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” (64 strony). Pod koniec roku 2020 uchwalono podobny dokument „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020” (71 stron). Za obydwa dokumenty odpowiada „minister właściwy do spraw informatyzacji”, czyli Ministerstwo Cyfryzacji. Celem jest wskazanie działań, które wzmocnią pozycję Polski na arenie międzynarodowej jako jednego z liderów “Kontynentu AI”.
Oczywiście było już wiele innych dokumentów strategicznych dotyczących cyfryzacji, rozwoju gospodarki, opieki zdrowotnej, w tym opracowanie „Resortowa Strategia Sztucznej Inteligencji do roku 2039” (MON). To ambitne cele, ale nie mamy obecnie wyobrażenia o tym, jak daleko zajdzie sztuczna inteligencja w ciągu następnych 2-3 lat. Dlatego potrzebujemy strategii adaptacyjnej, dostosowującej się do zmieniającej się sytuacji, w której co miesiąc mamy nowe systemy AI o coraz większych możliwościach.
Kluczem staje się adaptacja, stworzenie takich warunków, w których „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie”, jak słusznie czytamy w opracowaniu polityki rozwoju na następne 5 lat. Dokument ten powstał w oparciu o kilka opracowań, w tym raportu „Gdzie jest polska nisza AI i jak ją wykorzystać” (Polski Instytutu Ekonomiczny), „Rekomendacji merytorycznych do dokumentu Polityka Rozwoju Sztucznej Inteligencji w Polsce 2025-2030” (GRAI, Grupa Robocza ds. Sztucznej Inteligencji), studium SMART, „Transformacja Polski dzięki wykorzystaniu inteligentnych rozwiązań cyfrowych”, i kilku innych opracowań.
Wiedząc, jak złożonym zagadnieniem jest cyfryzacja, a w szczególności jak szybko rozwija się sztuczna inteligencja, warto się zastanowić nad propozycją konkretnych działań. W 2008 roku Unia Europejska powołała Europejski Instytut Innowacji i Technologii (EIT), z siedzibą w Budapeszcie, którego zadaniem jest integracja badań naukowych, biznesu i sektora publicznego. To model znany jako “trójkąt wiedzy”, KIC, Knowledge and Innovation Communities. Powstało osiem takich wspólnot wiedzy, zajmujących się wielkimi wyzwaniami: klimatem, energią, materiałami, zdrowiem, żywnością, transportem, produkcją przemysłową i cyfryzacją. Polska bierze w nich udział, ale próżno szukać wzmianki o takich działaniach w dokumentach na temat polityki rozwoju AI. Wspomniano tylko, że „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie.”
W 2015 roku zostawiłem nowej ekipie MNiSW 13 stron uwag na temat najważniejszych spraw dotyczących nauki, innowacji, współpracy międzynarodowej i informatyzacji. Niestety troska o rozwój naszego kraju nie jest zwykle priorytetem dla odchodzącej władzy, która stara się utrudnić nowej ekipie realizację toczących się działań. Nic dziwnego, że autorzy kolejnych strategii o działaniach toczących się od kilkunastu lat nie wspominają. W rozwój wspólnot wiedzy zainwestowano spore środki, zarówno z programów EIT jak i krajowych, warto więc zrobić przegląd wyników i wykorzystać je w obecnej polityce rozwoju.
Obecne propozycje są nakierowane przede wszystkim na wdrażanie istniejących systemów AI w firmach. Jednak szerokie zastosowania AI w konkretnych obszarach będą wymagać dalszego rozwoju, a nie tylko implementacji znanych algorytmów. Bez tego znowu zajmiemy się zakupem licencji od dużych firm i budową traktorów w systemie miar imperialnych.
Bez zabawy Faradaya z cewkami i magnesami nie mielibyśmy dzisiaj prądu. Bez teorii Heisenberga i Schrödingera nie byłoby mechaniki kwantowej, na której oparta jest cała technologia półprzewodników. Bez matematyki nie byłoby podatków (no, może tym byśmy się nie martwili). Nie powinniśmy zapominać o naukach podstawowych, tworzących fundamenty dla nowych technologii. Rozwój sztucznej inteligencji to przede wszystkim nowe algorytmy, które umożliwiły analizę obrazów i innych sygnałów (sieci konwolucyjne), zrozumienie i generację tekstów (GPT, generatywne transformery), tworzenie obrazów i muzyki (modele dyfuzyjne), głębokie rozumowanie (grafy wiedzy). Obecne postępy tylko w niewielkiej części związane są z nowym sprzętem i budową centrów danych, w większym stopniu to coraz lepsze algorytmy. Warto inwestować w informatykę, nie tylko w technologie obliczeniowe.
Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-wlodzislaw-duch-sztuczna-inteligencja-w-polsce
PAP/MB