Sztuczna inteligencja w medycynie myli się i wymyśla, aż w 70 procentach przypadków

Badania włoskich naukowców wykazały, że chatboty sztucznej inteligencji, wykorzystywane w medycynie, popełniają błędy w ok. 70 procentach przypadków. Pomyłki wykryto w tak poważnych diagnozach, jak dotyczących raka skóry i piersi – podał dziennik „Il Messaggero”. Sztuczna inteligencja w medycynie jest więc bardzo ryzykowanym narzędziem.
Sztuczna inteligencja w medycynie
.Sztuczna inteligencja w medycynie i badania na ten zostały opublikowane na łamach specjalistycznego pisma „European Journal of Pathology”. W ramach projektu badawczego, rozpoczętego w 2023 roku pod kierunkiem Vincenzo Guastafierro z Instytutu Klinicznego i Uniwersytetu Humanitas w Rozzano koło Mediolanu przeanalizowano odpowiedzi dostarczone przez ChatGPT w 200 przypadkach klinicznych dotyczących różnych specjalizacji lekarskich.
Każdy z przedstawionych narzędziom sztucznej inteligencji wymyślonych przypadków powstał w ścisłej współpracy ze specjalistami medycyny i zgodnie z najnowszymi wskazówkami diagnostycznymi.
Stwierdzono błędne odpowiedzi w ok. 70 proc. przypadków, a także niedokładne odwołania do źródeł lub wręcz całkowicie wymyślone w 30 proc.
ChatGPT udzielił częściowo przydatnych odpowiedzi w 62 proc. przypadków, ale wolnych od błędów było tylko 32 procent. Wśród najpoważniejszych błędów była niewłaściwa diagnoza dotycząca raka skóry oraz pomylenie dwóch różnych rodzajów nowotworu piersi. Cytowano przy tym nieistniejące źródła medyczne.
Jak zaznaczył Vincenzo Guastafierro, cytowany przez dziennik „Il Messaggero”, rezultaty te pokazują, jak bardzo konieczna jest ostrożność przy wykorzystywaniu AI na polu medycyny, bo pomyłki w diagnozie, które wykryto, mogłyby mieć poważne konsekwencje.
„Oko kliniczne lekarza pozostaje niezastąpione. AI musi być uważana za wsparcie, ale nie za zamiennik kompetencji człowieka” – zaznaczył.
Bajki o sztucznej inteligencji i prawdziwe zagrożenia
.ChatGPT nie myśli, nie wnioskuje, niczego nie rozumie i nie jest żadną „sztuczną inteligencją”, o ile termin ten rozumiemy zgodnie z ideami ojców dziedziny artificial intelligence jako „autonomiczny program myślący na podobieństwo człowieka” – pisze prof. Andrzej KISIELEWICZ na łamach „Wszystko co Najważniejsze”.
Niezwykłe możliwości programu ChatGPT wznowiły po raz kolejny dyskusję o zagrożeniach dla ludzkości ze strony sztucznej inteligencji. Dyskusję tę w oczywisty sposób zaburzają zjawiska z jednej strony związane z pogonią za sensacją w mediach, a z drugiej troska badaczy i szefów firm AI o zapewnienie funduszy na dalsze badania. W rezultacie większość informacji na temat GPT i możliwości sztucznej inteligencji, jakie można znaleźć w mediach, w bardzo małym stopniu opiera się na prawdzie. Jako naukowiec zajmujący się sztuczną inteligencją raczej w charakterze recenzenta niż aktywnego badacza nie mam żadnego interesu w reklamowaniu lub dyskredytowaniu osiągnięć AI, mam natomiast dość solidną wiedzę w tym zakresie i szczególną atencję dla prawdy.
Dekadę temu napisałem książkę Sztuczna inteligencja i logika będącą podsumowaniem nieudanego przedsięwzięcia naukowego, jakim była próba zastosowania osiągnięć logiki formalnej do skonstruowania myślących maszyn. Jest tam rozdział o perspektywach rozwoju sztucznej inteligencji, który w świetle nowych osiągnięć, takich jak AlphaGo czy ChatGPT, powinien być uzupełniony. W niniejszym krótkim eseju zainteresowany Czytelnik znajdzie dokładne wyjaśnienie mechanizmów działania programu ChatGPT i moją opinię na temat realnych zagrożeń wynikających z rozwoju sztucznej inteligencji i technologii informacyjnej. Tekst, podobnie jak wspomniana książka, napisany jest z myślą o Czytelnikach posiadających szerokie zainteresowania i dowolne wykształcenie, także czysto humanistyczne.
Zacznę od przedstawienia faktów dotyczących szczegółów budowy programu. ChatGPT jest bardzo inteligentnym programem w tym sensie, że jest wyjątkowo inteligentnym projektem, efektem zbiorowej myśli wielu ludzi o nieprzeciętnej inteligencji. Natomiast program sam w sobie nie ma ani krzty inteligencji, ani krzty inwencji. Jest takim samym programem jak każdy inny program reagujący na polecenia użytkownika (input) dokładnie według wcześniej przygotowanych przez programistów, ściśle określonych instrukcji.
GPT jest skrótem nazwy generative pre-trained transformer, co ujmuje zasadnicze cechy konstrukcji tego programu komputerowego. Generuje on teksty za pomocą techniki obliczeniowej zwanej „siecią neuronową typu transformer”, a parametry sieci zostały ustalone poprzez wcześniejsze jej „trenowanie” na przykładach z olbrzymiej bazy danych tekstowych. Generalnie na wejściu program otrzymuje fragment tekstu w języku naturalnym, na przykład zapytanie, i ma za zadanie wygenerować inny tekst, sensowny i poprawny gramatycznie, który najbardziej pasuje jako kontynuacja danego fragmentu. Dopasowanie określone jest przez bazę danych tekstowych, na której program był trenowany. Można powiedzieć, że program generuje najbardziej prawdopodobną kontynuację tekstu na podstawie tekstów występujących w bazie. Jeśli to jest zapytanie, to kontynuacją powinna być sensowna i trafna odpowiedź.
Sztuczna sieć neuronowa to model obliczeń wzorowany luźno na sieci neuronów w mózgu. W stosunku do rzeczywistej sieci neuronowej w mózgu model ten jest dużym uproszczeniem i nie jest w stanie symulować pracy mózgu (przede wszystkim dlatego, że rzeczywiste mechanizmy działania mózgu i zachodzące w nim zjawiska są nam w przeważającej mierze nieznane). Ale model ten przydaje się jako pewna idea obliczeń komputerowych, takich, w których posiadamy wielki zasób przykładów łączących dane wejściowe z pożądanymi danymi wyjściowymi, lecz nie mamy odpowiedniej teorii, wystarczającego zrozumienia problemu i konkretnych wzorów matematycznych, które mogłyby stanowić podstawę do zaprojektowania odpowiedniego algorytmu.
Myślę, że warto tu przedstawić ideę tego modelu obliczeń, bo ma to zasadnicze znaczenie dla ocenienia, na ile inteligentny jest GPT i jakie są perspektywy jego dalszego rozwoju. (Czytelników o wykształceniu bardziej humanistycznym proszę o cierpliwe przebrnięcie przez kilka następnych akapitów, bo nadają one właściwy sens późniejszym ogólnym rozważaniom). W najprostszym ujęciu sztuczna sieć neuronowa służy do obliczania dowolnych funkcji postaci y = f(x). Jeśli mamy wzór matematyczny takiej funkcji albo precyzyjny sposób jej obliczania (algorytm), to można napisać odpowiedni program, który (w zasadzie) dla każdego x obliczy nam wartość y = f(x). Inna sytuacja jest, gdy mamy jakąś funkcję, która opisuje zjawisko występujące w przyrodzie, ale nie znamy w wystarczającym stopniu mechanizmów tego zjawiska, nie mamy opisu matematycznego; mamy tylko dużo konkretnych przykładów xi, dla których znamy wartości yi = f(xi).
Wówczas właśnie możemy zastosować ideę modelu obliczeń sieci neuronowej. Przekazujemy wartość x do zbioru komórek, które traktujemy jako pierwszy poziom neuronów naszej sieci (rys. 1; w praktyce przekazywane są różne części danych wejściowych x). Następnie do każdej komórki drugiego poziomu przekazywane są wartości z każdej komórki pierwszego poziomu modyfikowane wagą przypisaną do każdego połączenia (zwykle oznacza to jakiś ułamek oryginalnej wartości).
LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/andrzej-kisielewicz-bajki-o-sztucznej-inteligencji-i-prawdziwe-zagrozenia/
PAP/ Sylwia Wysocka/ LW



