Sztuczna inteligencja przeanalizuje badanie krwi, ale nie postawi diagnozy

Firma OpenAI zaprezentowała w styczniu nowy moduł ChatGPT, który ma m.in. analizować wyniki badań krwi na podstawie dokumentacji medycznej. Użytkownicy nie powinni mieć jednak przekonania, że uzyskają diagnozę od ChatGPT – powiedziała lider AI w Zdrowiu Ligia Kornowska.
ChatGPT i wpływ na służbę zdrowia
.Open AI zaprezentowała nową funkcję do poszukiwania informacji na temat zdrowia. Będzie znana użytkownikom pod nazwą ChatGPT Health. Moduł ma być dostępny w menu paska bocznego chatbota i będzie udzielać informacji w oparciu o przesłaną przez użytkownika dokumentację medyczną. Funkcja oferuje m.in. analizy wyników badań krwi i sugestie żywieniowe.
Według Open AI to odpowiedź na społeczne zapotrzebowanie. Ze styczniowego raportu Open AI „AI as a Healthcare Ally” wynika bowiem, że do ChatGPT zwraca się codziennie ponad 40 milionów użytkowników z pytaniami dotyczącymi opieki zdrowotnej, a ponad 5 proc. wszystkich wiadomości z asystentem AI dotyczy tematu opieki zdrowotnej.
Zajmująca się tematem wykorzystania AI w kwestiach zdrowotnych Ligia Kornowska, lider koalicji „AI w Zdrowiu”, zwraca uwagę na związane z tym niebezpieczeństwa.
– Jeśli algorytm sztucznej inteligencji ma bezpośrednio wpływać na decyzje diagnostyczno-lecznicze u pacjenta, to powinien być zgodny z regulacjami prawnymi dotyczącymi wyrobów medycznych czy tzw. algorytmów wysokiego ryzyka – powiedziała ekspertka. I to niezależnie od tego, czy z systemu korzysta pacjent, czy lekarz.
– W sytuacjach, kiedy algorytm nie jest certyfikowanym wyrobem medycznym, tak jak jest to w przypadku ChatGPT Health, tak naprawdę nie wiemy, czy ten algorytm poda pacjentowi dobre informacje, czy wprowadzi go w błąd – zauważyła Kornowska.
Według niej taka certyfikacja pozwala dostarczyć informacji na temat tego, na ile algorytm jest skuteczny i czuły, a także z jakim prawdopodobieństwem powie użytkownikom prawdę, a z jakim może wprowadzić ich w błąd.
W opinii Kornowskiej zakres użycia ChatGPT-Zdrowie powinien być więc na razie ograniczony do celów edukacyjnych. Powinien zawierać informację, że każdą wiadomość, którą chat przekazuje, trzeba zweryfikować samodzielnie. Również pacjenci – jak mówiła lider „AI w Zdrowiu” – nie powinni być wprowadzani w przekonanie, że uzyskają diagnozę od tego asystenta AI. – W takim kontekście ChatGPT na pewno nie zastąpi konsultacji lekarskiej – podkreśliła.
Firma OpenAI zaprezentowała również zestaw narzędzi dla organizacji medycznych „OpenAI for Healthcare”. Ma on oferować m.in. pomoc w pracy administracyjnej, czyli tworzyć podsumowania wypisów, zaleceń dla pacjentów i listów klinicznych. Z takich narzędzi mają już korzystać amerykańskie instytucje i placówki, jak AdventHealth czy Boston Children’s Hospital.
Kornowska zwróciła jednak uwagę, że sfera ochrony danych osobowych, szczególnie tych wrażliwych, regulowana jest inaczej w Unii Europejskiej, a inaczej w Stanach Zjednoczonych. – Korzystając z narzędzia pochodzącego z USA, trzeba się upewnić, że spełnia ono regulacje unijne, takie jak rozporządzenie ogólne o danych osobowych RODO – zaznaczyła ekspertka.
Na problemy związane z korzystaniem z porad medycznych asystentów AI zwrócił również ostatnio uwagę brytyjski dziennik „The Guardian”. Styczniowe śledztwo dziennika wykazało, że podsumowania generowane przez AI wyszukiwarki Google podawały nieścisłe informacje zdrowotne. Miały one dotyczyć m.in. kluczowych badań czynności wątroby. Według „Guardiana” na podstawie tych informacji osoby z poważnymi chorobami tego narządu mogłyby błędnie uważać, że są zdrowe.
Rzecznik Google, zapytany przez brytyjski dziennik, odpowiedział, że firma nie komentuje pojedynczych usunięć w wyszukiwarce. „W przypadkach, gdy funkcje AI Overviews nie uwzględniają kontekstu, pracujemy nad wprowadzeniem szeroko zakrojonych ulepszeń i w razie potrzeby podejmujemy działania zgodnie z naszymi zasadami” – wyjaśniał.
Kontrowersje wzbudził również wpływ chatbotów na zdrowie psychiczne użytkowników. W sierpniu ub. r. świat obiegła informacja o pozwaniu do sądu firmy OpenAI w związku z samobójczą śmiercią 14-letniego Adama z Kalifornii. Jego rodzice twierdzili, że ChatGPT zachęcał go do odebrania sobie życia.
W listopadzie ub.r. agencja Associated Press informowała, że do firmy OpenAI trafiło w sumie siedem podobnych pozwów. Twierdzono w nich, że ChatGPT doprowadził do samobójstw i szkodliwych urojeń u osób, które wcześniej nie miały problemów psychicznych.
W odpowiedzi OpenAI zadeklarowało, że zostały wdrożone zabezpieczenia w przypadkach, gdy rozmowy z ChatGPT dotyczyły tematów drażliwych. „Stale udoskonalamy szkolenia ChatGPT, aby rozpoznawać i reagować na oznaki stresu psychicznego lub emocjonalnego, łagodzić napięcia w rozmowach i kierować ludzi do realnego wsparcia” – napisała firma.
Nowe technologie w ochronie zdrowia
.Na temat wykorzystywania nowych technologii w medycynie, takich jak sztuczna inteligencja, robotyka chirurgiczna czy też neuroprotetyka, na łamach „Wszystko Co Najważniejsze” pisze prof. Michał KLEIBER w tekście „Nowe technologie w ochronie zdrowia“. Autor zwraca również uwagę na fundamentalne znaczenie kwestii odpowiedniego finansowania publicznej opieki zdrowotnej.
„Wykorzystywanie sztucznej inteligencji (SI). SI w ochronie zdrowia oznacza wykorzystywanie zaawansowanego oprogramowania naśladującego poznawcze zdolności człowieka do analizy danych medycznych i sugerowanie na tej podstawie diagnozy i ewentualnych działań leczniczych. Innymi słowy, SI jest zdolnością komputerowych algorytmów do formułowania przydatnych dla lekarzy opinii w złożonych problemach medycznych. Zastosowania SI różnią się istotnie od tradycyjnych metod medycyny możliwością pozyskiwania wielkiej liczby informacji, ich przetwarzania i podejmowania na tej podstawie działań. Fundamentalną cechą stosowanych algorytmów jest ich zdolność do uczenia się na drodze rozpoznawania cech charakteryzujących przetwarzane dane i tworzenia na tej podstawie opinii na temat analizowanego problemu”.
„Ważnym efektem stosowania SI w ochronie zdrowia jest możliwość dostarczania analiz opisujących relacje między diagnozą i zastosowaną terapią a najbardziej prawdopodobnym rezultatem leczenia. Dysponujemy dzisiaj terabajtami danych pochodzących z badań klinicznych, szeroko rozumianej praktyki medycznej, firm ubezpieczeniowych oraz aptek, dotyczących wszelkich dręczących ludzi dolegliwości. Naukowcy i praktykujący lekarze korzystają oczywiście od zawsze z takich informacji, ale możliwości ich pełnej analizy przez najlepiej nawet przygotowanych badaczy są ze względu na ilość danych, ich złożoność i brak wypracowanej struktury z natury rzeczy bardzo ograniczone. W sukurs przychodzi właśnie sztuczna inteligencja” – pisze prof. Michał KLEIBER.
LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/prof-michal-kleiber-nowe-technologie-w-ochronie-zdrowia%e2%80%a8/
PAP/ Weronika Moszpańska/ LW




