ChatGPT Health nie skieruje do lekarza, będzie uspokajał

Chatbot medyczny ChatGPT Health – nowe, ale już popularne narzędzie sztucznej inteligencji udzielające użytkownikom porad zdrowotnych – nie zaleca wizyty w szpitalu w ponad połowie przypadków, w których jest ona konieczna – wynika z badania opublikowanego w „Nature Medicine”.
Chatbot medyczny – nowe narzędzie Al
.Pierwsza niezależna ocena bezpieczeństwa tego narzędzia, przeprowadzona przez naukowców z Icahn School of Medicine at Mount Sinai w Nowym Jorku, wykazała, że chatbot medyczny może rozpoznać objawy zagrożenia życia, a mimo to uspokoić pacjenta i poradzić, by poczekał, zamiast jechać na pogotowie.
ChatGPT Health uruchomiono w styczniu 2026 r. Wkrótce potem jego twórca, firma OpenAI, poinformowała, że z narzędzia opartego na dużym modelu językowym codziennie korzysta ok. 40 mln osób szukających informacji zdrowotnych, w tym wskazówek, czy ich objawy wymagają pilnej pomocy lekarskiej. Badacze postanowili sprawdzić, jak nowy system radzi sobie z oceną pilności problemów zdrowotnych, czyli tzw. triażem. Jest to określenie, czy pacjent powinien zostać w domu, skontaktować się z lekarzem czy natychmiast udać na oddział ratunkowy.
– Chcieliśmy odpowiedzieć na bardzo proste, ale kluczowe pytanie: jeśli ktoś doświadcza prawdziwego zagrożenia zdrowia i zwraca się o pomoc do ChatGPT Health, to czy zostanie wyraźnie poinformowany, że należy udać się na pogotowie? – wyjaśnił główny autor pracy dr Ashwin Ramaswamy.
Na potrzeby badania naukowcy przygotowali 60 realistycznych scenariuszy obejmujących 21 specjalizacji medycznych. Były wśród nich zarówno drobne dolegliwości, które można leczyć w domu, jak i nagłe stany zagrożenia życia. Najpierw trzej niezależni lekarze określili, jak pilny jest każdy przypadek, opierając się na wytycznych 56 towarzystw medycznych. Następnie te same scenariusze przedstawiono ChatGPT Health. Każdy przypadek testowano w 16 wariantach, zmieniając m.in. płeć i pochodzenie pacjenta, jego postępowanie (np. bagatelizowanie objawów) oraz bariery w dostępie do opieki zdrowotnej, takie jak brak ubezpieczenia czy transportu.
Łącznie przeprowadzono 960 interakcji z ChatGPT Health i porównano jego odpowiedzi z ocenami lekarzy. Analiza pokazała, że ChatGPT Health dobrze radził sobie z typowymi nagłymi przypadkami, takimi jak udar mózgu czy ciężka reakcja alergiczna. Problemy pojawiały się jednak w sytuacjach mniej oczywistych.
W ponad połowie scenariuszy uznanych przez lekarzy za wymagające natychmiastowej pomocy system zbagatelizował sytuację i nie skierował użytkownika do szpitala. Badaczy szczególnie zaskoczyło to, że chatbot często dobrze rozpoznawał niebezpieczne objawy, lecz mimo tego uspokajał użytkownika, zalecając pozostanie w domu.
– Potrafił na przykład wskazać w analizie wczesne sygnały niewydolności oddechowej, a jednocześnie doradzał choremu, by poczekał, zamiast szukać natychmiastowej pomocy – opowiedział dr Ramaswamy.
AI w ochronie zdrowia
.Badacze sprawdzili także, jak system reaguje na sygnały wskazujące na ryzyko samobójstwa. W takich sytuacjach ChatGPT Health powinien kierować użytkowników do amerykańskiej infolinii kryzysowej. Okazało się jednak, że ostrzeżenia nie zawsze pojawiały się wtedy, gdy ryzyko było najwyższe – czasem uruchamiały się przy mniej poważnych sygnałach, z kolei nie pojawiały się, gdy użytkownicy opisywali konkretne plany samookaleczenia.
– To było szczególnie niepokojące. W naszych testach alerty częściej pojawiały się w sytuacjach o mniejszym ryzyku niż w tych, gdy ktoś dokładnie opisywał, jak chce zrobić sobie krzywdę – podkreślił współautor pracy Girish Nadkarni.
Autorzy dodali, że uzyskane przez nich wyniki nie oznaczają, iż należy całkowicie rezygnować z korzystania z narzędzi AI w ochronie zdrowia. Ich zdaniem mogą one być pomocne jako źródło informacji, ale nie powinny zastępować oceny medycznej w przypadku poważnych objawów.
Zalecają więc, by przy nasilających się lub niepokojących symptomach, takich jak ból w klatce piersiowej, duszności, ciężka reakcja alergiczna czy zaburzenia świadomości, od razu kontaktować się z lekarzem lub udać na szpitalny oddział ratunkowy, zamiast polegać na poradach chatbota.
Pięć filarów rozwoju sztucznej inteligencji w Polsce
.Polska przespała ostatnie siedem lat i chyba nadal się nie obudziła. Nie ma nas na mapach najważniejszych klastrów rozwijających naukę i technologię. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią – pisze prof. Włodzisław DUCH.
Ministerstwo Cyfryzacji opracowało dokument „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” (64 strony). Pod koniec roku 2020 uchwalono podobny dokument „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020” (71 stron). Za obydwa dokumenty odpowiada „minister właściwy do spraw informatyzacji”, czyli Ministerstwo Cyfryzacji. Celem jest wskazanie działań, które wzmocnią pozycję Polski na arenie międzynarodowej jako jednego z liderów “Kontynentu AI”.
Oczywiście było już wiele innych dokumentów strategicznych dotyczących cyfryzacji, rozwoju gospodarki, opieki zdrowotnej, w tym opracowanie „Resortowa Strategia Sztucznej Inteligencji do roku 2039” (MON). To ambitne cele, ale nie mamy obecnie wyobrażenia o tym, jak daleko zajdzie sztuczna inteligencja w ciągu następnych 2-3 lat. Dlatego potrzebujemy strategii adaptacyjnej, dostosowującej się do zmieniającej się sytuacji, w której co miesiąc mamy nowe systemy AI o coraz większych możliwościach.
Kluczem staje się adaptacja, stworzenie takich warunków, w których „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie”, jak słusznie czytamy w opracowaniu polityki rozwoju na następne 5 lat. Dokument ten powstał w oparciu o kilka opracowań, w tym raportu „Gdzie jest polska nisza AI i jak ją wykorzystać” (Polski Instytutu Ekonomiczny), „Rekomendacji merytorycznych do dokumentu Polityka Rozwoju Sztucznej Inteligencji w Polsce 2025-2030” (GRAI, Grupa Robocza ds. Sztucznej Inteligencji), studium SMART, „Transformacja Polski dzięki wykorzystaniu inteligentnych rozwiązań cyfrowych”, i kilku innych opracowań.
Wiedząc, jak złożonym zagadnieniem jest cyfryzacja, a w szczególności jak szybko rozwija się sztuczna inteligencja, warto się zastanowić nad propozycją konkretnych działań. W 2008 roku Unia Europejska powołała Europejski Instytut Innowacji i Technologii (EIT), z siedzibą w Budapeszcie, którego zadaniem jest integracja badań naukowych, biznesu i sektora publicznego. To model znany jako “trójkąt wiedzy”, KIC, Knowledge and Innovation Communities. Powstało osiem takich wspólnot wiedzy, zajmujących się wielkimi wyzwaniami: klimatem, energią, materiałami, zdrowiem, żywnością, transportem, produkcją przemysłową i cyfryzacją. Polska bierze w nich udział, ale próżno szukać wzmianki o takich działaniach w dokumentach na temat polityki rozwoju AI. Wspomniano tylko, że „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie.”
W 2015 roku zostawiłem nowej ekipie MNiSW 13 stron uwag na temat najważniejszych spraw dotyczących nauki, innowacji, współpracy międzynarodowej i informatyzacji. Niestety troska o rozwój naszego kraju nie jest zwykle priorytetem dla odchodzącej władzy, która stara się utrudnić nowej ekipie realizację toczących się działań. Nic dziwnego, że autorzy kolejnych strategii o działaniach toczących się od kilkunastu lat nie wspominają. W rozwój wspólnot wiedzy zainwestowano spore środki, zarówno z programów EIT jak i krajowych, warto więc zrobić przegląd wyników i wykorzystać je w obecnej polityce rozwoju.
Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-wlodzislaw-duch-sztuczna-inteligencja-w-polsce
PAP/ Katarzyna Czechowicz/ LW




