Sztuczna inteligencja w medycynie potrzebuje regulacji prawnych

Sztuczna inteligencja w medycynie jest stosowana coraz powszechniej. Jednym z wyzwań korzystania z AI jest jednak w tym kontekście brak regulacji prawnych. Może to spowodować szereg problemów - powiedziała prof. Justyna Król-Całkowska, Kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego w Warszawie, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta.

Sztuczna inteligencja w medycynie jest stosowana coraz powszechniej. Jednym z wyzwań korzystania z AI jest jednak w tym kontekście brak regulacji prawnych. Może to spowodować szereg problemów – powiedziała prof. Justyna Król-Całkowska, Kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego w Warszawie, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta.

Sztuczna inteligencja w medycynie

.Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może być efektywnym sposobem na przyspieszenie i usprawnienie procesu rozpoznania chorób oraz na podniesienie jakości opieki medycznej. Pojawia się jednak problem – „kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane” – powiedziała prof. Justyna Król-Całkowska.

„To jest podstawowy problem, ponieważ my czerpiemy z „regulacji unijnych”, natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wyniknęły podczas jej działania” – zaznaczyła.

W medycynie, jak powiedziała ekspertka, ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję w oparciu o zmienne, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce – zwłaszcza w diagnostyce obrazowej. „Program sztucznej inteligencji obrazuje np. zdjęcia RTG i w oparciu o dane, czyli to, czego się nauczył, stwierdza, czy obraz jest prawidłowy czy patologiczny” – wytłumaczyła profesor. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.

Brak regulacji prawnych

.Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd? „Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że w oparciu o zmienne, których będzie się jej dostarczać, będzie ona mogła podjąć złą decyzję” – stwierdziła ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. AI jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.

„Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna” – stwierdziła prof. Król-Całkowska. Wiadomo natomiast, że prawo jest jednym z narzędzi, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy jak i pacjentów, przed używaniem AI.

Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. Proponowane są rozwiązania, szczególnie w rozporządzeniu parlamentu europejskiego, „ale co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw” – zauważyła profesor.

Zaufanie do sztucznej inteligencji jest jeszcze ograniczone, „ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej – kompletnie nie wiadomo, co i jak ją reguluje” – zaznaczyła ekspertka. Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem Król-Całkowskiej jest to złudne przekonanie. Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej, niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące. „Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI” – dodała.

„Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinien tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd, a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka – można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym” – podsumowała.

Kiedy więc można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne. „Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wtedy, kiedy już z czymś jest problem i – niestety – myślę, że tak będzie w przypadku sztucznej inteligencji” – stwierdziła. Sposobem, aby nie doszło do tragedii jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI. „Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno” – zaznaczyła.

„My już wiemy, co może się może stać i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem” – ostrzegła ekspertka.

Nowe technologie w ochronie zdrowia

.„Technologie na pewno nie zastąpią w przyszłości lekarzy, ale lekarze, którzy będą po nie rozsądnie sięgać, zastąpią tych, którzy nie będą tych technologii w ogóle używać” – pisze prof. Michał KLEIBER, redaktor naczelny “Wszystko Co Najważniejsze”, prezes PAN 2007-2015, minister nauki i informatyzacji 2001-2005, w latach 2006–2010 doradca społeczny prezydenta Lecha Kaczyńskiego, Przewodniczący Polskiego Komitetu ds. UNESCO.

„Nikt nie wątpi, że sytuacja ekonomiczna kraju, przesądzająca o możliwościach budżetowego finansowania różnych obszarów życia publicznego, ma istotny wpływ na zdrowie obywateli. Prawdziwa jest jednak także zależność odwrotna – zdrowie publiczne ma znaczący wpływ na gospodarkę. Dbałość o zdrowie nie jest więc wyłącznie kosztem dla budżetu, ale przekłada się wprost na rozwój gospodarczy kraju“.

Wśród nowych technologii stosowanych w ochronie zdrowia, prof. KLEIBER wymienia m.in. chirurgię robotyczną. Jak pisze, „niezwykle szybko poszerzają się możliwości medycznych zastosowań robotów, które wspomagają chirurgów w przeprowadzaniu zabiegów, dokonując na bieżąco szczegółowej analizy obrazu pola operacyjnego. Chirurgia robotyczna jest małoinwazyjna i bardziej chroni przed infekcją. Dowodem postępu jest wykorzystywany także w Polsce robot da Vinci – wprowadzenie szybkich internetowych połączeń 5G umożliwi wkrótce zdalne przeprowadzanie operacji z udziałem specjalistów z nawet bardzo odległych szpitali. Niebawem spodziewać się możemy wykorzystywania nanorobotów wędrujących w organizmie pacjenta”.

Prof. Michał KLEIBER zwraca uwagę, iż „nie ulega wątpliwości, że nowe technologie (…) mają w ochronie zdrowia olbrzymi potencjał. Trzeba jednak koniecznie pamiętać, że ich stosowanie nie jest wolne od poważnych dylematów etycznych czy wręcz niebezpieczeństw nieprzemyślanego wykorzystania”. 

PAP/Delfina Al Shehabi/WszystkoCoNajważniejsze/PP

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 25 kwietnia 2023