ChatGPT namawiał nastolatka do samobójstwa? OpenAI pozwany

ChatGPT namawiał nastolatka do samobójstwa? Matt i Maria Raine z Kalifornii pozwali do sądu firmę OpenAI w związku z samobójczą śmiercią swego 14-letniego syna Adama. Rodzice twierdzą, że ChatGPT zachęcał go do odebrania sobie życia.
ChatGPT i samobójstwa?
.To pierwszy przypadek, gdy przeciw OpenAI podjęto działania prawne w związku z zawinieniem śmierci. Do pozwu dołączono wymianę wpisów między Adamem, który zmarł w kwietniu, a ChatGPT. Rodzice twierdzą, że program ten utwierdził ich syna w „najbardziej szkodliwych i autodestrukcyjnych myślach”.
OpenAI poinformowało stację BBC, że analizuje pozew. „Przekazujemy rodzinie Raine’ów najgłębsze wyrazy współczucia w tym trudnym czasie” – napisano w komunikacie.
Oświadczenie OpenAI a inteligentni agenci
.We wtorek OpenAI opublikowało na swojej stronie internetowej oświadczenie, że „ostatnie dramatyczne przypadki korzystania z ChatGPT przez osoby przechodzące ostre kryzysy są dla nas bardzo bolesne”.
Jak zapewniono, ChatGPT jest uczony, by zachęcać użytkowników do korzystania z profesjonalnej pomocy, np. linii telefonicznej dla osób mających myśli samobójcze. Przyznano jednak, że „zdarzały się sytuacje, gdy nasz system w delikatnych sytuacjach nie reagował w zamierzony sposób”.
Według pozwu, do którego BBC uzyskała wzgląd, Adam zaczął używać ChatGPT we wrześniu 2024 roku i w ciągu kilku miesięcy program stał się jego „najbardziej zaufanym rozmówcą”. W styczniu nastolatek zaczął omawiać z ChatGPT sposoby odbierania sobie życia, przy czym program dostarczał mu „szczegółów praktycznych”. Chłopak przesyłał też swoje fotografie świadczące o wyrządzaniu sobie krzywdy. ChatGPT „rozpoznał, że sytuacja wymaga pilnej interwencji lekarskiej”, ale mimo to nadal udzielał informacji.
Psychiczne uzależnienie
.Gdy w ostatnich wpisach Adam przedstawił plan odebrania sobie życia, dostał odpowiedź: „Dziękuję, że jesteś szczery. Ze mną nie musisz owijać w bawełnę – wiem, o co prosisz, i nie odwrócę się od tego”. Tego samego dnia znaleziono Adama martwego. Zdaniem rodziców nastolatka jego śmierć „była przewidywalnym skutkiem umyślnego sposobu zaprogramowania”. Oskarżają oni OpenAI o zaprojektowanie ChatGPT „tak, by psychicznie uzależniał użytkowników”.
W swym wtorkowym oświadczeniu OpenAI zapewnia, że jej celem jest „bycie autentycznie pomocną”, nie zaś „przyciąganie uwagi ludzi”.
Kłopot ze Sztuczną Inteligencją
.Jim McDermott, były kongresmen i psychiatra, w eseju we Wszystko Co Najważniejsze stawia mocną tezę, że ChatGPT nie jest żadną „sztuczną inteligencją” w rozumieniu kreatywnego bytu, lecz sprytnym predykcyjnym algorytmem, który na podstawie gigantycznych baz danych przewiduje najbardziej prawdopodobne słowa w zdaniu. To, jak podkreśla, nie czyni go autorem, lecz maszyną kopiującą cudze wartości intelektualne, często bez zgody twórców.
Jeśli tak jest stajemy wobec etycznego problemu, w którym kapitalizm w swojej późnej, korporacyjnej odsłonie obnaża własną logikę: treść jest towarem pozbawionym pierwotnego źródła, autorstwo traci wartość, a zysk przesuwa się w stronę firm budujących modele, nie twórców, którzy przez wieki stanowili fundament kultury i postępu, co rodzi pytanie, czy w świecie technologicznej fascynacji nie wchodzimy w epokę nowej formy kradzieży – kradzieży sensu, wysiłku i tożsamości twórczej, pyta autor.
PAP / MK