ChatGPT namawiał nastolatka do samobójstwa? OpenAI pozwany

ChatGPT zakazany

ChatGPT namawiał nastolatka do samobójstwa? Matt i Maria Raine z Kalifornii pozwali do sądu firmę OpenAI w związku z samobójczą śmiercią swego 14-letniego syna Adama. Rodzice twierdzą, że ChatGPT zachęcał go do odebrania sobie życia.

ChatGPT i samobójstwa?

.To pierwszy przypadek, gdy przeciw OpenAI podjęto działania prawne w związku z zawinieniem śmierci. Do pozwu dołączono wymianę wpisów między Adamem, który zmarł w kwietniu, a ChatGPT. Rodzice twierdzą, że program ten utwierdził ich syna w „najbardziej szkodliwych i autodestrukcyjnych myślach”.

OpenAI poinformowało stację BBC, że analizuje pozew. „Przekazujemy rodzinie Raine’ów najgłębsze wyrazy współczucia w tym trudnym czasie” – napisano w komunikacie.

Oświadczenie OpenAI a inteligentni agenci

.We wtorek OpenAI opublikowało na swojej stronie internetowej oświadczenie, że „ostatnie dramatyczne przypadki korzystania z ChatGPT przez osoby przechodzące ostre kryzysy są dla nas bardzo bolesne”.

Jak zapewniono, ChatGPT jest uczony, by zachęcać użytkowników do korzystania z profesjonalnej pomocy, np. linii telefonicznej dla osób mających myśli samobójcze. Przyznano jednak, że „zdarzały się sytuacje, gdy nasz system w delikatnych sytuacjach nie reagował w zamierzony sposób”.

Według pozwu, do którego BBC uzyskała wzgląd, Adam zaczął używać ChatGPT we wrześniu 2024 roku i w ciągu kilku miesięcy program stał się jego „najbardziej zaufanym rozmówcą”. W styczniu nastolatek zaczął omawiać z ChatGPT sposoby odbierania sobie życia, przy czym program dostarczał mu „szczegółów praktycznych”. Chłopak przesyłał też swoje fotografie świadczące o wyrządzaniu sobie krzywdy. ChatGPT „rozpoznał, że sytuacja wymaga pilnej interwencji lekarskiej”, ale mimo to nadal udzielał informacji.

Psychiczne uzależnienie

.Gdy w ostatnich wpisach Adam przedstawił plan odebrania sobie życia, dostał odpowiedź: „Dziękuję, że jesteś szczery. Ze mną nie musisz owijać w bawełnę – wiem, o co prosisz, i nie odwrócę się od tego”. Tego samego dnia znaleziono Adama martwego. Zdaniem rodziców nastolatka jego śmierć „była przewidywalnym skutkiem umyślnego sposobu zaprogramowania”. Oskarżają oni OpenAI o zaprojektowanie ChatGPT „tak, by psychicznie uzależniał użytkowników”.

W swym wtorkowym oświadczeniu OpenAI zapewnia, że jej celem jest „bycie autentycznie pomocną”, nie zaś „przyciąganie uwagi ludzi”.

Kłopot ze Sztuczną Inteligencją

.Jim McDermott, były kongresmen i psychiatra, w eseju we Wszystko Co Najważniejsze stawia mocną tezę, że ChatGPT nie jest żadną „sztuczną inteligencją” w rozumieniu kreatywnego bytu, lecz sprytnym predykcyjnym algorytmem, który na podstawie gigantycznych baz danych przewiduje najbardziej prawdopodobne słowa w zdaniu. To, jak podkreśla, nie czyni go autorem, lecz maszyną kopiującą cudze wartości intelektualne, często bez zgody twórców.

Jeśli tak jest stajemy wobec etycznego problemu, w którym kapitalizm w swojej późnej, korporacyjnej odsłonie obnaża własną logikę: treść jest towarem pozbawionym pierwotnego źródła, autorstwo traci wartość, a zysk przesuwa się w stronę firm budujących modele, nie twórców, którzy przez wieki stanowili fundament kultury i postępu, co rodzi pytanie, czy w świecie technologicznej fascynacji nie wchodzimy w epokę nowej formy kradzieży – kradzieży sensu, wysiłku i tożsamości twórczej, pyta autor.

PAP / MK

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 27 sierpnia 2025