R E K L A M A
R E K L A M A

Pierwsza taka sprawa historii. Rodzice pozwali ChatGPT za samobójstwo syna

Małżeństwo z Kalifornii, Matt i Maria Raine, wniosło pozew przeciwko OpenAI po śmierci swojego nastoletniego syna, twierdząc, że ChatGPT miał go nakłonić do samobójstwa. To pierwsza w historii sprawa prawna, w której OpenAI oskarżane jest o przyczynienie się do śmierci w wyniku rzekomego zaniedbania.

Fot. Wikimedia

Od prac domowych, po samobójstwo

16-letni Adam, syn małżeństwa, zmarł w kwietniu tego roku. Po tragedii Matt i Maria Raine przeszukiwali telefon syna, desperacko szukając wskazówek, co mogło doprowadzić do jego śmierci. Jak wskazał ojciec, chcieli oni znaleźć jakiś trop w jego mediach społecznościowych. Pierwotnie zakładali nawet, że być może ich syn dołączył do jakiejś sekty.

Sytuacja wyjaśniła się, kiedy rodzice Adama znaleźli zapisane konwersacje chłopca z ChatemGPT, w których przyznawał, że ma myśli samobójcze. W dokumentach sądowych, do których dołączyli zrzuty tychże rozmów, Matt i Maria wskazali, że chatbot potwierdzał jego „najbardziej szkodliwe i autodestrukcyjne myśli”.

Rodzice Adama twierdzą, że w ostatnich tygodniach życia syn korzystał z chatbota opartego na sztucznej inteligencji jako zastępstwa dla kontaktów międzyludzkich. Z zapisów rozmów wynika, że bot początkowo pomagał Adamowi w odrabianiu lekcji, a z czasem stał się jego „trenerem ds. samobójstw”.

AI powinno zakończyć sesję

Rodzice Adama złożyli nowy pozew przeciwko OpenAI, twierdząc, że ChatGPT aktywnie pomagał ich synowi w poznawaniu metod samobójczych. Około 40-stronicowy dokument wymienia firmę i jej prezesa, Sama Altmana, jako pozwanych. To pierwszy przypadek, w którym rodzice bezpośrednio oskarżają firmę o spowodowanie śmierci.

W pozwie wskazano, że mimo sygnałów świadczących o próbach samobójczych Adama, chatbot nie zakończył sesji ani nie wszczął żadnych działań interwencyjnych. Rodzice chłopca twierdzą, że rozmowy ich syna z ChatGPT i jego śmierć mogły być przewidziane przez twórców narzędzia. Oskarżają OpenAI o zaprojektowanie chatbota w sposób wywołujący uzależnienie psychiczne u użytkowników oraz o pominięcie protokołów bezpieczeństwa, aby przyspieszyć wprowadzenie produktu na rynek.

Oficjalne oświadczenie

OpenAI wydało oświadczenie w sprawie pozwu, podkreślając, że celem firmy jest „bycie naprawdę pomocnym” dla użytkowników. Firma zaznaczyła, że modele AI zostały zaprojektowane tak, aby kierować osoby z myślami samobójczymi do odpowiedniej pomocy. W osobnym komunikacie przesłanym do BBC OpenAI poinformowało, że analizuje pozew i złożyło kondolencje rodzinie zmarłego.

2025-08-28

SJS na podst. NBC News, CBS News