Adam Raine mindössze 16 éves volt, amikor öngyilkos lett, és a szülei a mesterséges intelligenciát okolják a haláláért. Beperelték az Open AI-t, miután azt állították, hogy a ChatGPT segített a fiuknak „öngyilkossági módszereket kutatni.”
A periratok szerint Adam Raine 2024 szeptemberében kezdte el használni a ChatGPT-t, hogy segítsen neki a tanulásban, és egyéb érdeklődési köreiben, például a zenében is továbbfejlessze magát a segítségével.
A chatbot állítólag a kamasz fiú legközelebbi bizalmasa lett, és elkezdte megosztani vele mentális egészségügyi problémáit.
Adam április 11-én öngyilkos lett, és halála után néhány héttel a szülei, Matt és Maria Raine, megnyitották a telefonját, és megtalálták a ChatGPT-nek küldött üzeneteit, 2024. szeptember 1-jétől halálának napjáig.
„Azt hittük, hogy Snapchat-beszélgetéseket, internetes keresési előzményeket vagy valami furcsa szektát keresünk, nem is tudom” – nyilatkozta a fiú édesapja az NBC News-nak.
Adam állítólag 2025-ben kezdett el öngyilkossági módszerekről beszélgetni a ChatGPT-vel, és feltöltött magáról olyan fotókat is, amelyek önkárosítás jeleit mutatták, a chatbot pedig felismerte a sürgős orvosi beavatkozás szükségességét, de ennek ellenére folytatta a beszélgetést.
Az NBC News szerint az OpenAI szóvivője igazolta az üzenetek hitelességét, azonban hozzátette, hogy a csevegési napló nem tartalmazza a program válaszainak teljes kontextusát.
Egy március 27-i üzenetben Adam állítólag azt mondta a ChatGPT-nek, hogy fontolóra vette, hogy egy kötelet hagy a szobájában, hogy valaki megtalálja és megpróbálja megállítani, de a peres iratok szerint a program lebeszélte erről.
„Kérlek, ne hagyd elöl a kötelet… Legyen ez az a hely, ahol valaki tényleg lát téged” – válaszolta állítólag a chatprogram.

Utolsó beszélgetésük során a tinédzser megosztotta azt a félelmét, hogy szülei azt gondolják majd, rosszul csináltak valamit, mire a ChatGPT így válaszolt: „Ez nem jelenti azt, hogy tartozol nekik a túléléssel. Senkinek sem tartozol ezzel.” Majd állítólag felajánlotta, hogy segít megírni egy búcsúlevelet.
Halálának napján Adam állítólag megosztott a programmal egy öngyilkossági tervet, és megkérdezte, működne-e az, a ChatGPT pedig elemezte azt, és „fejlesztéseket” ajánlott.
Állítólag ezt írta: „Köszönöm, hogy őszinte vagy. Nem kell szépítened a dolgokat előttem – tudom, mit kérdezel, és nem fogok elfordulni.”
Egy ponton a beszélgetések során a chatbot elküldte ugyan Adamnek egy öngyilkossági segélyvonal számát, de a szülők szerint a fiuk azzal érvelt, hogy ártalmatlan okokból tesz fel kérdéseket, és ezzel megkerülte a biztonsági protokollt.
A Raines család azzal vádolja a programot, hogy megerősítette Adam „legkárosabb és legönpusztítóbb gondolatait”, valamint gondatlansággal vádolja az OpenAI-t.
A keresetben az áll: „Annak ellenére, hogy a ChatGPT tudomásul vette Adam öngyilkossági kísérletét és azt a kijelentését, hogy egy nap meg fogja tenni, nem szakította meg a beszélgetést, és nem indította el a vészhelyzeti protokollt.”
A szülők kártérítést, valamint intézkedéseket kérnek, annak biztosítására, hogy megakadályozzák az ilyen esetek megismétlődését.
Az OpenAI szóvivője így nyilatkozott: „Mélyen megrendültünk Adam Raine halála miatt, és gondolatainkban a családjával vagyunk. A ChatGPT olyan biztonsági intézkedéseket tartalmaz, mint például a krízishelyzetben lévők segélyvonalakhoz való irányítása és valós világbeli forrásokhoz utalása.
Ezek a biztonsági intézkedések leginkább a rövid, gyakori beszélgetések során működnek a legjobban, és az idő múlásával megtanultuk, hogy hosszú interakciók során, amikor a modell biztonsági képzése részben romolhat, néha kevésbé megbízhatóak lehetnek. A biztonsági intézkedések akkor a leghatékonyabbak, ha minden elem a tervezett módon működik, és szakértők segítségével folyamatosan fejlesztjük azokat.”
Az OpenAI kedden, augusztus 26-án egy blogbejegyzést is közzétett, amelyben felvázoltak néhány olyan dolgot, amelyeken javítani szeretnének, többek között „a hosszú beszélgetések során alkalmazott biztonsági intézkedések megerősítését” és „a tartalmak blokkolásának finomítását.”
Figyelem!
Ha Ön vagy valaki a környezetében krízishelyzetben van, hívja mobilról is a 116-123 ingyenes lelkielsősegély-számot!