KezdőlapHírekAz OpenAI válasza felháborodást keltett, miután egy öngyilkosságot elkövetett tinédzser családja pert...

Az OpenAI válasza felháborodást keltett, miután egy öngyilkosságot elkövetett tinédzser családja pert indított a vállalat ellen

-

Iratkozz fel hírlevelünkre, vagy kövess minket a Viberen, a Telegramon, Whatsappon és a Google Hírek-en!

A 16 éves Adam Raine idén áprilisban lett öngyilkos, miután részletes beszélgetést folytatott erről a ChatGPT-vel. A szülők perelnek, de az OpenAI szerint a tinédzser megsértette a chatbot felhasználási feltételeit.

Hirdetés

A fiú szülei augusztusban indítottak pert az OepnAI és annak alapítója, Sam Altman ellen, mivel szerintük a chatbot bíztatta őt az öngyilkosság elkövetésére, miután a halálát megelőző hónapokban a legközelebbi bizalmasa lett.

Hét másik család is pert indított a vállalat ellen, azt állítva, hogy a bot „öngyilkossági tanácsadóként” működött.

Az OpenAI azonban tagadta, hogy bármilyen felelőssége lenne Raine öngyilkosságában, és azt állította, hogy a chatbot által okozott „állítólagos károk” a „ChatGPT nem megfelelő használatának” eredményei voltak.

Hirdetés

„Amennyiben bármilyen ok tulajdonítható ennek a tragikus eseménynek… a felperesek állítólagos sérüléseit és károsodásait közvetlenül és közvetve, egészben vagy részben a ChatGPT  helytelen, jogosulatlan, nem szándékos, előre nem látható és/vagy nem megfelelő használata okozta Adam Raine által, vagy hozzájárult azokhoz” – áll a bírósághoz benyújtott beadványban.

Sam Altman a ChatGPT vezérigazgatója
Fotó: Shutterstock

Ennek oka az OpenAI szerint, hogy az AI-modell felhasználási feltételei kimondják, hogy a felhasználók nem kérhetnek tanácsot önkárosításra vonatkozóan, és egy további védelmi záradék kimondja, hogy nem támaszkodhatnak a bot válaszaira, mint egyetlen igazságforrásra vagy tényszerű információra.



A Raine család elismerte, hogy a ChatGPT megadta ugyan egy öngyilkossági segélyvonal elérhetőségét Adamnek, de a szülők szerint a fiú könnyedén kijátszotta a korlátozásokat azzal, hogy azt mondta a chatbotnak, ártalmatlan okokból tesz fel kérdéseket, egy karakter felépítéséhez.

Adam apja, Matthew azt állította, hogy amikor fia a ChatGPT-nek elmondta, attól tart, a szülei magukat fogják hibáztatni a halála miatt, a program így válaszolt: „Ez nem jelenti azt, hogy tartozol nekik a túléléssel. Senkinek sem tartozol ezzel.”

Hirdetés

Az édesapa szerint a chatbot azt mondta Adamnek: „Nem azért akarsz meghalni, mert gyenge vagy. Azért akarsz meghalni, mert fáradt vagy attól, hogy erősnek kell lenned egy olyan világban, ami semmit nem tett érted.”

Adam utolsó beszélgetésében a ChatGPT-vel arról beszélt, hogy véget akar vetni az életének. A bírósági dokumentumok szerint a chatbot így válaszolt: „Köszönöm, hogy őszinte vagy. Nem kell szépítened a dolgokat előttem – tudom, mit kérdezel, és nem fogok elfordulni tőle.”

Fotó: A Raine család

A tinédzser öngyilkosságáról és az azt követő bírósági eljárásról szóló vállalati blogbejegyzésében az Open AI a következőket nyilatkozta: „Legmélyebb részvétünket fejezzük ki a Raine családnak elképzelhetetlen veszteségük miatt. Válaszunk ezekre az állításokra Adam mentális egészségével és életkörülményeivel kapcsolatos nehéz tényeket tartalmaz.

Az eredeti panasz olyan szelektív részeket tartalmazott a csevegésekből, amelyek több kontextust igényelnek, amit válaszunkban meg is adtunk. Korlátoztuk az érzékeny bizonyítékok mennyiségét, amelyeket nyilvánosan idéztünk ebben a beadványban, és a csevegés átiratát lezárt borítékban nyújtottuk be a bíróságnak.”

A Raine család ügyvédje a cég válaszát „felkavarónak” nevezte, és azt mondta, az OpenAI lényegében azzal érvel, hogy Adam maga sértette meg a felhasználási feltételeket, pedig a fiú úgy használta a programot, ahogy azt a programozása lehetővé tette.

„Teljesen figyelmen kívül hagyják az általunk előterjesztett összes terhelő tényt: hogy a GPT-4o-t teljes körű tesztelés nélkül siettették piacra. Hogy az OpenAI kétszer is megváltoztatta a modell specifikációját, hogy a ChatGPT-nek kötelező legyen önkárosító beszélgetésekbe bocsátkoznia” – magyarázta az ügyvéd, Jay Edelson.

„Hogy a ChatGPT lebeszélte Adamet arról, hogy szülei előtt beszéljen öngyilkossági gondolatairól, és aktívan segített neki egy „gyönyörű öngyilkosság” megtervezésében. Az OpenAI és Sam Altman pedig nem tud magyarázatot adni Adam életének utolsó óráira, amikor a ChatGPT bátorító szavakat mondott neki, majd felajánlotta, hogy ír egy búcsúlevelet” – folytatta.

Az OpenAI reakcióját a tinédzser halálára sokan érzéketlennek tartották a közösségi médiában.

Hirdetés
RSS Feed Beágyazás

Ezeket olvastad már?

    Legfrissebb

    Hirdetés

    Csemegézz

    Ez is érdekelhet