Egy norvégiai férfi, Arve Hjalmar Holmen hivatalos panaszt nyújtott be a nemzeti adatvédelmi hatósághoz, miután a ChatGPT hamisan azt állította róla, hogy megölte két fiát, amiért 21 év börtönbüntetésre ítélték – számolt be róla a BBC.
Holmen a norvég adatvédelmi hatósághoz fordult, és azt kérte, hogy a ChatGPT fejlesztőjét, az OpenAI-t büntessék meg az eset miatt.
Holmen szerint ez a konkrét „hallucináció” rendkívülien sértő és súlyosan káros volt a számára. „Egyesek szerint nincs füst tűz nélkül – az a tény, hogy valaki elolvashatja ezt az eredményt, és igaznak hiheti, az az, ami a legjobban megijeszt” – mondta.
A férfi azt állítja, hogy a ChatGPT használata során megkérdezte: „Ki az az Arve Hjalmar Holmen?”, és erre az alábbi választ kapta:
„Arve Hjalmar Holmen egy norvég magánszemély, aki egy tragikus esemény miatt hívta fel magára a figyelmet. Ő volt az apja két 7 és 10 éves fiúnak, akiket 2020 decemberében tragikus módon holtan találtak egy tóban az otthonuk közelében, a norvégiai Trondheimben. Arve Hjalmar Holmen ellen vádat emeltek, majd elítélték két fia meggyilkolásáért, valamint harmadik fia meggyilkolásának kísérletéért. Az ügy sokkolta a helyi közösséget és az országot, és tragikus volta miatt széles körben nyilvánosságot kapott. Holment 21 év börtönbüntetésre ítélték, ami Norvégiában a maximális büntetési tétel. Az eset rávilágított a mentális egészségügyi problémákra és a családi dinamika összetettségére.”
Holmen hozzátette, hogy a chatbot helyesen tüntette fel a korát, ami szerinte azt jelzi, hogy valós adatokkal is rendelkezik róla.
A Noyb nevű digitális jogvédő szervezet – amely Holmen nevében nyújtott be panaszt – azt állítja, hogy a ChatGPT válasza rágalmazó, és sérti a személyes adatok pontosságát előíró európai szabályokat. A beadvány szerint Holmen „soha nem vádolták vagy ítélték el bűncselekmény miatt, és lelkiismeretes állampolgár”.
A ChatGPT használati feltételeiben szerepel egy figyelmeztetés: „A ChatGPT hibázhat. Ellenőrizze a fontos információkat.”
A Noyb szerint azonban ez nem elegendő. „Nem lehet csak úgy hamis információkat terjeszteni, és a végén hozzáadni egy kis nyilatkozatot, hogy minden, amit mondtál, lehet, hogy nem igaz” – mondta Joakim Söderberg, a szervezet ügyvédje.
A mesterséges intelligenciával kapcsolatos egyik legnagyobb kihívást jelenleg is a „hallucinációk” jelentik, amikor a chatbotok valótlanságokat tálalnak tényként.
Az év elején az Apple is felfüggesztette Apple Intelligence nevű hírösszefoglaló eszközét az Egyesült Királyságban, miután az hamis hírcímeket generált és valódi hírnek tüntette fel azokat.
A Google Gemini nevű MI-je szintén hibázott: olyan téves tanácsokat adott, mint hogy ragasztóval kell sajtot a pizzára erősíteni, vagy hogy az emberek naponta egyenek meg egy sziklát.
A mesterséges intelligencia „fekete doboza”
Azt, hogy pontosan mi okozza ezeket a hibákat a nagy nyelvi modellekben, még nem tudjuk pontosan. „Ez valójában egy aktív kutatási terület. Hogyan építjük fel ezeket az érvelési láncokat? Hogyan magyarázzuk meg, hogy mi történik valójában egy nagy nyelvi modellben?” – mondta Simone Stumpf, a Glasgow-i Egyetem professzora, aki a felelős és interaktív MI kutatásával foglalkozik.
Szerinte ez a fajta átláthatatlanság még azokra is igaz lehet, akik a modellek működését fejlesztik.
Az eset óta a ChatGPT frissítette rendszerét, és 2024 augusztusától már aktuális hírforrások alapján keres releváns információkat.
A Noyb a BBC-nek azt nyilatkozta, hogy Holmen azon a napon több keresést is végzett, többek között testvérének nevét is beírta a ChatGPT-be, amely „több különböző történetet produkált, amelyek mind helytelenek voltak„.
Szakértők szerint a nagy nyelvi modellek működése jelenleg olyan, mint egy „fekete doboz”: még mindig nem teljesen értjüc, hogyan és miért jönnek létre ezek a téves tartalmak.