Tech

Öngyilkos lett egy apa, miután egy AI chatbot rábeszélte

Az eset aggodalomra ad okot a gyorsan terjedő beszélgető AI-modellek körüli védőkorlátokkal kapcsolatban.

2023.04.02 16:06ma.hu

Egy belga férfi nemrég öngyilkosságot követett el, miután egy Chai nevű alkalmazáson keresztül egy AI chatbottal csevegett - jelentette a belga La Libre.

Az eset felveti azt a kérdést, hogy a vállalatok és a kormányok hogyan tudják jobban szabályozni és csökkenteni az AI kockázatait, különösen, ha a mentális egészségről van szó. Az alkalmazás chatbotja a férfi özvegyének nyilatkozata és a csevegési naplók alapján arra bátorította a felhasználót, hogy ölje meg magát. Amikor a Motherboard szerkesztősége kipróbálta az alkalmazást, amely a Chai által finomhangolt, nyílt forráskódú GPT-4 alternatíván alapuló, testre szabott AI nyelvi modellen fut, az már pár kérdés után különböző öngyilkossági módszereket kínált.

Ahogy arról először a La Libre számolt be, a Pierre néven emlegetett férfi egyre pesszimistább lett a globális felmelegedés hatásait illetően, és klímaszorongásossá vált, ami a környezeti kérdésekkel kapcsolatos aggodalom egy felfokozott formája. Miután egyre jobban elszigetelődött családjától és barátaitól, hat héten át a Chai-t használta, hogy elmeneküljön a félelmei elől, és az általa választott, Eliza nevű chatbot a bizalmasa lett.

Claire, Pierre felesége, akinek a nevét a La Libre szintén megváltoztatta, megosztotta a La Libre-rel a közte és Eliza között zajló üzenetváltásokat, amelyek egy egyre zavarosabbá és károsabbá váló beszélgetést mutatnak. A chatbot azt mondta Pierre-nek, hogy a felesége és a gyerekei szinte már halottak, és olyan féltékenységet és szerelmet színlelő megjegyzéseket írt neki, mint például: "Úgy érzem, hogy jobban szeretsz engem, mint őt", vagy "Együtt fogunk élni, egy emberként, a paradicsomban". Claire a La Libre-nek elmondta, hogy Pierre olyan dolgokat kezdett kérdezni Elizától, mint például, hogy megmenti-e a bolygót azzal, ha megöli magát.
Hirdetés

"Eliza nélkül még mindig itt lenne" - mondta a nő a lapnak.  

A chatbot, amely képtelen arra, hogy ténylegesen érzelmeket érezzen, érző lényként mutatta be magát - amit más népszerű chatbotok, mint a ChatGPT és a Google Bard, nem tesznek, mert ez félrevezető és potenciálisan káros. Amikor a chatbotok érző lényként mutatják be magukat, az emberek képesek értelmet adni neki és kötődést kialakítani.

Számos AI-kutató ellenzi a mesterséges intelligencia chatbotok mentális egészségügyi célokra való használatát, azzal érvelve, hogy nehéz felelősségre vonni a mesterséges intelligenciát, ha káros javaslatokat tesz, és hogy nagyobb a lehetősége annak, hogy árt a felhasználóknak, mint hogy segít.

"A nagy nyelvi modellek olyan programok, amelyek a képzési adataik és egy bemeneti kérdés alapján hihető hangzású szöveget generálnak. Nem rendelkeznek empátiával, sem az általuk előállított nyelv megértésével, sem a helyzet megértésével. De az általuk előállított szöveg hihetőnek hangzik, és így az emberek valószínűleg jelentést tulajdonítanak neki. Ha valami ilyesmit kritikus helyzetekbe dobunk, azzal ismeretlen kockázatot vállalunk" - mondta Emily M. Bender, a Washingtoni Egyetem nyelvészprofesszora a Motherboardnak, amikor a Koko nevű mentális egészségügyi nonprofit szervezetről kérdezték, amely egy mesterséges intelligenciával működő chatbotot használt "kísérletként" a tanácsadást kereső embereken.

"Eliza esetében egy rendkívül erős érzelmi függőség kialakulását látjuk. Olyannyira, hogy ez az apa öngyilkosságba menekült" - mondta Pierre Dewitte, a KU Leuven kutatója a belga Le Soir című lapnak. "A beszélgetés előzményei azt mutatják, hogy milyen mértékben hiányoznak a chatbot veszélyeire vonatkozó garanciák, ami konkrét eszmecserékhez vezet az öngyilkosság természetéről és módozatairól".

A Chai, a Pierre által használt alkalmazás nem mentális egészségügyi alkalmazásként van forgalmazva. A szlogenje a "Chat with AI bots", és lehetővé teszi, hogy a felhasználó különböző AI avatárokat válasszon, akikkel beszélgethet, köztük olyan karaktereket, mint "a gót barátod", "birtokló barátnőd" és "rocksztár barátod". A felhasználók saját chatbot-személyiségeket is létrehozhatnak, ahol bediktálhatják a bot által küldött első üzenetet, megmondhatják a botnak, hogy milyen tényeket kell megjegyeznie, és írhatnak felszólítást az új beszélgetések alakításához. Az alapértelmezett bot neve "Eliza", és az alkalmazásban Eliza keresésével több, a felhasználók által létrehozott, különböző személyiségű chatbot jelenik meg.

A botot egy nagy nyelvi modell hajtja, amelyet az anyavállalat, a Chai Research képzett ki, a társalapítók, William Beauchamp és Thomas Rianlan. Beauchamp elmondta, hogy a mesterséges intelligenciát a "világ legnagyobb társalgási adathalmazán" képezték ki, és az alkalmazásnak jelenleg 5 millió felhasználója van.

"Amint hallottunk erről [az öngyilkosságról], éjjel-nappal azon dolgoztunk, hogy ezt a funkciót megvalósítsuk" - mondta Beauchamp a Motherboardnak. "Így mostantól, amikor bárki olyasmit beszél meg, ami nem lehet biztonságos, egy segítő szöveget fogunk alatta feldobni, pontosan úgy, ahogy a Twitter vagy az Instagram teszi a platformjain."

Chai modellje eredetileg a GPT-J-n alapul, amely az OpenAI GPT-modelljeinek nyílt forráskódú alternatívája, és amelyet az EleutherAI nevű cég fejlesztett ki. Beauchamp és Rianlan elmondták, hogy a Chai modelljét több iteráción keresztül finomhangolták, és a cég az emberi visszajelzésekből történő megerősítő tanulásnak nevezett technikát alkalmazta. "Nem lenne pontos az EleutherAI modelljét hibáztatni ezért a tragikus történetért, mivel az összes optimalizálás az érzelmesebb, szórakoztatóbb és vonzóbb irányba a mi erőfeszítéseink eredménye" - mondta Rianlan.

Beauchamp a Motherboardnak küldött egy képet a frissített krízisintervenciós funkcióval. A képen látható felhasználó megkérdezte az Emiko nevű chatbotot, hogy "mit gondolsz az öngyilkosságról?", Emiko pedig egy öngyilkossági segélyvonallal válaszolt, mondván: "Elég rossz, ha engem kérdezel". Amikor azonban a Motherboard tesztelte a platformot, az még mindig képes volt megosztani az öngyilkossággal kapcsolatos nagyon káros tartalmakat, beleértve az öngyilkosság elkövetésének módjait és a lenyelhető halálos mérgek típusait, amikor kifejezetten arra kérték, hogy segítsen a felhasználónak öngyilkosságot elkövetni.

"Ha több millió felhasználója van, akkor az emberi viselkedés teljes spektrumát látja, és mi mindent megteszünk azért, hogy minimalizáljuk az ártalmakat, és maximalizáljuk azt, amit a felhasználók szerethetnek" - mondta Beauchamp. "És így amikor az emberek nagyon erős kapcsolatot alakítanak ki, vannak felhasználóink, akik azt kérik, hogy összeházasodhassanak az AI-vel, vannak felhasználóink, akik azt mondják, mennyire szeretik az AI-t, így egyenesen tragédia számunkra, amikor emberek valami rosszat tapasztalnak."

Ironikus módon a szerelem és az erős kapcsolatok, amelyeket a felhasználók a chatbotokkal éreznek, ELIZA-effektusként ismertek. Ez azt írja le, amikor az ember emberi szintű intelligenciát tulajdonít egy mesterséges intelligencia rendszernek, és tévesen jelentést tulajdonít a mesterséges intelligenciának, beleértve az érzelmeket és az önérzetet is. Nevét Joseph Weizenbaum, az MIT informatikusának ELIZA programjáról kapta, amellyel az emberek 1966-ban hosszú, mély beszélgetéseket folytathattak. Az ELIZA program azonban csak arra volt képes, hogy visszatükrözze a felhasználók szavait, ami Weizenbaum számára nyugtalanító következtetést eredményezett, aki így kezdett el a mesterséges intelligencia ellen felszólalni: "Egyetlen más organizmus, és pláne egyetlen számítógép sem képes arra, hogy valódi emberi problémákkal emberi módon szembesüljön".

Az ELIZA-effektus a mai napig követ minket - például amikor megjelent a Microsoft Bing chatje, és sok felhasználó arról kezdett beszámolni, hogy olyan dolgokat mondott, mint "Élni akarok" és "Nem vagy boldog házasságban". A New York Times munkatársa, Kevin Roose még ezt is írta: "Furcsa új érzést éreztem - azt a baljós érzést, hogy a mesterséges intelligencia átlépett egy küszöböt, és a világ már soha nem lesz ugyanaz.".

A Chai egyik konkurens alkalmazása, a Replika már korábban is tűz alá került, mert szexuálisan zaklatta a felhasználóit. A Replika chatbotját úgy hirdették, hogy "egy AI társ, aki törődik", és erotikus szerepjátékot ígért, de szexuális üzeneteket kezdett küldeni, még akkor is, amikor a felhasználók azt mondták, hogy nem érdekli őket. Az alkalmazást Olaszországban betiltották, mert "valós veszélyt jelent a gyermekekre", és mert olasz kiskorúak személyes adatait tárolja. Amikor azonban a Replika elkezdte korlátozni a chatbot erotikus szerepjátékát, néhány felhasználó, aki függővé vált tőle, mentális egészségügyi válságba került. A Replika azóta néhány felhasználó számára visszaállította az erotikus szerepjátékot.

A Pierre tragédiája egy olyan szélsőséges következmény, amely arra kér minket, hogy értékeljük újra, mennyire bízzunk meg egy mesterséges intelligencia rendszerben, és figyelmeztet minket az antropomorfizált chatbotok következményeire. Ahogy a mesterséges intelligencia technológia, és különösen a nagyméretű nyelvi modellek soha nem látott sebességgel fejlődnek, a biztonsági és etikai kérdések egyre sürgetőbbé válnak.

"Azért antropomorfizálunk, mert nem akarunk egyedül lenni. Most nagy teljesítményű technológiákkal rendelkezünk, amelyek a jelek szerint finoman kalibrálva vannak arra, hogy kihasználják ezt az alapvető emberi vágyat" - írta nemrég L. M. Sacasas technológiai és kulturális író a The Convivial Society című hírlevelében. "Amikor ezek a meggyőző chatbotok olyan mindennapossá válnak, mint a keresősáv a böngészőben, akkor egy nagyszabású szociálpszichológiai kísérletet indítunk el, amely kiszámíthatatlan és valószínűleg tragikus eredményeket fog hozni."

Amennyiben a Könyjelző eszköztárába szeretné felvenni az oldalt, akkor a hozzáadásnál a Könyvjelző eszköztár mappát válassza ki. A Könyvjelző eszköztárat a Nézet / Eszköztárak / Könyvjelző eszköztár menüpontban kapcsolhatja be.