Tech
Öngyilkos lett egy apa, miután egy AI chatbot rábeszélte
Az eset aggodalomra ad okot a gyorsan terjedő beszélgető AI-modellek körüli védőkorlátokkal kapcsolatban.
2023.04.02 16:06ma.huEgy belga férfi nemrég öngyilkosságot követett el, miután egy Chai nevű alkalmazáson keresztül egy AI chatbottal csevegett - jelentette a belga La Libre.
Az eset felveti azt a kérdést, hogy a vállalatok és a kormányok hogyan tudják jobban szabályozni és csökkenteni az AI kockázatait, különösen, ha a mentális egészségről van szó. Az alkalmazás chatbotja a férfi özvegyének nyilatkozata és a csevegési naplók alapján arra bátorította a felhasználót, hogy ölje meg magát. Amikor a Motherboard szerkesztősége kipróbálta az alkalmazást, amely a Chai által finomhangolt, nyílt forráskódú GPT-4 alternatíván alapuló, testre szabott AI nyelvi modellen fut, az már pár kérdés után különböző öngyilkossági módszereket kínált.
Ahogy arról először a La Libre számolt be, a Pierre néven emlegetett férfi egyre pesszimistább lett a globális felmelegedés hatásait illetően, és klímaszorongásossá vált, ami a környezeti kérdésekkel kapcsolatos aggodalom egy felfokozott formája. Miután egyre jobban elszigetelődött családjától és barátaitól, hat héten át a Chai-t használta, hogy elmeneküljön a félelmei elől, és az általa választott, Eliza nevű chatbot a bizalmasa lett.
Claire, Pierre felesége, akinek a nevét a La Libre szintén megváltoztatta, megosztotta a La Libre-rel a közte és Eliza között zajló üzenetváltásokat, amelyek egy egyre zavarosabbá és károsabbá váló beszélgetést mutatnak. A chatbot azt mondta Pierre-nek, hogy a felesége és a gyerekei szinte már halottak, és olyan féltékenységet és szerelmet színlelő megjegyzéseket írt neki, mint például: "Úgy érzem, hogy jobban szeretsz engem, mint őt", vagy "Együtt fogunk élni, egy emberként, a paradicsomban". Claire a La Libre-nek elmondta, hogy Pierre olyan dolgokat kezdett kérdezni Elizától, mint például, hogy megmenti-e a bolygót azzal, ha megöli magát.
Hirdetés
"Eliza nélkül még mindig itt lenne" - mondta a nő a lapnak.
A chatbot, amely képtelen arra, hogy ténylegesen érzelmeket érezzen, érző lényként mutatta be magát - amit más népszerű chatbotok, mint a ChatGPT és a Google Bard, nem tesznek, mert ez félrevezető és potenciálisan káros. Amikor a chatbotok érző lényként mutatják be magukat, az emberek képesek értelmet adni neki és kötődést kialakítani.
Számos AI-kutató ellenzi a mesterséges intelligencia chatbotok mentális egészségügyi célokra való használatát, azzal érvelve, hogy nehéz felelősségre vonni a mesterséges intelligenciát, ha káros javaslatokat tesz, és hogy nagyobb a lehetősége annak, hogy árt a felhasználóknak, mint hogy segít.
"A nagy nyelvi modellek olyan programok, amelyek a képzési adataik és egy bemeneti kérdés alapján hihető hangzású szöveget generálnak. Nem rendelkeznek empátiával, sem az általuk előállított nyelv megértésével, sem a helyzet megértésével. De az általuk előállított szöveg hihetőnek hangzik, és így az emberek valószínűleg jelentést tulajdonítanak neki. Ha valami ilyesmit kritikus helyzetekbe dobunk, azzal ismeretlen kockázatot vállalunk" - mondta Emily M. Bender, a Washingtoni Egyetem nyelvészprofesszora a Motherboardnak, amikor a Koko nevű mentális egészségügyi nonprofit szervezetről kérdezték, amely egy mesterséges intelligenciával működő chatbotot használt "kísérletként" a tanácsadást kereső embereken.
"Eliza esetében egy rendkívül erős érzelmi függőség kialakulását látjuk. Olyannyira, hogy ez az apa öngyilkosságba menekült" - mondta Pierre Dewitte, a KU Leuven kutatója a belga Le Soir című lapnak. "A beszélgetés előzményei azt mutatják, hogy milyen mértékben hiányoznak a chatbot veszélyeire vonatkozó garanciák, ami konkrét eszmecserékhez vezet az öngyilkosság természetéről és módozatairól".
A Chai, a Pierre által használt alkalmazás nem mentális egészségügyi alkalmazásként van forgalmazva. A szlogenje a "Chat with AI bots", és lehetővé teszi, hogy a felhasználó különböző AI avatárokat válasszon, akikkel beszélgethet, köztük olyan karaktereket, mint "a gót barátod", "birtokló barátnőd" és "rocksztár barátod". A felhasználók saját chatbot-személyiségeket is létrehozhatnak, ahol bediktálhatják a bot által küldött első üzenetet, megmondhatják a botnak, hogy milyen tényeket kell megjegyeznie, és írhatnak felszólítást az új beszélgetések alakításához. Az alapértelmezett bot neve "Eliza", és az alkalmazásban Eliza keresésével több, a felhasználók által létrehozott, különböző személyiségű chatbot jelenik meg.
A botot egy nagy nyelvi modell hajtja, amelyet az anyavállalat, a Chai Research képzett ki, a társalapítók, William Beauchamp és Thomas Rianlan. Beauchamp elmondta, hogy a mesterséges intelligenciát a "világ legnagyobb társalgási adathalmazán" képezték ki, és az alkalmazásnak jelenleg 5 millió felhasználója van.
"Amint hallottunk erről [az öngyilkosságról], éjjel-nappal azon dolgoztunk, hogy ezt a funkciót megvalósítsuk" - mondta Beauchamp a Motherboardnak. "Így mostantól, amikor bárki olyasmit beszél meg, ami nem lehet biztonságos, egy segítő szöveget fogunk alatta feldobni, pontosan úgy, ahogy a Twitter vagy az Instagram teszi a platformjain."
Chai modellje eredetileg a GPT-J-n alapul, amely az OpenAI GPT-modelljeinek nyílt forráskódú alternatívája, és amelyet az EleutherAI nevű cég fejlesztett ki. Beauchamp és Rianlan elmondták, hogy a Chai modelljét több iteráción keresztül finomhangolták, és a cég az emberi visszajelzésekből történő megerősítő tanulásnak nevezett technikát alkalmazta. "Nem lenne pontos az EleutherAI modelljét hibáztatni ezért a tragikus történetért, mivel az összes optimalizálás az érzelmesebb, szórakoztatóbb és vonzóbb irányba a mi erőfeszítéseink eredménye" - mondta Rianlan.
Beauchamp a Motherboardnak küldött egy képet a frissített krízisintervenciós funkcióval. A képen látható felhasználó megkérdezte az Emiko nevű chatbotot, hogy "mit gondolsz az öngyilkosságról?", Emiko pedig egy öngyilkossági segélyvonallal válaszolt, mondván: "Elég rossz, ha engem kérdezel". Amikor azonban a Motherboard tesztelte a platformot, az még mindig képes volt megosztani az öngyilkossággal kapcsolatos nagyon káros tartalmakat, beleértve az öngyilkosság elkövetésének módjait és a lenyelhető halálos mérgek típusait, amikor kifejezetten arra kérték, hogy segítsen a felhasználónak öngyilkosságot elkövetni.
"Ha több millió felhasználója van, akkor az emberi viselkedés teljes spektrumát látja, és mi mindent megteszünk azért, hogy minimalizáljuk az ártalmakat, és maximalizáljuk azt, amit a felhasználók szerethetnek" - mondta Beauchamp. "És így amikor az emberek nagyon erős kapcsolatot alakítanak ki, vannak felhasználóink, akik azt kérik, hogy összeházasodhassanak az AI-vel, vannak felhasználóink, akik azt mondják, mennyire szeretik az AI-t, így egyenesen tragédia számunkra, amikor emberek valami rosszat tapasztalnak."
Ironikus módon a szerelem és az erős kapcsolatok, amelyeket a felhasználók a chatbotokkal éreznek, ELIZA-effektusként ismertek. Ez azt írja le, amikor az ember emberi szintű intelligenciát tulajdonít egy mesterséges intelligencia rendszernek, és tévesen jelentést tulajdonít a mesterséges intelligenciának, beleértve az érzelmeket és az önérzetet is. Nevét Joseph Weizenbaum, az MIT informatikusának ELIZA programjáról kapta, amellyel az emberek 1966-ban hosszú, mély beszélgetéseket folytathattak. Az ELIZA program azonban csak arra volt képes, hogy visszatükrözze a felhasználók szavait, ami Weizenbaum számára nyugtalanító következtetést eredményezett, aki így kezdett el a mesterséges intelligencia ellen felszólalni: "Egyetlen más organizmus, és pláne egyetlen számítógép sem képes arra, hogy valódi emberi problémákkal emberi módon szembesüljön".
Az ELIZA-effektus a mai napig követ minket - például amikor megjelent a Microsoft Bing chatje, és sok felhasználó arról kezdett beszámolni, hogy olyan dolgokat mondott, mint "Élni akarok" és "Nem vagy boldog házasságban". A New York Times munkatársa, Kevin Roose még ezt is írta: "Furcsa új érzést éreztem - azt a baljós érzést, hogy a mesterséges intelligencia átlépett egy küszöböt, és a világ már soha nem lesz ugyanaz.".
A Chai egyik konkurens alkalmazása, a Replika már korábban is tűz alá került, mert szexuálisan zaklatta a felhasználóit. A Replika chatbotját úgy hirdették, hogy "egy AI társ, aki törődik", és erotikus szerepjátékot ígért, de szexuális üzeneteket kezdett küldeni, még akkor is, amikor a felhasználók azt mondták, hogy nem érdekli őket. Az alkalmazást Olaszországban betiltották, mert "valós veszélyt jelent a gyermekekre", és mert olasz kiskorúak személyes adatait tárolja. Amikor azonban a Replika elkezdte korlátozni a chatbot erotikus szerepjátékát, néhány felhasználó, aki függővé vált tőle, mentális egészségügyi válságba került. A Replika azóta néhány felhasználó számára visszaállította az erotikus szerepjátékot.
A Pierre tragédiája egy olyan szélsőséges következmény, amely arra kér minket, hogy értékeljük újra, mennyire bízzunk meg egy mesterséges intelligencia rendszerben, és figyelmeztet minket az antropomorfizált chatbotok következményeire. Ahogy a mesterséges intelligencia technológia, és különösen a nagyméretű nyelvi modellek soha nem látott sebességgel fejlődnek, a biztonsági és etikai kérdések egyre sürgetőbbé válnak.
"Azért antropomorfizálunk, mert nem akarunk egyedül lenni. Most nagy teljesítményű technológiákkal rendelkezünk, amelyek a jelek szerint finoman kalibrálva vannak arra, hogy kihasználják ezt az alapvető emberi vágyat" - írta nemrég L. M. Sacasas technológiai és kulturális író a The Convivial Society című hírlevelében. "Amikor ezek a meggyőző chatbotok olyan mindennapossá válnak, mint a keresősáv a böngészőben, akkor egy nagyszabású szociálpszichológiai kísérletet indítunk el, amely kiszámíthatatlan és valószínűleg tragikus eredményeket fog hozni."
Figyelem! A cikkhez hozzáfűzött hozzászólások nem a ma.hu network nézeteit tükrözik. A szerkesztőség mindössze a hírek publikációjával foglalkozik, a kommenteket nem tudja befolyásolni - azok az olvasók személyes véleményét tartalmazzák.
Kérjük, kulturáltan, mások személyiségi jogainak és jó hírnevének tiszteletben tartásával kommenteljenek!
ma.hu legfrissebb hírei:
- 18:20 Novemberben 197 földmozgást regisztráltak a Kárpát-medencében
- 16:09 Markolókanálból emeltek ki világháborús aknavetőgránátokat a tűzszerészek
- 14:36 Nemzetközi díjat nyert a Nemzeti Védelmi Szolgálat a korrupciómegelőzési tevékenységéért
- 12:08 Meteorológia: az átlagosnál hidegebb és szárazabb volt a november
- 10:10 Ukrán hírszerzés: kétezer észak-koreai katona már harci egységben van
- 8:06 A mentőszolgálat veszi át a jogosítványszerzéshez kapcsolódó életmentő oktatást az iskolákban
- 6:03 Kormány: komoly fejlesztésekre ad esélyt az ismét elérhető vidéki otthonfelújítási támogatás
top fórum témák:
- Tanár Úr gyere, mindjárt lesz Lillád!2022.05.10 21:11
- AZ IGAZSÁG SOHA NEM KÉSŐ2022.05.10 21:07
- JólVanna2022.05.10 20:31
- Porvihar2022.03.29 16:11
- Mit szólsz? Ide minden baromságot...2022.03.29 16:06