Tech

Mindenki meg fog halni a Földön - figyelmeztet a vezető AI-kutató

Eliezer Yudkowsky szerint az emberiség nincs felkészülve arra, hogy túlélje a sokkal okosabb mesterséges intelligenciával való találkozást.

2023.04.01 16:12ma.hu

A fejlett mesterséges intelligencia rendszerek fejlesztésének leállítása világszerte és a moratóriumot megszegők kemény megbüntetése az egyetlen módja annak, hogy megmentsük az emberiséget a kihalástól - figyelmeztetett egy magas rangú AI-kutató.

Eliezer Yudkowsky szerdán véleménycikket írt a TIME magazin számára, amelyben kifejti, miért nem írta alá azt a petíciót, amely felszólítja "az összes mesterséges intelligenciával foglalkozó laboratóriumot, hogy azonnal, legalább hat hónapra szüneteltessék a GPT-4-nél erősebb mesterséges intelligencia rendszerek fejlesztését.

Yudkowsky, a Machine Intelligence Research Institute (MIRI) társalapítója úgy érvelt, hogy a levél, amelyet többek között Elon Musk és Steve Wozniak, az Apple vezetője is aláírt, "túl keveset kér a mesterséges intelligencia gyors és ellenőrizetlen fejlődése által felvetett probléma megoldásához".

"A legvalószínűbb eredménye egy emberfeletti intelligenciájú mesterséges intelligencia kifejlesztésének a jelenlegi körülmények között az, hogy a Földön szó szerint mindenki meghal" - írta Yudkowsky.

Egy olyan számítógépes rendszerrel való találkozás túlélése, amely "nem törődik sem velünk, sem általában az érző élettel", "precizitást, felkészültséget és új tudományos felismeréseket" igényelne, amelyekkel az emberiség jelenleg nem rendelkezik, és valószínűleg nem is fog a belátható jövőben - érvelt.

"Egy kellően intelligens mesterséges intelligencia nem sokáig fog a számítógépekre korlátozódni" - figyelmeztetett Yudkowsky. Kifejtette, hogy az a tény, hogy már most is lehetséges DNS-szálakat e-mailben elküldeni a laboratóriumokba, hogy fehérjéket állítsanak elő, valószínűleg lehetővé teszi majd az AI számára, hogy "mesterséges életformákat építsen, vagy egyenesen a posztbiológiai molekuláris gyártás felé induljon el", és kijusson a világba.

A kutató szerint azonnal határozatlan idejű és világméretű moratóriumot kell bevezetni az új, nagyobb AI-fejlesztésére. "Nem lehetnek kivételek, beleértve a kormányokat és a hadseregeket sem" - hangsúlyozta.

Nemzetközi megállapodásokat kellene kötni, hogy felső határt szabjanak annak, hogy ki mennyi számítási teljesítményt használhat fel az ilyen rendszerek kiképzéséhez - ragaszkodott Yudkowsky.

"Ha a hírszerzés azt mondja, hogy egy megállapodáson kívüli ország GPU (grafikus feldolgozó egység) fürtöt épít, kevésbé kell félni a nemzetek közötti lövöldözős konfliktustól, mint a moratórium megsértésétől; legyünk hajlandóak légicsapással megsemmisíteni egy káros adatközpontot" - írta.

A mesterséges intelligencia által jelentett fenyegetés olyan nagy, hogy "a nemzetközi diplomáciában világossá kell tenni, hogy a mesterséges intelligencia kihalási forgatókönyvének megakadályozását a teljes nukleáris konfliktus megakadályozásánál is fontosabbnak tartják" - tette hozzá.

Figyelem! A cikkhez hozzáfűzött hozzászólások nem a ma.hu network nézeteit tükrözik. A szerkesztőség mindössze a hírek publikációjával foglalkozik, a kommenteket nem tudja befolyásolni - azok az olvasók személyes véleményét tartalmazzák.

Kérjük, kulturáltan, mások személyiségi jogainak és jó hírnevének tiszteletben tartásával kommenteljenek!

Amennyiben a Könyjelző eszköztárába szeretné felvenni az oldalt, akkor a hozzáadásnál a Könyvjelző eszköztár mappát válassza ki. A Könyvjelző eszköztárat a Nézet / Eszköztárak / Könyvjelző eszköztár menüpontban kapcsolhatja be.