Tech

Aggódnak a tudósok - a mesterséges intelligencia képes megjósolni az emberek rasszát a röntgenképekből

Egy új kutatás szerint a mesterséges intelligencián alapuló mélytanulási modellek pusztán a röntgenfelvételek alapján képesek azonosítani valakinek a rasszát, ami egy ugyanezeket a fotókat szemlélő emberi orvos számára lehetetlen.

2022.05.30 17:55ma.hu

A mesterséges intelligencia képes megjósolni az emberek rasszát a röntgenképekből, emiatt a tudósok aggódnak. Az eredmények több komoly aggályt vetnek fel a mesterséges intelligencia orvosi diagnózisban, értékelésben és kezelésben betöltött szerepével kapcsolatban: a számítógépes algoritmusok tévesen alkalmazhatnak faji előítéletet az ilyen fényképek elemzésekor?

Az Egyesült Államok, Kanada és Tajvan egészségügyi kutatóiból álló nemzetközi csapat olyan röntgenfelvételeken tesztelte a mesterséges intelligenciát, amelyeket a számítógépes program még soha nem látott, miután több százezer létező röntgenfelvétellel betanították, amelyekhez a páciens faji sajátosságait is megjegyezték.

Még akkor is, ha a felvételek azonos korú és nemű emberekről készültek, a mesterséges intelligencia elképesztő pontossággal meg tudta jósolni a beteg állítólagos faji azonosítását ezeken a képeken. Egyes fotócsoportok esetében a rendszer 90%-os pontosságot ért el.

"Célunk az volt, hogy átfogóan értékeljük a mesterséges intelligencia azon képességét, hogy orvosi képek alapján felismerje a beteg faji identitását" - írták a kutatók a közzétett jelentésükben.

"Megmutattuk, hogy a szabványos MI mélytanulási modellek betaníthatók a faji hovatartozás előrejelzésére orvosi képekről, nagy teljesítményt nyújtva több képalkotási modalitáson keresztül, ami külső validálási körülmények között is fennmaradt."

A röntgenképek mesterséges intelligenciával történő vizsgálata nagyobb valószínűséggel hagyta figyelmen kívül a betegségre utaló jeleket a fekete bőrűek körében. A tudósoknak először azt kell kideríteniük, hogy ez miért történik.

A mesterséges intelligencia (MI) célja, hogy az emberi gondolkodást lemásolva gyorsan felfedezzen mintákat az adatokban. Ez azonban azt jelenti, hogy akaratlanul is hajlamos ugyanezekre az elfogultságokra. Ami még rosszabb, hogy bonyolultságuk miatt nehéz elválasztani tőlük előítéleteinket.

A tudósok most nem tudják, miért olyan jó a mesterséges intelligencia-rendszer a rassz azonosításában olyan fényképek alapján, amelyek látszólag nem tartalmaznak ilyen információt. A modellek még minimális információ birtokában is - például a csontsűrűségre vonatkozó utalások kihagyásával vagy a test egy aprócska részére való összpontosítással - nagyon jól megjósolták a fájlban szereplő fajt.

Valószínű, hogy a rendszer a melanint, a bőr színét adó pigmentet olyan módon érzékeli, amelyet a tudománynak még fel kell fedeznie.

"Az a megállapításunk, hogy a mesterséges intelligencia képes pontosan megjósolni az önbevallás szerinti rasszot, még a sérült, kivágott és zajos orvosi képekből is, gyakran akkor, amikor a klinikai szakértők nem képesek erre, óriási kockázatot jelent az orvosi képalkotásban alkalmazott valamennyi modell alkalmazása számára" - írják a kutatók.

A tanulmány kiegészíti az egyre növekvő adathalmazt, amely szerint az MI-rendszerek gyakran képesek megismételni az emberi előítéleteket és elfogultságokat, legyenek azok rasszista, szexista vagy más jellegűek.

Ezt ellensúlyozni kell a mesterséges intelligencia erős képességével szemben, amely sokkal több adatot képes sokkal gyorsabban feldolgozni, mint az ember, a betegségek diagnosztizálásától kezdve az éghajlatváltozás előrejelzéséig bármiben.

A tanulmányból még sok megoldatlan kérdés merül fel, de egyelőre kulcsfontosságú, hogy tudatában legyünk a mesterséges intelligencia rendszerek faji elfogultságának lehetőségével - különösen, ha a jövőben nagyobb felelősséget akarunk rájuk ruházni.

"Szünetet kell tartanunk" - mondta a Massachusetts Institute of Technology kutatója és orvosa, Leo Anthony Celi a Boston Globe-nak.

"Nem siettethetjük az algoritmusok kórházakba és klinikákra való bevezetését, amíg nem vagyunk biztosak abban, hogy nem hoznak rasszista vagy szexista döntéseket".

Figyelem! A cikkhez hozzáfűzött hozzászólások nem a ma.hu network nézeteit tükrözik. A szerkesztőség mindössze a hírek publikációjával foglalkozik, a kommenteket nem tudja befolyásolni - azok az olvasók személyes véleményét tartalmazzák.

Kérjük, kulturáltan, mások személyiségi jogainak és jó hírnevének tiszteletben tartásával kommenteljenek!

Amennyiben a Könyjelző eszköztárába szeretné felvenni az oldalt, akkor a hozzáadásnál a Könyvjelző eszköztár mappát válassza ki. A Könyvjelző eszköztárat a Nézet / Eszköztárak / Könyvjelző eszköztár menüpontban kapcsolhatja be.