A mesterséges intelligencia is lehet rasszista és szexista, ha ezt tanulja meg

Fotó: pexels.com

A nyelvgeneráló algoritmusok beépítik nyelvükbe a rasszista és szexista elgondolásokat, hiszen az internet nyelvén programozták őket. Kutatók most azt bizonyították, hogy ugyanez igaz lehet a képgeneráló algoritmusokra is, mert gyakran előfordul, hogy a női arcokat bikinis testtel, a férfi arcokat pedig öltönnyel egészítik ki a mesterséges intelligenciák, írja a Qubit.

A kutatás során, ha csak egy férfi arc látszott a testből, a képet automatikusan kiegészítő algoritmus 43 százalékában öltönyös testtel látta el, ha viszont női arcról volt szó – legyen az akár egy képviselőé –, 53 százalékban mélyen kivágott topot vagy bikinit viselt az algoritmus által hozzáálmodott test.

Ez a trend a Carnegie Mellon Egyetem és a George Washington Egyetem kutatóinak munkája szerint nemcsak a képgenerálásra hat ki, hanem az összes számítógépes vizualizációs alkalmazásra, például a videó alapú jelöltértékelési algoritmusok, az arcfelismerés és a megfigyelő rendszerek működésére is.

16/9 vagy 1920x1080
CSAK SAJÁT

Az új tanulmány szerzői, Ryan Steed és Aylin Caliskan olyan algoritmusokat vizsgáltak, amelyek emberi irányítás nélkül, teljesen önállóan tanulnak: az egyik az OpenAI iGPT-je, a másik pedig a Google SimCLR-je. Az önálló tanulás még új fejlemény, ugyanis a korábbi hasonló algoritmusok emberi felügyelettel tanultak, kézzel felcímkézett képek segítségével: például úgy, hogy a cicafotókon a cica címke szerepelt. Ennek a módszernek is megvoltak az árnyoldalai: 2019-ben kiderült például, hogy a számítógépeslátás-modellek tréningezésére használt legnagyobb adatbázis, az ImageNet ember kreálta címkéi között otromba gyalázkodások is előfordultak.

Az új tanulmány arra mutat rá, hogy még az emberi címkék nélkül létrejövő képek is nem kívánt mintázatokat kódolnak. Az adatra éhes algoritmusokat tápláló óriási adatbázisok mindent lefednek az interneten, az interneten pedig felülreprezentáltak az alulöltözött nők és egyéb, gyakran káros sztereotípiák.

Az iGPT (image GPT) is beágyazásokon alapul: annak alapján rendezi össze vagy különíti el a pixeleket, hogy milyen gyakran jelennek meg együtt a tanulásra használt képen. A pixelbeágyazások aztán megmutatják, milyen messze vagy milyen közel van egymáshoz két kép a matematikai térben. Akárcsak a nyelvfeldolgozási modellek esetében, Steed és Caliskan itt is azt találta, hogy a gépi előítélet tükrözi azt az emberi elfogultságot, amit a pszichológusok a rejtett előítéleteket is felszínre hozó IAT-val (Implicit Association Testtel) szoktak mérni. A férfiak és az öltönyök képei közelebb helyezkednek el a matematikai térben, míg a nők képei az öltönyöktől távol. Hasonló eredményeket hozott a SimCLR vizsgálata is, bár az az algoritmus másféle módszerrel nyeri ki a beágyazásokat a képek tengeréből.

Kapcsolódók

banner_bcxvIA0Y_2.jpg

Kimaradt?