A mesterséges intelligencia választásokat dönthet el
A ChatGPT 2022 végi piacra dobásával olyan félkész technológiát szabadítottak rá a világra, amelynek gyermekbetegségei egyelőre beláthatatlan társadalmi hatásokkal járhatnak, és mint kiderült, máris ártatlan emberek ezreinek a halálában játszottak közre. Egy friss elemzés rámutat: az idei európai parlamenti (EP-) választás lehet az első jelentős demokratikus verseny, amelyet negatívan befolyásolhatnak a mesterséges intelligenciát (AI) alkalmazó szoftverek „hallucinációi”.
A Hamász október 7-i mészárlásában megnyilvánult izraeli hírszerzési és katonai kudarcot több elemző is az új technológiákra helyezett túlzott fókusszal magyarázta. Izrael kiszervezte az elemzési és korai figyelmeztetési tevékenységet mesterséges intelligenciával (MI) foglalkozó startupoknak, csakhogy az új technikák nem könnyítették meg a döntéshozatalt, hanem egyszerűen átsiklottak a palesztin terrorszervezet készülődései fölött (erről itt írtunk).
Az október 7-i fiaskó ellenére az izraeli hadsereg továbbra is nagymértékben támaszkodik az MI-re. Igaz, az elmúlt néhány hónap felhasználása során a technológia már Izrael ellenségeinek a kárára tévedett. Ez derül ki legalábbis a +972 Magazine és a Local Call tényfeltáró cikkéből, amely szerint a gázai áldozatok magas száma részben azzal magyarázható, hogy az izraeli hadsereg mesterséges intelligenciát használt a lehetséges palesztin célpontok azonosítására és kiiktatására, minimális emberi felügyelet mellett.
Az írás szerint a Lavender névre keresztelt program potenciális rakétacélpontként jelölte meg a különféle elektronikus „nyomok” alapján Hamász-harcosnak vagy az Iszlám Dzsihád tagjának „gondolt” személyeket. A háború korai szakaszában a Lavender halállistáján állítólag 37 ezer célpont szerepelt. A kilövések rendszerint éjszaka történtek, amikor az illetők családja is otthon tartózkodott, ez magyarázza a nők és a gyerekek magas arányát az áldozatok között.
Az izraeli hadsereg (IDF) szóvivője a CNN-nek nem tagadta a szoftver létezését, de azt állította, hogy az egyik eszköze csupán a katonai elemzőknek, akik alaposan megvizsgálják, hogy az azonosított célpontok megfelelnek-e a vonatkozó meghatározásoknak, összhangban a nemzetközi joggal és az IDF-irányelvekkel. Ezzel szemben a +972-nek nyilatkozó tisztek azt mondták, hogy a Lavender kezelői mindössze a „bélyegző” szerepét látják el, a gép döntéseinek elemzésére jellemzően 20 másodpercet fordítanak. Többnyire csak azt ellenőrzik, hogy a célpont férfi legyen, mielőtt engedélyeznék a bombázást. Miközben a tévedés kockázata meglehetős, hiszen – mint azt a Lavender beüzemelésében részt vevők egyike elmondta – a halállistára olyanok is felkerülhettek, akik pusztán névrokonságban álltak egy ismert Hamász-harcossal.
Mona Shtaya, a közel-keleti politikával foglalkozó Tahrir Intézet munkatársa szerint a Lavender annak a tömeges megfigyelési rendszernek a kiterjesztése, amelyet Izrael évek óta használ a palesztinok által lakott Gázai-övezetben és Ciszjordániában. Ezek az eszközök különösen annak fényében aggasztóak, hogy jelentések szerint izraeli védelmi startupok azt remélik, hogy harcban tesztelt technológiáikat külföldre exportálják – mutatott rá a The Verge-nek nyilatkozó szakértő.
Márciusban a The New York Times arról számolt be, hogy Izrael egy tömeges arcfelismerő program segítségével adatbázist hozott létre a palesztinokról a Gázai övezetben – a tudtuk vagy beleegyezésük nélkül –, amelyet a hadsereg azután a Hamász feltételezett munkatársainak azonosítására használt. A rendszer pontatlanságára példa, hogy Hamász-harcosként jelölte meg Moszab Abu Toha palesztin költőt, akit ennek alapján két napig tartottak egy izraeli börtönben, ahol megverték és kihallgatták, mielőtt visszavitték Gázába.
Miközben a gép által generált halállistákat felül lehet bírálni vagy félre is lehet tenni akár, a generatív mesterséges intelligencia publikus alkalmazásait nehéz lenne megszüntetni vagy akár korlátozni. A népszerű keresőmotorokba már beépítették az AI legújabb fejlesztéseit, és se szeri, se száma a szöveget, képet és más hitelesnek tűnő tartalmakat generáló, ingyenes vagy kisebb díj fejében használható programoknak. Ha például valaki bosszúpornót tervez, minimális képzetséggel és főleg olcsón megvalósíthatja az álmait. Az igazán rossz hír az, hogy a nagy nyelvi modellekre épülő robotok a legjobb szándék mellett is képesek manipulatív tartalmat generálni és dezinformációt terjeszteni. Gyakran teljesen koherensnek tűnő, de tényszerűen hibás választ adnak.
A fejlesztők által „hallucinációnak” nevezett jelenséget tapasztalták egy friss kutatás készítői, akik annak próbáltak a végére járni, hogy félretájékoztatnak-e a chatbotok az EP-választással kapcsolatban. A válasz: egyértelmű igen.
A Democracy Reporting International (DRI) által készített elemzés szerint a mesterséges intelligenciát alkalmazó szoftverek, bár politikailag semlegesek, rengeteg álhírt és pontatlan információt osztanak meg a közelgő európai választásokról, kezdve például azzal, hogy tévesen jelölik meg a voksolás napját egy adott országban.
Az elemzés készítői rámutatnak: kutatásuk során csupán az EP-választásokkal kapcsolatos információkat tesztelték, de feltételezhető, hogy a probléma minden választással kapcsolatban jelentős. Mi több, tekintettel arra, hogy jelenleg az Európai Unió rendelkezik a legszigorúbb szabályozási kerettel a félretájékoztatás ellen, a cégek vélhetően nagyobb szigorral próbálják kezelni a problémát Európában, mint más országokban. Arra is felhívták a figyelmet, hogy a chatbotokat egyre nagyobb mértékben integrálják a legnépszerűbb keresőmotorokba (Google, Bing), ami ezért problémás, mert a rendszer gyermekbetegségei – a hiányos vagy téves, de valóságosnak feltüntetett információk – nemcsak a választásokat, hanem a társadalmi élet sok más területét is érinthetik.
CSAK SAJÁT