Az AI feneketlen pöcegödre – Amikor a jog és az igazságszolgáltatás nem nyújt többé biztonságot

A mesterséges intelligencia térhódításával egyre gyakoribbá váltak az olyan médiatartalmak, amelyeknek alig, vagy egyáltalán nincs valóságalapjuk. Gyakorlatilag bármit „legeneráltathatunk” az AI segítségével, és bár kétségtelen, hogy ennek számtalan pozitív hozadéka van, sajnos a jelenség ugyanakkor nagy kockázatot is jelent. A deepfake tartalmak észrevétlenül szivárogtak be a mindennapjainkba, emberek életét tették tönkre, ám a technológia ezen gyorsütemű fejlődésével sem a jog, sem az igazságszolgáltatás nem tudja tartani a lépést. Íme egy történet. Nem a tengerentúlról, nem egy tőlünk oly távoli világ eldugott szegletéből, hanem Erdélyből. Orosz Andrea joghallgató saját bőrén tapasztalta meg, hogy egy ártatlan Instagram-fotóból milyen perverz fantáziákat kielégítő tartalom lehet egy nem megfelelő ember kezében. Egy olyan emberében, akit kedvelt, és akiben azt hitte, megbízhat. A történtek hatására úgy döntött, mélyebben is beleássa magát a téma jogi vonatkozásaiba. Az eredmények elkeserítőek.

Orosz Andrea negyedéves joghallgató a Sapientia – Erdélyi Magyar Tudományegyetemen, két fő kutatási területre fókuszál: egyrészt az örökségvédelem foglalkoztatja, másrészt a médiajog, ezen belüli is a deepfake tartalmakkal és a mesterséges intelligencia által generált gyermekpornográfiával foglalkozik. Utóbbi téma egy személyes tapasztalat nyomán keltette fel az érdeklődését. „Budapesten végeztem a szakmai gyakorlatomat. Rám írt Instagramon egy lány, akit nem ismertem, azelőtt soha nem hallottam róla. Egy teljesen idegen személyről volt tehát szó, aki azért keresett meg, hogy elmondja: különböző tartalmak jelentek meg rólam egy pornóoldalon. Kiderült, hogy egy közeli ismerősöm felhasználta a fényképeimet és a személyes adataimat, mindent, ami csak elérhető információ volt rólam – beleértve a lakcímemet is –, hogy olyan tartalmakat generáljon, amelyeket aztán eladhat ezeken a felületeken.”

Orosz Andrea joghallgató. Személyes tapasztalatai hívták fel a figyelmet a probléma súlyosságára. Kutatásait dr. Kokoly Zsolt segíti.

2024 nyarán Magyarországon igencsak elterjedt jelenséggé váltak a nőkről készült deepfake tartalmak. Számos ismert személy, influenszerek, színészek, médiaszemélyiségek, de hétköznapi emberek, diákok is áldozatául estek a mesterséges intelligencia ezen felhasználásának. Andrea elmondása szerint különböző mappákba kerültek be az ők arcukkal generált fotók és videók, amelyek alatt aztán a férfiak elmondhatták, „mit tennének velük”. Minden nő kapott egy témát. Az ő témája a „lefejezés és megerőszakolás” volt. A kommentszekcióban licitek folytak, gátlástalan és moderáltalan megjegyzéseket tettek arról, hogy ki milyen módon kínozná a felvételeken szereplőket.

„A történtek motiváltak arra, hogy komolyabban is foglalkozzak a témával. Sajnos egyre több nőt érint ez a jelenség, sőt, egyre több gyereket is. Velem is megtörtént, így tényleg érzékelhetőbbé vált az, hogy valóban bárkivel megtörténhet. Fontos, hogy beszéljünk a jelenségről, mert sokan még most is hajlamosak azt hinni, hogy nálunk nem zajlik ilyesmi a háttérben. Pedig de.”

A botrány mögött egy férfi állt, aki a metrón utazva képeket készített a nőkről, és más férfiakat is arra bíztatott, hogy ők is ezt tegyék. Így került be a körforgásban Andreának az ismerőse is, akiről később kiderült, hogy hasonlókat csinált Berlinben is. „Mivel az online térben elmosódnak az országhatárok, bárki beszállhat, majd kiszállhat ebből a tevékenységből, így nagyon nehéz pontos statisztikákat mondani. Valójában semmit sem tudunk. Az áldozatok egy része segítséget kér, de biztosan van számos olyan nő is, akikről szintén léteznek hasonló tartalmak, csak még nem tud róla. Végtelen mennyiségű fotóról és videóról van szó, és folyamatosan generálják az újabbnál újabbakat, egyre több lány kerül bele a mappákba, ezeket a képeket pedig jó pénzért el is adják a készítők, akikről sajnos az esetek túlnyomó többségében fogalmunk sincs, hogy kicsodák.”

A mesterséges intelligencia már-már oda fejlődött, hogy egy laikusnak majdhogynem lehetetlen különbséget tenni egy valós és egy AI által generált kép között. Kérdésünkre, hogy ebben az esetben mivel és hogyan bizonyítható, hogy ezeket a tartalmakat valaki rosszindulatból generálta, csupán egy arcot felhasználva, Andrea elmondta: kutatása során a gyermekpornográf tartalmak esetében merült fel legtöbbször ez a probléma. „Tudunk egy konkrét esetről, amikor egy másik országban a hatóságok egy AI által generált gyereket próbáltak megmenteni, mert valósnak hitték, miközben az igazi hús-vér kicsi nem kapott segítséget, mert róla meg azt gondolták, hogy ő egy mesterségesintelligencia-termék. Csak ennyire nagy tehát a probléma” – tudtuk meg.

Orosz Andrea elmondása szerint Romániában jelenleg még nem ilyen nagy a baj. Az átlagemberek által használt rendszerek még nem ennyire fejlettek, a test mozgásán, a mimikán, a háttéren vagy egyéb részletekben észrevehetők a turpisságok, de elmondása szerint ez már nem sokáig lesz így. Igencsak hamar el fog érkezni hozzánk is az a fejlettségi szint, ami már lehetetlenné teszi a deepfake és a valós tartalmak közötti különbségtételt.

A gyermekpornográf tartalmak esetében a leggyakoribb, hogy az interneten ingyenesen fellelhető pornó videókban kicserélik a szereplők arcát egy gyermekére. És sajnos ez a gyerek gyakorlatilag bárki lehet. Bár teljesen elképzelhető, hogy egy utcán észrevétlenül készített fotó nyomán generálják ezeket az anyagokat, sajnos az elkövetőknek még csak nem is kell ekkora „kockázatot vállalniuk”, hiszen sok szülő a mai napig előszeretettel oszt meg egy egész albumra való tartalmat a gyermekéről a közösségi médiában.

A szülő felelőssége óriási. | Illusztráció: Pixabay

A szülők felelőssége óriási. Teljesen érthető, hogy mindenki büszke a gyerekére, ahogyan az is érthető, hogy ő csupán a cukiságot látja abban a videóban, amiben például a kislánya egy virágos réten szaladgál vagy a medencében pancsol. Ezek mondhatni tipikus, ártatlannak vélt fotók, ám a pedofilok számára a lehetőségek végtelen tárházát jelentik. Letöltik az adott tartalmat, a kicsi arcát ráteszik egy másik testre, és már is készen van a személyre szabott, házi gyermekpornográf tartalmuk.”

A helyzet tehát annál is borzasztóbb, mint hittük. De mi a teendő akkor, ha az ember egyszer csak szembe találkozik egy ilyen tartalommal az interneten, a szereplő pedig egy ismerőse, netán épp saját maga? Orosz Andrea elmondása szerint első lépésként mindenképp az oldalnak kell jelenteni az adott képet vagy videót. Ez azonban gyakran sehová sem vezet, hiszen ezeken a felületek – meghagyva maguknak a kiskaput – általában jól látható helyre írják ki, hogy nem vállalnak felelősséget a náluk megjelenő tartalmakért. Ha azonban mondjuk mégis lekerül onnan az adott kép, semmi garancia nincs arra, hogy másnap nem fog felbukkanni egy másik felületen. Hiszen tudjuk: az internet nem felejt.

A jogi út sem ígér segítséget. Andrea elmondása szerint, amikor tudomást szerzett a róla keringő tartalmakról, azonnal a rendőrséghez fordult. Feljelentette az elkövetőt, ám azt a választ kapta, hogy sajnos semmit sem tudnak tenni érte. „A legtöbb áldozat ebbe ütközik. Én tudtam, de sajnos általában az embereknek fogalmuk sincs arról, hogy ki készítette és töltötte fel róluk a fotókat. Ezek a platformok anonimitást biztosítanak a felhasználóiknak, így ha a rendőrség próbálna is segítőkész lenni, az eljárás nagyon hamar zsákutcába ér. Egyszerűen lenyomozhatatlanok az elkövetők. Az AI nagyon gyorsan fejlődött. A jog és az igazságszolgáltatás képtelen tartani a lépést ezzel a tempóval, így nincs meg a megfelelő technika, nincsenek kidolgozott eljárási formák, nincs egy bevett módszer arra, hogy miként lépjenek fel az áldozatok védelmének érdekében. Nem beszélve arról – ahogy korábban is említettem –, hogy az országhatárok elmosódnak. Ha fény is derül az elkövető kilétére, simán megtörténhet, hogy ő addigra egy másik kontinensen tartózkodik, netán onnan követte el ezeket a szörnyűségeket, így a rendőrségnek gyakorlatilag meg van kötve a keze.”

Orosz Andrea elmondása szerint mindezek ellenére bizakodásra ad okot, hogy már Romániában is vannak kezdetleges szabályozások, a jogalkotók igyekeznek tartani a lépést arra vonatkozóan, hogy elítélhessék ezeket az elkövetőket. Ugyan egyelőre vita tárgyai, így még nem léptek hatályba, de legalább próbálkoznak. Sajnos azonban sok a bökkenő. Ő maga is tapasztalta azt a reakciót, hogy végső soron saját felelősségére töltött fel magáról fotót a közösségi médiába, holott tudatában volt annak, hogy ez bárki számára elérhetővé válik. Elmondása szerint itt azonban fontos tisztában lenni azzal, hogy bár az ember valóban feltölt magáról egy fotót, jogsértés másnak azt felhasználnia az ő engedélye nélkül. Ez már önmagában törvénybe ütköző.

A pornográfia klasszikus értelmében egy olyan tartalom, amelybe minden benne szereplő fél beleegyezett, és tudatában volt annak, hogy az nyilvánosságra kerül. Ezek a tartalmak – és furcsa kimondani –, de még magát a „pornóetikát” is sértik. Az AI által generált tartalmak szereplői, beleértve engem is, nem egyeztek bele ebbe. Akaratom ellenére használták fel az adataimat és a képmásomat, így nem csak a szerzői jogok sérültek: és ez már a büntetőjog hatásköre.”

Jogosan merülhet fel a kérdés, hogy mégis hogyan védekezhetünk az ellen, hogy hasonló helyzetbe kerüljünk. A szomorú tény, hogy leginkább sehogy. A közösségimédia-oldalaink privátra állítása aligha megoldása, hiszen az említett esetben is egy ismerős volt az elkövető. Az oldalaink felfüggesztése, a fotóink letörlése pedig megint csak nem megoldás, ha azt vesszük figyelembe, hogy nagyon sok nőről a buszon, metrón, az utcán, vagy épp bevásárlás közben készültek a képek.

A statisztikák azt mutatják, hogy a deepfake tartalmak áldozatainak 98 százaléka nő, és mindössze két százalék férfi. Az elkövetők férfiak. A beszámolók szerint a mögöttes motiváció az irányítási vágy, olyan nők megszerzése, akiket a való életben nem kaphatnának meg. „Amikor rólam kikerültek a képek, sokat böngésztem az oldalt. Megdöbbentett. Konkrét eset: egy férfi feltöltött egy titokban készített fotót egy lányról azzal a szövegel, hogy az XY kávézóban dolgozik, nagyon tetszik neki, de nem meri megszólítani, így szeretne egy generált videót kettőjükről. Borzasztó.”

Az elkövetőket tehát egyelőre nem lehet elítélni. Ám Orosz Andrea elmondása szerint kutatása során még azzal sem találkozott, hogy bármilyen módon segíteni próbálnának az áldozatoknak mentálisan feldolgozni a történteket. Egyelőre nincsenek csoportok, erre a célra kijelölt, fizetett szakemberek, akiknek az lenne a feladatuk, hogy segítsenek összerakni egy széthullott életet. „Képzeljük el ezt annak a kiskorú lánynak az esetében, akiről a saját osztálytársai csináltak ilyen képeket, majd szétküldték az iskolában. Mit érezhetett ő? Csoda, ha ezután depressziós lett és öngyilkosságot fontolgatott?”

Életek mennek tönkre, segítséget pedig nem remélhetünk. | Illusztráció: Pixabay

A kutatások azt mutatják, hogy a pedofilok már nem csak saját vágyaik kielégítésére, hanem zsarolásra, csábításra és gátlás-lebontásra is felhasználják az általuk generált pornográf tartalmakat. Vannak információk egy olyan esetről, amikor a pedofil hetekig beszélgetett egy kiskorúval az interneten, amikor pedig a szexualitásra terelődött a téma, egy ilyen videót küldött neki, mondván, hogy nézze meg, nem is olyan nagy dolog, más is csinálja. A gyermeki naivitásnak pedig aligha kell ennél több, hogy bízni kezdjen abban, aki bántani akarja.

„Az ilyen tartalmak esetében, ha netán el is indulna az eljárás, gyakran felmerül a kérdés, hogy van-e valós áldozat. Felháborító, de sokszor arra a következtetésre jutnak, hogy nincs. Hiába fejeznek le és erőszakolnak meg az adott videóban, a való életben „nem esett bántódásod”. Hiába generál valaki gyermekpornográf tartalmat, a való életben „nem bánt kisgyereket”. Ez itt a probléma. Ezért nem haladunk semerre.

Az egységes jogi háttér tehát hiányzik. Az áldozatok aligha kaphatnak segítséget, az elkövetők pedig nem büntethetők. A Meta, a Twitter és a Google igyekszik szűrni ezeket a tartalmakat, de amíg maga az AI nem tudja, ez édeskevés. „Sajnos aligha tudunk tenni valamit. A legtöbb, hogy bízunk abban, hogy az igazságszolgáltatás minél gyorsabban utoléri a technológiát. Addig is a tőlünk telhető legnagyobb felelősséggel igyekezzünk létezni az online térben, főként szülőként gondoljuk meg kétszer, hogy milyen tartalmat osztunk meg a gyerekünkről. Mint mondtam, lehet, hogy az önmagában tényleg nem egy hivalkodó kép, de pár gombnyomással, egy egyszerű okostelefon segítségével pillanatok alatt azzá válhat.”

(Nyitókép: AI által generált kép. Maszol-archív)

16/9 vagy 1920x1080
CSAK SAJÁT

Kapcsolódók

Kimaradt?