„Anya, segíts! Elraboltak” – Az AI lehetővé teszi, hogy gyermekünk hangját felhasználva verjenek át a csalók

A deepfake technológia használata veszéllyel járhat, különösen azáltal, hogy a manipulált tartalmakat valóságosnak tünteti fel. Személyazonosságlopáshoz, hamis információk terjesztéséhez, szexuális kizsákmányoláshoz, zsaroláshoz is használhatják a csalók, akik számára a deepfake egy új eszközt jelent. Gondoljunk csak bele, a deepfake lehetővé teszi, hogy egy szerettünk hangját és arcát manipulálva olyan tartalmakat hozzanak létre, amelyek alapján a csalók könnyen meggyőzhetnek arról, hogy pénzt utaljunk át vagy más engedményeket tegyünk. Mi az a deepfake és milyen típusú csalásoknak lehetünk áldozatai? Dr. Seer László marketingszakembert, a BBTE Közgazdaság- és Gazdálkodástudományi Kar adjunktusát kérdeztük.

A deepfake egy olyan technológia, amely mesterséges intelligencia (AI) és gépi tanulás alapú módszereket alkalmaz. Arról van szó, hogy az AI segítségével manipulálunk valamilyen tartalmat, médiát, vagy a semmiből létrehozunk egy képet, hangot, esetleg videót. Ennek közös nevezője a mesteréges intelligencia, anélkül nem igazán működne. „Igaz, hogy régebb is létezett a jelenség, hiszen korábban is lehetett fotókat manipulálni, tehát a technológia mögötti emberi motiváció már régi hagyománynak örvend, viszont amit most deepfake alatt értünk, az a mesterséges intelligenciából fakad” – fejtette ki Seer László.

Fotó: Adobe Stock

A fotók manipulálásának legegyszerűbb módja az, hogy kicserélnek egy személyt egy fotón, vagyis megcserélik az arcokat – ezt egyébként arcszinkronizációnak nevezzük. Ezen kívül gyakori a hang manipulációja, ami nagy kockázatot jelent. A beszédszintézis az a folyamat, amikor a mesterséges intelligenciát betanítjuk arra, hogy valakinek a hangján szólaljon meg, és bármit kimondathatun vele. Ilyenkor például telefonon, vagy más csatornákon keresztül teljesen olyan, mintha az a bizonyos személy beszélne hozzánk, miközben ez nem valós. A hang módosítása a legnehezebben kiszűrhető, mert vizuális információval nem rendelkezünk róla, és így könnyebben manipulálhatóvá válunk. Emellett beszélhetünk a deepfake videók világáról, ami mostanság egyre divatosabb. „Az agyunk könnyebben azonosítja, hogy nem valós felvételről van szó, mivel még nem tökéletes a technológia. Különböző videókat, vagy videókon belüli elemeket, arcokat, egyéneket módosítanak általa” – tudtuk meg a szakértőtől.

Nem egyszerű a deepfake tartalmak felismerése

„Az emberek nagyon gyakran ugranak bele olyan helyzetekbe, amikor hirtelen kell döntést hozniuk, és ez a fő akadálya annak, hogy az online világban ki tudjuk szűrni a csalásokat. Sokszor még azokat is megtévesztik a deepfake tartalmak, akik szakemberei a témának” – véli Seer László. Szerinte az emberek túl gyorsan tulajdonítanak hitelt egy tartalomnak, de fontos lenne, hogy első lépésként álljunk meg egy pillanatra és tegyük fel a kérdést: valóban hihetünk-e annak, amit láttunk. Erre bizonyítékokat kell keresni, például megnézni, hogy milyen forrásból származik az adott tartalom, kik hivatkoznak rá, menyire hiteles az a sajtóorgánum, aki lehozta a hírt. „Azt tapasztalom – de erre vonatkozóan már kutatások is vannak –, hogy leggyakrabban akkor téveszti meg az embereket a deepfake tartalom, ha hirtelen döntenek arról, amit láttak”, részletezte.

Fotó: Adobe Stock

A pszichológiában van egy jelenség, amit lehorgonyzási heurisztikának neveznek, ennek lényege, hogy az emberek inkább annak tulajdonítanak jelentőséget, amit előbb láttak, és kevésbé annak, amit utólag megtudtak az adott jelenségről. Az álhíreknek is ez az egyik kockázata: hirtelen látnak valamit a felhasználók, ami azonnal hat rájuk érzelmileg, ezt pedig az agy nehezen tudja kikerülni. „Amit hamarabb látunk, annak reflexből nagyobb hitelt tulajdonítunk, mint annak, amit később tudunk meg a témáról. Sajnos ez ellen csak a kritikai gondolkodással lehet védekezni” – nyomatékosította Seer László.

Súlyos, érzelmekre ható csalások

A deepfake lehetőséget ad arra, hogy egy személy hangját és arcát manipulálva olyan tartalmakat hozzanak létre, amelyek alapján a csalók könnyen meggyőzhetnek másokat arról, hogy pénzt utaljanak át vagy más engedményeket tegyenek. A gyermekek hangjának felhasználása pedig különösen érzékeny terület, ahol a szülők vagy más családtagok könnyen áldozatokká válhatnak.

A szakember szerint ilyen helyzetben még inkább nehezebb dolga van a becsapottaknak, hiszen nem csupán arról van szó, hogy hirtelen szembesülnek a problémával, hanem az üzenetnek erős érzelmi töltete van, ilyenkor pedig az első gondolat az, hogy gyorsan kell cselekedni. „Automatikusan átkapcsolunk problémamegoldó módba és inkább cselekszünk, mintsem gondolkodunk. Mindenki ezt tenné, ha a mondjuk a gyermeke hangját hallaná” – véli a szakértő. Ugyanakkor szerinte erre nincs megoldás, csak az, ha ilyenkor megpróbálja lenyugtatni magát az ember. „Ez azonban egy irreleváns elvárás hasonló helyzetben”.

Ugyanakkor a deepfake technológia lehetőséget teremt arra, hogy manipulált szexuális tartalmakat készítsenek, különösen nőkről, akiknek arcképét helyezik mások testére. Ez nem csak a személyes méltóság megsértését jelenti, hanem akár a személyes és szakmai életet is jelentősen károsíthatja.

A deepfake csalók közösségi médiából is átvehetik a képeket, videókat, hangokat, viszont nem ez az egyetlen módja, hogy forráshoz jussanak a bűnözők. Ugyanakkor csökkenti az esélyeket – és ez nagyon fontos –, ha a szülők nem osztanak meg videókat, képeket, hanganyagokat, amelyeken a kiskorú gyermekük látható és hallható.

A deepfake egy új eszköz a csalók kezében

Ezt a technológiát csak most kezdik el kóstolgatni azok, akik nyereségvágyból csalásokat követnek el. A probléma az, hogy hatóságilat is nagyon nehéz kiszűrni az ilyen típusú zsarolást. „A csalók a hirtelen döntések, a megijesztett emberek döntéshozó képességét teszik próbára ezekkel a módszerekkel. Sajnos nagyon sok hasonló csalással találkozhatunk a jövőben” – véli Seer László.

Szerencsére vannak már olyan technológiák, amelyekkel egyszerűbben kiszűrhetők a bűncselekmények, de ahhoz, hogy ezek hatékonyan működjenek, komoly jogalkotás szükséges, hiszen amíg egy friss jelenségről beszélünk, és amíg a társadalomnak nincsenek ismeretei az ilyen típusú csalásokról, addig sajnos nem jön létre egy átfogó megoldás. Ennek ellenére azonban van néhány technológia, ami segít.

„A digitális ujjlenyomatelemző egy jó példa erre. A digitális ujjlenyomatot úgy kell elképzelni, mint az emberi ujjlenyomatot, csak éppen a digitális tartalomhoz kapcsolható információk összességét foglalja magába. Olyan információkat, amelyek által visszakövethető, hogy honnan származik egy kép, videó vagy ki készítette, tehát általa visszakövethető bizonyos szintig bármilyen tartalom” – fejtette ki a szakértő. Hozzátette: Ezt a hatóságok használják arra, hogy megnézzék, kinek a számítógépén tároltak egy bizonyos fotót az elmúlt időszakban.

Illusztráció: Pexels

Emellett a mesterséges intelligencia is kielemezheti a gyanús a tartalmakat, hiszen az AI-t nemcsak arra lehet tanítani, hogy megtévesztő képeket, videókat generáljanak vele, hanem arra, hogy kiszűrjék azokat.

Seer László szerint azonban a blokklánc alapú digitális tartalomkövetésben bízhatunk a leginkább és ez lehet a megoldása annak, hogy a deepfake csalásoknak ne legyen sikere. A blokklánc abban segít, hogy a tartalmakat egyedivé és visszakövethetővé tegyék vele egészen addig a pontig, amíg létrejöttek. Tehát a megfelelő hatóságok vagy platformok gondoskodhatnak arról, hogy a tartalomnak legyen egy „személyi igazolványa”, akárcsak az embereknek. Ahhoz, hogy ez a technológia működni tudjon, még időre van szükség, de talán 5-10 év múlva sikeresen alkalmazhatják.

16/9 vagy 1920x1080
CSAK SAJÁT

Kapcsolódók

Kimaradt?