A hamis információk nehézfegyvere, ultrarealisztikus médiamanipuláció
- így deinifiálta a deepfake technológiát Dr. Veszelszki Ágnes, a Budapesti Corvinus Egyetem tanszékvezető docense, az egyetem CGI-Deepfake kutatócsoportjának vezetője. A kutatóval a Lakmusz legutóbbi élő adásában a deepfake jellemzőiről és a nyomában felmerülő jogi, erkölcsi problémákról is beszélgettünk.
Nemrég Karácsony Gergely, budapesti főpolgármester lett deepfake csalás áldozata, a Lakmuszon pedig ebben a cikkben mutattuk be, hogy deepfake techonológiával a pornótól a politikáig szinte bárhol találkozhatunk. Veszelszki szerint az ilyen technológia azért tud hatásos és könnyen hihető lenni, mert egyszerre hat a fülünkre és szemünkre is: valós videórészleteket, valós képrészleteket és valós hangokat használ fel, ezeket gyúrja össze, ezért képes arra, hogy nagyon erőteljesen megtévesztő legyen.
Régóta ismert jelenség például az unokázós csalás, de a deepfake technológia ezt új szintre emeli: hangklónozással (más hangján való megszólalással) a csaló már az unoka hangján tud szólni a nagyszülőhöz. A hangklónozást és a videómanipulációt egyszerre használva pedig még messzemenőbb hatással bírhat, akár politikai, pénzügyi folyamatokra is.
“Egy-egy bejelentés, egy-egy nagy befolyású személynek valamilyen megszólalása, nyilatkozata befolyásolni tudja a tőzsde mozgásait is” - mondta Veszelszki, rámutatva arra, hogy minderről megtévesztő felvételeket is létre lehet hozni deepfake techonológiával.
Bár sok esetben csalás, megtévesztés és bűncselekmény a deepfake használatának következménye, az egységes szabályozás még nem született meg. „Úgy tűnik, hogy a jog sokkal lassabban követi az ilyen jellegű fejlődést” – mondta Veszelszki. Egyelőre egyes részterületeket, a technológia egy-egy szegmensét tudják szabályozni: a kutató szerint a képmáshoz vagy a jó hírnévhez való jog könnyen megfogható, de a deepfake-re vonatkozó, átfogó szabály nehezen alkotható.
Pontos jogi szabályozás hiányában a deepfake-kel szembeni védekezés felelőssége cégekre és magánszemélyekre hárul. Néhány cég, például a Facebook, a Google és az Adobe is fejlesztett már szoftvereket, amelyek megpróbálják megállapítani egy-egy képről, videóról, hogy deepfake-kel készültek-e. Ez úgy lehetséges, hogy a gép, amely a módosításokat végzi a képen vagy a videón, „nyomokat” hagy maga után - ezt pedig egy másik gép igyekszik felismerni.
AI fog küzdeni AI ellen, vagyis a mesterséges intelligencia a mesterséges intelligencia ellen
- mondta Veszelszki.
A hétköznapi ember számára azonban a deepfake kiszűrése már sokkal bonyolultabb dolog, ez derül ki abból a kérdőíves kutatásból is, amelyet Veszelszki tavaly végzett a CGI-Deepfake kutatócsoporttal. A kitöltőknek képekről és videókról kellett eldönteniük, hogy amit látnak, az igazi vagy módosított. Több mint tízezer ember töltötte ki a kérdőívet. Az eredmények szerint:
Veszelszki szerint a deepfake tartalmak esetében a sajtónak még mindig megvan “a klasszikus kapuőri szerepe”: szerinte - bár hibák bármikor becsúszhatnak - a tartalmak nagy többségét remélhetőleg a szerkesztőségek tudják ellenőrizni, nemcsak manuálisan, hanem szoftverek segítségével is.
Azonban ha nem egy sajtóterméknek, hanem “valakinek” a megosztását látjuk, akkor érdemes gyanakodni - Veszelszki azonban figyelmeztet arra is, hogy problematikus lehet az is, ha ezt túlzásba visszük.
“Van egy fogalom, amelyet úgy neveznek, hogy a kétely kételye paradoxon: amikor
mindenben elkezdünk kételkedni, és már azt sem hisszük el, ami valós információ, ami hiteles, autentikus forrásból származik.
Ezáltal is gyengébbek leszünk, megfélemlíthetőbbek leszünk” - mondta a kutató.
Veszelszki egy olyan problémára is felhívja a figyelmet, amelyet angolul “liar’s dividend”-nek hívnak: olyan környezetben, ahol bizonytalan, hogy mi igaz és mi hamis, a hamis információkat terjesztők járhatnak jól.
Lehet olyan szereplő, aki egy hiteles forrásból származó információra is rámondja, hogy hamis. Ez az az érv, amivel nem lehet mit kezdeni
- mondja Veszelszki, aki szerint a deepfake ehhez hasonló további erkölcsi problémákat is hozhat: nemcsak a sajtó vagy a tudomány állításaiban, hanem a hatóságok, például bíróságok által használt vizuális bizonyítékokban is megrendülhet a bizalom.
Maga a technológia persze nemcsak aggályokat hordoz magában, hanem előremutató felhasználási lehetőségeket is. Az oktatásban például a deepfake segítségével megvalósítható az úgynevezett dinamikus storytelling: egy tanórán például akár Einstein magyarázhatja el a diákoknak a relativitáselméletet. De használható az egészségügyben is, hiszen például olyan emberek, akik valamilyen okból kifolyólag elvesztették a beszédkészségüket, a saját hangjukon “szólalhatnak meg”.
A teljes felvételt (többek közt a deepfake további felhasználási lehetőségeiről) podcast formában itt lehet meghallgatni: