A kétely kételyébe sodorhat minket a deepfake

Az ultrarealisztikus manipulációk bárkit megtéveszthetnek, a túlzott kétkedéssel viszont oda juthatunk, hogy már a valós információt sem hisszük el. A Lakmusz podcastja a deepfake-ről.

A hamis információk nehézfegyvere, ultrarealisztikus médiamanipuláció

- így deinifiálta a deepfake technológiát Dr. Veszelszki Ágnes, a Budapesti Corvinus Egyetem tanszékvezető docense, az egyetem CGI-Deepfake kutatócsoportjának vezetője. A kutatóval a Lakmusz legutóbbi élő adásában a deepfake jellemzőiről és a nyomában felmerülő jogi, erkölcsi problémákról is beszélgettünk.

Nemrég Karácsony Gergely, budapesti főpolgármester lett deepfake csalás áldozata, a Lakmuszon pedig ebben a cikkben mutattuk be, hogy deepfake techonológiával a pornótól a politikáig szinte bárhol találkozhatunk. Veszelszki szerint az ilyen technológia azért tud hatásos és könnyen hihető lenni, mert egyszerre hat a fülünkre és szemünkre is: valós videórészleteket, valós képrészleteket és valós hangokat használ fel, ezeket gyúrja össze, ezért képes arra, hogy nagyon erőteljesen megtévesztő legyen.

Régóta ismert jelenség például az unokázós csalás, de a deepfake technológia ezt új szintre emeli: hangklónozással (más hangján való megszólalással) a csaló már az unoka hangján tud szólni a nagyszülőhöz. A hangklónozást és a videómanipulációt egyszerre használva pedig még messzemenőbb hatással bírhat, akár politikai, pénzügyi folyamatokra is.

“Egy-egy bejelentés, egy-egy nagy befolyású személynek valamilyen megszólalása, nyilatkozata befolyásolni tudja a tőzsde mozgásait is” - mondta Veszelszki, rámutatva arra, hogy minderről megtévesztő felvételeket is létre lehet hozni deepfake techonológiával.

Jó, de nincs erre valamilyen szabályozás?

Bár sok esetben csalás, megtévesztés és bűncselekmény a deepfake használatának következménye, az egységes szabályozás még nem született meg. „Úgy tűnik, hogy a jog sokkal lassabban követi az ilyen jellegű fejlődést” – mondta Veszelszki. Egyelőre egyes részterületeket, a technológia egy-egy szegmensét tudják szabályozni: a kutató szerint a képmáshoz vagy a jó hírnévhez való jog könnyen megfogható, de a deepfake-re vonatkozó, átfogó szabály nehezen alkotható.

Akkor hogyan tudunk ellene védekezni?

Pontos jogi szabályozás hiányában a deepfake-kel szembeni védekezés felelőssége cégekre és magánszemélyekre hárul. Néhány cég, például a Facebook, a Google és az Adobe is fejlesztett már szoftvereket, amelyek megpróbálják megállapítani egy-egy képről, videóról, hogy deepfake-kel készültek-e. Ez úgy lehetséges, hogy a gép, amely a módosításokat végzi a képen vagy a videón, „nyomokat” hagy maga után - ezt pedig egy másik gép igyekszik felismerni. 

AI fog küzdeni AI ellen, vagyis a mesterséges intelligencia a mesterséges intelligencia ellen 

- mondta Veszelszki.

A hétköznapi ember számára azonban a deepfake kiszűrése már sokkal bonyolultabb dolog, ez derül ki abból a kérdőíves kutatásból is, amelyet Veszelszki tavaly végzett a CGI-Deepfake kutatócsoporttal. A kitöltőknek képekről és videókról kellett eldönteniük, hogy amit látnak, az igazi vagy módosított. Több mint tízezer ember töltötte ki a kérdőívet. Az eredmények szerint:

  • 18 képet és videót néztek meg a kitöltők, ebből átlagosan 11 esetben tudták helyesen megállapítani, hogy manipulált tartalomról van-e szó. 
  • Összességében a kép-és videómanipuláció felismerésében a nők teljesítettek jobban.
  • Életkor szerint nem volt kimutatható eltérés a kitöltők között - tehát a kutatók eredeti feltevése, miszerint a fiatalok jobban fognak teljesíteni, hamisnak bizonyult.


Akkor már semminek nem hihetünk, amit a szemünkkel látunk és a fülünkkel hallunk?

Veszelszki szerint a deepfake tartalmak esetében a sajtónak még mindig megvan “a klasszikus kapuőri szerepe”: szerinte - bár hibák bármikor becsúszhatnak - a tartalmak nagy többségét remélhetőleg a szerkesztőségek tudják ellenőrizni, nemcsak manuálisan, hanem szoftverek segítségével is. 

Azonban ha nem egy sajtóterméknek, hanem “valakinek” a megosztását látjuk, akkor érdemes gyanakodni - Veszelszki azonban figyelmeztet arra is, hogy problematikus lehet az is, ha ezt túlzásba visszük.

“Van egy fogalom, amelyet úgy neveznek, hogy a kétely kételye paradoxon: amikor 

mindenben elkezdünk kételkedni, és már azt sem hisszük el, ami valós információ, ami hiteles, autentikus forrásból származik.

Ezáltal is gyengébbek leszünk, megfélemlíthetőbbek leszünk” - mondta a kutató.

Veszelszki egy olyan problémára is felhívja a figyelmet, amelyet angolul “liar’s dividend”-nek hívnak: olyan környezetben, ahol bizonytalan, hogy mi igaz és mi hamis, a hamis információkat terjesztők járhatnak jól.

Lehet olyan szereplő, aki egy hiteles forrásból származó információra is rámondja, hogy hamis. Ez az az érv, amivel nem lehet mit kezdeni


- mondja Veszelszki, aki szerint a deepfake ehhez hasonló további erkölcsi problémákat is hozhat: nemcsak a sajtó vagy a tudomány állításaiban, hanem a hatóságok, például bíróságok által használt vizuális bizonyítékokban is megrendülhet a bizalom.
 

Maga Einstein magyarázhatja a relativitáselméletet

Maga a technológia persze nemcsak aggályokat hordoz magában, hanem előremutató felhasználási lehetőségeket is. Az oktatásban például a deepfake segítségével megvalósítható az úgynevezett dinamikus storytelling: egy tanórán például akár Einstein magyarázhatja el a diákoknak a relativitáselméletet. De használható az egészségügyben is, hiszen például olyan emberek, akik valamilyen okból kifolyólag elvesztették a beszédkészségüket, a saját hangjukon “szólalhatnak meg”. 

A teljes felvételt (többek közt a deepfake további felhasználási lehetőségeiről) podcast formában itt lehet meghallgatni:

Írta: Orbán Boglárka
Címlapi kép: Alexandra ROBINSON / AFP


A korábbi podcastjainkat meghallgathatod Spotifyon, a Google Podcaston, az Apple Podcaston vagy az omny.fm-en.
Lakmusz