A kétely kételyébe sodorhat minket a deepfake
Ezt a cikket 2022
júliusában írtuk.
A benne lévő
információk azóta elavulhattak.
Az ultrarealisztikus manipulációk bárkit megtéveszthetnek, a túlzott kétkedéssel viszont oda juthatunk, hogy már a valós információt sem hisszük el. A Lakmusz podcastja a deepfake-ről.
A hamis információk nehézfegyvere, ultrarealisztikus médiamanipuláció
– így deinifiálta a deepfake technológiát Dr. Veszelszki Ágnes, a Budapesti Corvinus Egyetem tanszékvezető docense, az egyetem CGI-Deepfake kutatócsoportjának vezetője. A kutatóval a Lakmusz legutóbbi élő adásában a deepfake jellemzőiről és a nyomában felmerülő jogi, erkölcsi problémákról is beszélgettünk.
Nemrég Karácsony Gergely, budapesti főpolgármester lett deepfake csalás áldozata, a Lakmuszon pedig ebben a cikkben mutattuk be, hogy deepfake techonológiával a pornótól a politikáig szinte bárhol találkozhatunk. Veszelszki szerint az ilyen technológia azért tud hatásos és könnyen hihető lenni, mert egyszerre hat a fülünkre és szemünkre is: valós videórészleteket, valós képrészleteket és valós hangokat használ fel, ezeket gyúrja össze, ezért képes arra, hogy nagyon erőteljesen megtévesztő legyen.
Régóta ismert jelenség például az unokázós csalás, de a deepfake technológia ezt új szintre emeli: hangklónozással (más hangján való megszólalással) a csaló már az unoka hangján tud szólni a nagyszülőhöz. A hangklónozást és a videómanipulációt egyszerre használva pedig még messzemenőbb hatással bírhat, akár politikai, pénzügyi folyamatokra is.
“Egy-egy bejelentés, egy-egy nagy befolyású személynek valamilyen megszólalása, nyilatkozata befolyásolni tudja a tőzsde mozgásait is” – mondta Veszelszki, rámutatva arra, hogy minderről megtévesztő felvételeket is létre lehet hozni deepfake techonológiával.
Jó, de nincs erre valamilyen szabályozás?
Bár sok esetben csalás, megtévesztés és bűncselekmény a deepfake használatának következménye, az egységes szabályozás még nem született meg. „Úgy tűnik, hogy a jog sokkal lassabban követi az ilyen jellegű fejlődést” – mondta Veszelszki. Egyelőre egyes részterületeket, a technológia egy-egy szegmensét tudják szabályozni: a kutató szerint a képmáshoz vagy a jó hírnévhez való jog könnyen megfogható, de a deepfake-re vonatkozó, átfogó szabály nehezen alkotható.
Akkor hogyan tudunk ellene védekezni?
Pontos jogi szabályozás hiányában a deepfake-kel szembeni védekezés felelőssége cégekre és magánszemélyekre hárul. Néhány cég, például a Facebook, a Google és az Adobe is fejlesztett már szoftvereket, amelyek megpróbálják megállapítani egy-egy képről, videóról, hogy deepfake-kel készültek-e. Ez úgy lehetséges, hogy a gép, amely a módosításokat végzi a képen vagy a videón, „nyomokat” hagy maga után – ezt pedig egy másik gép igyekszik felismerni.
AI fog küzdeni AI ellen, vagyis a mesterséges intelligencia a mesterséges intelligencia ellen
– mondta Veszelszki.
A hétköznapi ember számára azonban a deepfake kiszűrése már sokkal bonyolultabb dolog, ez derül ki abból a kérdőíves kutatásból is, amelyet Veszelszki tavaly végzett a CGI-Deepfake kutatócsoporttal. A kitöltőknek képekről és videókról kellett eldönteniük, hogy amit látnak, az igazi vagy módosított. Több mint tízezer ember töltötte ki a kérdőívet. Az eredmények szerint:
- 18 képet és videót néztek meg a kitöltők, ebből átlagosan 11 esetben tudták helyesen megállapítani, hogy manipulált tartalomról van-e szó.
- Összességében a kép-és videómanipuláció felismerésében a nők teljesítettek jobban.
- Életkor szerint nem volt kimutatható eltérés a kitöltők között – tehát a kutatók eredeti feltevése, miszerint a fiatalok jobban fognak teljesíteni, hamisnak bizonyult.
Akkor már semminek nem hihetünk, amit a szemünkkel látunk és a fülünkkel hallunk?
Veszelszki szerint a deepfake tartalmak esetében a sajtónak még mindig megvan “a klasszikus kapuőri szerepe”: szerinte – bár hibák bármikor becsúszhatnak – a tartalmak nagy többségét remélhetőleg a szerkesztőségek tudják ellenőrizni, nemcsak manuálisan, hanem szoftverek segítségével is.
Azonban ha nem egy sajtóterméknek, hanem “valakinek” a megosztását látjuk, akkor érdemes gyanakodni – Veszelszki azonban figyelmeztet arra is, hogy problematikus lehet az is, ha ezt túlzásba visszük.
“Van egy fogalom, amelyet úgy neveznek, hogy a kétely kételye paradoxon: amikor
mindenben elkezdünk kételkedni, és már azt sem hisszük el, ami valós információ, ami hiteles, autentikus forrásból származik.
Ezáltal is gyengébbek leszünk, megfélemlíthetőbbek leszünk” – mondta a kutató.
Veszelszki egy olyan problémára is felhívja a figyelmet, amelyet angolul “liar’s dividend”-nek hívnak: olyan környezetben, ahol bizonytalan, hogy mi igaz és mi hamis, a hamis információkat terjesztők járhatnak jól.
Lehet olyan szereplő, aki egy hiteles forrásból származó információra is rámondja, hogy hamis. Ez az az érv, amivel nem lehet mit kezdeni
– mondja Veszelszki, aki szerint a deepfake ehhez hasonló további erkölcsi problémákat is hozhat: nemcsak a sajtó vagy a tudomány állításaiban, hanem a hatóságok, például bíróságok által használt vizuális bizonyítékokban is megrendülhet a bizalom.
Maga Einstein magyarázhatja a relativitáselméletet
Maga a technológia persze nemcsak aggályokat hordoz magában, hanem előremutató felhasználási lehetőségeket is. Az oktatásban például a deepfake segítségével megvalósítható az úgynevezett dinamikus storytelling: egy tanórán például akár Einstein magyarázhatja el a diákoknak a relativitáselméletet. De használható az egészségügyben is, hiszen például olyan emberek, akik valamilyen okból kifolyólag elvesztették a beszédkészségüket, a saját hangjukon “szólalhatnak meg”.
A teljes felvételt (többek közt a deepfake további felhasználási lehetőségeiről) podcast formában itt lehet meghallgatni:
Írta: Orbán Boglárka
Címlapi kép: Alexandra ROBINSON / AFP
A korábbi podcastjainkat meghallgathatod Spotifyon, a Google Podcaston, az Apple Podcaston vagy az omny.fm-en.
A szerzőről

Lakmusz
Kövess minket
Ne maradj le egy anyagunkról sem, kövess minket máshol is!
Ajánlott cikkeink

Takács Péter szerint majdnem az összes műtőt klimatizálták, de az ezt állítólag alátámasztó felmérést senki nem akarja megmutatni

800 ezres, 2010 óta megnégyszerezett ápolói átlagbérrel büszkélkedik a kormány – megszereztük a pontos számokat
