Nemcsak a valós szenvedés képei, hanem már AI-kreálmányok is terjednek a Hamász-izraeli háborúról

Ha a gyerekeivel menekülő palesztin apának több ujja van a kelleténél, úgy még egész könnyű kiszúrni a mesterséges intelligenciát. A képügynökségi stockfotók azonban csak bonyolítják a helyzetet. Miből láthatod, mi valós és mi nem?

Izrael és a Hamász háborúját az első pillanattól kezdve komoly dezinformációs hullám kíséri. A félrevezető tartalmak nagyrészt “újrahasznosított” anyagok: valódi fotók vagy videók, amelyek azonban máshol vagy máskor készültek, nem a jelenleg zajló háborúban. Ezeket pusztán figyelmetlenségből, de akár szándékosan is terjeszthetik megtévesztő módon a közösségi platformokon.

Ehhez képest szintlépés, amikor nem valódi képek terjednek virálisan. A mesterséges intelligencia (MI vagy angolul AI, artificial intelligence) rohamos fejlődésével egyre nagyobb számban jelennek meg a dezinformációs tartalmak között mesterségesen előállított képek, videók és hanganyagok.

  • Hogyan készülnek ezek a tartalmak?
  • Milyen nagyságrendben jelentek meg az Izrael-Hamász háborúban?
  • Milyen narratívákat erősítenek fel?
  • Kitől származnak?
  • Milyen veszélyeket jelentenek?
  • Hogyan lehet felismerni őket?

Ezeket a kérdéseket járjuk körül a következőkben.

MI vagy generatív MI?

A mesterséges intelligencia legújabb, generatívnak nevezett modelljei elsősorban abban különböznek a “klasszikus” MI-től, hogy nem kizárólag előre betáplált adatokból tanulnak, és nemcsak adatalapú döntéseket, előrejelzéseket hoznak, hanem

képesek szöveges utasítások, úgynevezett “promptok” alapján új képi, grafikus vagy szöveges tartalmakat előállítani.

A generatív MI tehát már a rendelkezésre álló adatok megváltoztatásával hoz létre új tartalmat, legyen az szöveg, kép, videó, 3D-s grafika vagy hang. A generatív MI elterjedését két tényező segítette leginkább:

  • egyre több ingyenes vagy olcsó eszköz jelent meg az interneten, amivel ilyen tartalmakat készíthetünk,
  • a szöveges utasításokra épülő működésmód pedig jelentősen megkönnyíti a technológia használatát.

Hogyan készülnek az MI-generált tartalmak?

A mesterséges intelligencia rohamos fejlődése miatt az utóbbi időben egyre egyszerűbb előállítani tartalmakat ingyen vagy olcsón hozzáférhető generatív eszközökkel, mint például a Midjourney vagy a Dall-E, de számos másik tech-cég elindította saját generatív MI szolgáltatását. Ilyenek – a teljesség igénye nélkül – például a google Bard, a stability.ai, a Github vagy a Claude (MI-generált stockfotókat, azaz előre elkészített, illusztrációnak szánt fotókat pedig az Adobe Firefly és Gettyimages is árusít).

A szöveggenerálásra használható mesterséges intelligenciák közül a legismertebb talán a ChatGPT, de számtalan cég kínál hasonló szolgáltatást. Természetesen nemcsak képeket és szövegeket, hanem videókat is tudunk MI-vel készíteni, amire szintén rengeteg cég kínál ingyenes, vagy legalábbis igen olcsó megoldást, például a Lumen5 képek alapján, az InVideo pedig szöveges promptok alapján készíti videókat.

A mesterséges intelligencia alapú képalkotás - számos ártalmatlan felhasználási módja mellett - hamar a szándékos félretájékoztatás, azaz a dezinformáció egyik fontos eszköze lett. Hogy egy közeli példát említsünk: látványosan sok MI-generált deepfake hangfelvétellel lehetett találkozni például az idén szeptemberben lezajlott szlovák választásokat megelőző kampányidőszakban.

De előszeretettel használnak félrevezető céllal mesterséges intelligenciával készült képeket, videókat a fegyveres konfliktusokat kísérő információs háborúban is.

A generatív MI működése az adatgyűjtéssel kezdődik, amely során az algoritmus adatállományt állít össze a generálandó tartalom példáiból. Ha például egy idős biciklistáról szeretnénk fotót generálni, akkor az MI először összegyűjt rengeteg ilyen képet, megtanulja az adatok alapjául szolgáló mintákat és struktúrákat, végül pedig előállítja az új tartalmat, ami a tanulás során elsajátított adatok szintézise. A generatív MI alapja az úgynevezett “mélytanulás”, amely az emberi agy működését utánozza az adatok feldolgozásában és a döntéshozatalhoz szükséges minták létrehozásában.

Az MI és a Hamász-izraeli háború

A mesterséges intelligencia már az ukrajnai orosz invázió során megjelent mint dezinformációs eszköz (például így készült az a deepfake video, amelyben Putyin bejelentette, hogy megtámadták Oroszországot). Így a Hamász-izraeli háború idén októberi kirobbanásakor a szakértők arra számítottak, hogy az MI-generált tartalmaknak még nagyobb szerep jut majd.

Az MI-alapú dezinformáció nagy áradata azonban egyelőre elmaradt

- erről beszélt a Deutsche Wellé-nek nyilatkozva Tomasso Canetta, az Európai Digitális Média Obszervatórium (EDMO) munkatársa. És erre jutott rajta kívül a téma több más szakértője is. Ez azonban távolról sem azt jelenti, hogy ne jelentek volna meg a lassan két hónapja zajló háborúban olyan, erős érzelmi hatást kiváltó fotók, amelyeket tömegek osztottak meg a közösségi médiában úgy, hogy közben azok nem is valódiak voltak.

Az X-en és az Instagramon rengetegen osztották meg például ezt a fotót, amelyen egy gyermekeivel menkülő palesztin férfi látható.

Gyerekeivel menekülő férfi MI-generált képe.

A kép valóban erős érzelmi hatást vált ki, de ha jobban szemügyre vesszük, látható, hogy a jelenet nem valós. A férfi jobb válla például nagyon aránytalan, az egyik kisgyerek mintha a férfi pulóveréből nőne ki, és az is árulkodó, ahogy az apa nyakába kapaszkodó fiúk keze összeolvad, illetve a kezében tartott babának sincs meg mindegyik lábujja. Ez utóbbi, azaz a kéz- és lábujjak nem megfelelő száma gyakori hiba az MI-vel generált képeknél, könnyen lebuktathatja ezeket. Az X-en a felhasználók a közösségi jegyzetekben jelezték is, hogy a fenti fotó nem valódi, ennek ellenére mégis sokan megosztották.

De nem ez volt az egyetlen MI-vel készült kép, amely virálissá vált: a romok tetején vacsorázó palesztin család vagy a törmelékhalom alá szorult csecsemő képét szintén felkapták a közösségi oldalakon. Ez utóbbi később az egyik legolvasottabb francia lap, a Libération címlapján is megjelent. A lapot sok kritika érte a címlapfotó miatt, amelyen egy feldühödött tüntető tartja magasba a síró csecsemő MI-generált fényképét. A Libération igazgatója azzal védekezett, hogy erőforráspazarlás lenne, ha a tüntetéseken használt összes transzparenst – és az azokon látható hamis propagandaanyagokat – egyenként ellenőriznék, azt azonban elismerte, hogy jelezniük kellett volna, hogy a címlapi képen a tüntető kezében egy MI-generált kép látható. Állítása szerint erre azért nem került sor, mert a fotót közlő Associated Press hírügynökség sem jelezte ezt, amit sajnálatosnak tart mind a lap, mind az AP részéről.

A Libération francia újság 2023. október 19-i számának címlapja a kairói tüntetésen készült fotóval. Forrás: Libération.fr

Hasonló kép szerepel egy másik hírügynökség, az AFP fotóadatbázisában is: a képet ugyanazon a tüntetésen készítették, és szintén az MI-generált csecsemőfotó látható rajta - azonban az AFP sem jelezte, hogy a fotón szereplő ember MI-generált képet tart a magasba.

Palesztinpárti tüntetők, Kairo, Egyiptom, 2023 október 18. (Fotó: Mahmoud Elkhwas / NurPhoto / NurPhoto via AFP)

De nem ez volt az egyetlen eset, hogy egy hamis MI-kép utat talált a szélesebb nyilvánosságban: egy bulgáriai online újság még ennél is súlyosabb hibát követett el, amikor a romok között vonuló izraeli katonák MI-vel készült fotóját közölte úgy, mintha az valódi lett volna.

Milyen narratívákat erősítenek fel az Izrael-Hamász háborúban az MI-vel generált tartalmak?

A közösségi médiában terjedő hamis tartalmak egyik fontos jellemzője, hogy igyekeznek erős érzelmi hatást kiváltani, minél sokkolóbb ugyanis egy tartalom, dezinformációs szempontból annál hatékonyabb. Erről a jelenségről korábban nyilatkozott a Lakmusznak a Political Capital igazgatója, Krekó Péter politológus, egyetemi docens.

A már idézett Tommaso Canetta két kategóriába sorolja a dezinformációs célokra használt képeket:

  • az egyik kategória a civil lakosság szenvedését ábrázolva próbál szimpátiát ébreszteni,
  • a másik kategóriába pedig azok a tartalmak tartoznak, amelyek a hazafias érzelmekre hatnak,

legyen szó bármelyik, a konfliktusban érintett félről.

Eladó MI-generált képek a Hamász-izraeli háborúról

A legtöbb MI-generált háborús tartalom ugyan továbbra is a közösségi médiában, jellemzően álprofilokon jelenik meg először, mostanra más plaformokon is hozzá lehet férni ilyen témájú, MI-vel készített képekhez. Nagy képügynökségek, mint például az Adobe Stock vagy a Shutterstock stockfotó szolgáltatásuk részeként kínálnak MI-generált tartalmakat a Gázában zajló háborúról is.

Ezt az üzleti gyakorlatot sok kritika érte. Szakértők szerint a mesterséges intelligencia alapú képalkotás gyors fejlődése és elterjedése egyre nehezebbé teszi az MI-generált képek megkülönböztetését a valódi fotóktól. Ha ezek terjesztésébe a nagy képügynükségek is beszállnak valós eseményeket illusztráló, sokszor a megtévesztésig realisztikus képek árusításával, az tovább súlyosbítja a helyzetet.

Bár a cégek a képtárban elvileg egyértelműen jelzik, hogy a megvásárolható fotó mesterséges intelligencia felhasználásával készült, az már egyáltalán nem biztos, hogy ezt a felhasználók is megteszik. A Deutche Welle fordított képkereséssel talált is olyan hírportált, ahol az alábbi Gáza témájú stockfotót - ami elérhető volt az Adobe kínálatában - bármiféle jelzés nélkül használják, így az sem derül ki, hogy MI-generált. Az eredetileg 2023. október 21-én megjelent cikk 2023. november 24-én továbbra is olvasható volt.

MI-generált fotó a Newsbreak.com híroldalon. (Forrás: dw.com)

De hasonló fordult elő az Európai Parlament Kutatószolgálatával (EPRS) is. A szervezet egy Adobe Stocktól vásárolt fotóval illusztrálta az egyik publikációját anélkül, hogy feltüntette volna, hogy a kép nem egy valós helyszínt ábrázol, hanem mesterséges intelligenciával generálták. Az írás továbbra is olvasható a kutatószolgálat honlapján, azonban az MI-generált képet már leszedték.

Mit lehet tenni, ha nem akarunk bedőlni az MI-generált hamis tartalmaknak?

Bár a mesterséges intelligenciával előállított képek a technológia rohamos fejlődésével egyre valóságosabbnak tűnnek, néhány gyakorlati tipp segítségével még mindig jó eséllyel ki lehet szűrni őket.

Ha megfordul a fejedben, hogy a kép, amit látsz, esetleg nem valódi:

  • vesd össze az eseményről készült más felvételekkel,
  • ellenőrizd, hogy található-e alatta információ a kép készítőjéről vagy a hírügynökségről,
  • vedd alaposan szemügyre, hogy találsz-e hibákat a képen (úgynevezett számítógépes "glitch"-eket),
  • esetleg futtasd le egy képfelismerő programon, hogy AI készítette-e a képet.

De árulkodó lehet az elmosódott háttér, a képen szereplő személyek aszimmetrikus arca (például, ha a fogak nem középen helyezkednek el, vagy ha eltérő méretűek a szemek), a bőrbe “beleolvadó” tárgyak (szemüveg, fülbevaló, stb.), a kezeken és lábakon látható ujjak száma, vagy ha az árnyékok ugyanabba az irányba esnek.

Bár ez a módszer sem tökéletes, ellenőrizhetjük a gyanús tartalmakat erre a célra fejlesztett MI-eszközökkel is. Fotókat az aiornot.com, vagy az app.illuminarty.ai, szövegeket a gptzero.me, hangfájlokat az aivoicedetector.com tud ellenőrizni.

Fontos azonban észben tartani, hogy a mesterséges intelligencia felismerő alkalmazások még nem elég hatékonyak, ezért 100 százalékos biztonsággal nem tudjuk ellenőrizni, hogy egy képet, szöveget vagy hangfelvételt mesterséges intelligencia generált-e. Sőt, még az is előfordulhat, hogy a detektor valódi tartalmat minősít hamisnak.

Tehát a legjobb, amit tehetünk, ha a józan eszünket használjuk, megbízható médiumokból tájékozódunk, és nem osztjuk meg a gyanús tartalmakat, akár mesterséges intelligenciával készültek, akár más módszerrel. Arra azonban mindenképpen érdemes felkészülni, hogy az MI további fejlődésével egyre nehezebb dolgunk lesz, ha meg akarjuk különböztetni a hamis és valódi tartalmakat.

A cikkben idézett EDMO-t (European Digital Media Observatory) 2020-ban hozta létre az Európai Bizottság az álhírek és dezinformáció-ellenes stratégia részeként. A szervezetnek a Lakmusz is tagja.

Totth Benedek
Műfordító, szerkesztő, író, tizenöt évig dolgozott szabadúszóként a könyvkiadásban. Regényeket, novellákat, színdarabokat fordított (többek közt Cormac McCarthy, Aldous Huxley és Hunter S. Thompson műveit), majd szerkesztőként dolgozott több kiadónál. Az első regénye a Margó-díjas Holtverseny volt, ezt követte 2017-ben Az utolsó utáni háború. Eddig főként irodalmi folyóiratokban publikált, 2023 őszén kezdett újságot írni a Lakmusznál.