Deepfake-jelentő rendszer, címkézett AI-tartalmak, korlátozott politikai hirdetések: így készülnek a nagy techcégek az EP-választásra

Megnéztük, mit tesz a választási dezinformáció ellen a Meta, a Google, a TikTok és a Microsoft, és mit vár el a cégektől az Európai Bizottság.

Március 26-án két fontos bejelentés történt a választási dezinformáció elleni fellépés témájában. Ezen a napon tette közzé az Európai Bizottság iránymutatásait „a választásokat érintő online rendszerszintű kockázatok csökkentéséről”; és ugyanezen a napon hozták nyilvánosságra a dezinformáció elleni gyakorlati kódexhez (Code of Practice on Disinformation) csatlakozó nagy techcégek legújabb jelentéseiket, melyekben külön fejezetet szenteltek a júniusi európai parlamenti választásnak.

A bizottsági iránymutatás a digitális szolgáltatásokról szóló uniós jogszabályhoz (Digital Services Act, DSA) kapcsolódik, és elsődlegesen az EU-s szinten legalább 45 millió aktív felhasználóval rendelkező kijelölt óriásplatformoknak és keresőmotoroknak szól.

A DSA értelmében a kijelölt techcégeknek kockázatértékelést kell végezniük többek között a szolgáltatásuknak a választási folyamatokra gyakorolt hatásáról, az azonosított kockázatokat pedig „kockázatcsökkentési intézkedésekkel” kell kezelniük. A márciusi iránymutatás ilyen intézkedésekre tesz javaslatot.

A dezinformáció elleni fellépésre vonatkozó gyakorlati kódexhez önkéntes alapon csatlakozhatnak a techcégek, de a vállalások végrehajtását és az erről szóló jelentéseket a Bizottság is nyomon követi. A kódex a DSA-nak való megfelelést is szolgálja.

Ebben a cikkben bemutatjuk,

  • hogy a kódex alapján leadott legfrissebb jelentésekben milyen, kifejezetten a júniusi EP-választáshoz kapcsolódó dezinformáció elleni lépésekről számolt be a négy legfontosabb érintett vállalat, a Meta, a Google, a TikTok és a Microsoft,
  • és hogy mit vár el a DSA alá tartozó cégektől a Bizottság iránymutatása.

A jelentések és az EP választás

A 2024 márciusi volt a harmadik jelentéstételi kör a dezinformáció elleni gyakorlati kódexhez csatlakozó cégek számára. A kódexről a Lakmuszon korábban is több cikkben írtunk.

A kódex aláírói között ott vannak a DSA alá tartozó legfontosabb óriásplatformok és keresőmotorok, így a Meta, a Google, a TikTok és a Microsoft. Bár a Twitter eredetileg csatlakozott a kódexhez, az Elon Musk által X-re átkeresztelt platform 2023 májusában kilépett az önkéntes kezdeményezésből.

Márciusi jelentéseikben a cégek külön fejezetben számoltak be arról, hogy a dezinformáció elleni általános szabályaikon túlmenően milyen külön intézkedésekkel készülnek a június 6. és 9. közötti EP-választásra.

Meta

  • A Meta (a Facebook, az Instagram és a WhatsApp tulajdonosa) például kiterjesztette a tiltott hirdetésekre vonatkozó politikáját, így már az EU tagállamaiban sem engedélyezettek az olyan hirdetések, amelyek eltántorítják az embereket a szavazástól, megkérdőjelezik egy közelgő vagy folyamatban lévő választás jogszerűségét vagy idő előtt megnevezik a választás győztesét.
  • 2023 novemberében bevezettek egy új szabályt arról, hogy a politikai hirdetések feladóinak jelezniük kell, ha a hirdetett tartalmat mesterséges intelligenciával hozták létre vagy módosították. Ha valaki elmulasztja a bejelentést, és a Meta felismeri az AI használatát, akkor elutasítják a hirdetést, ismételt szabálysértés esetén pedig szankcionálhatják is a hirdetőt.

Google

  • A Google arról ír a jelentésben, hogy az EP-választáshoz közeledve be fog építeni egy biztonsági szűrőt AI-alapú chatbotjába, a Geminibe, amely így bizonyos választáshoz kapcsolódó kérdésekre nem ad majd választ.
  • Továbbá a Google Ads-en címkézési kötelezettséget vezettek be az AI segítségével készült választási hirdetésekre (a Google által futtatott hirdetésekkel weboldalakon, illetve a YouTube videói előtt/közben lehet találkozni). A YouTube esetében azt tervezik, hogy minden AI által generált tartalmat kötelező lesz jelölni, de kiemelt figyelmet fordítanak a választásokhoz kapcsolódó videókra.

Tiktok

  • A TikTok elvben eddig is tiltotta a politikai tartalmú hirdetéseket, de mint azt korábbi cikkünkben bemutattuk, ennek ellenére elég sok politikai hirdetés átcsúszott a platform szűrőjén, Magyarországon is. A jelentés szerint most új megközelítéssel próbálkoznak, külön kategóriát hoztak létre a kormányzati, politikusi és politikai pártokhoz kapcsolódó profiloknak, és ezeknél egyáltalán nem engedélyezik a hirdetést.
  • A TikTok azt is vállalta, hogy az EP-választásig minden uniós tagállam legalább egy hivatalos nyelvére kiterjeszti az együttműködését a külsős fact-checkerekkel. A honlapján elérhető térkép szerint a TikToknak jelenleg a három balti államban, Szlovéniában és Luxemburgban nincs tényellenőrző partnere.

Microsoft

Mit akar az Európai Bizottság?

Az Európai Bizottság kockázatcsökkentési iránymutatása szélesebb kört ölel fel a dezinformáció elleni fellépésnél, például a gyűlöletbeszéddel és a szélsőséges tartalmakkal is foglalkozik.

A Bizottság azt javasolja az óriásplatformoknak és keresőmotoroknak, hogy a választások idején erősítsék meg a tartalommoderációs egységeiket és hozzanak létre egy külön csapatot a választással kapcsolatos kockázatok kezelésére.

Konkrét kockázatcsökkentő intézkedésekre a techcégek jelentéseiben szereplőkhöz hasonló ajánlásokat tesz a Bizottság, így például javasolja

  • a hivatalos választási információk és csatornák promotálását,
  • a fact-checking címkék és felugró ablakok megerősített használatát,
  • a hivatalos profilok, ezen belül az EU-n kívüli országok kormányaihoz kapcsolódó profilok világos jelölését,
  • az AI által generált tartalmak címkézését,
  • a dezinformációs tartalmak és a megtévesztő AI-tartalmak elérésének csökkentését,
  • a politikai hirdetések átláthatóságát és a dezinformáció hirdetésének megakadályozását.

Az irányelvek a Bizottság szerint „legjobb gyakorlatokat” jelenítenek meg, betartásuk nem kötelező a DSA alá tartozó szolgáltatóknak, de ha más megoldásokat választanak, akkor meg kell győzniük a Bizottságot arról, hogy azok ugyanolyan hatékonyak a választással kapcsolatos kockázatok csökkentésére. Április végén a Bizottság „stressztesztet” is tervez, hogy felmérje a platformok kockázatcsökkentő intézkedéseinek hatékonyságát.

Ha a Bizottság úgy találja, hogy egy szolgáltató megszegi a DSA-ban foglalt bármely kötelezettségét – például a választási kockázatcsökkentésre vonatkozót -, akkor az éves forgalom akár 6 százalékáig terjedő pénzbírsággal sújthatja a céget.

A Bizottság már több hivatalos eljárást indított a DSA vélelmezett megsértése miatt, például az X és a TikTok ellen.

Az X elleni eljárás egyik jogalapja éppen az információmanipuláció elleni fellépés elégtelensége: a Bizottság azt vizsgálja, hogy az X által alkalmazott „közösségi megjegyzések” rendszere hatékony eszköz-e a választással kapcsolatos kockázatok csökkentésére.

(Címlapi kép forrása: Jonathan Raa/NurPhoto/AFP)

Teczár Szilárd
2012-ben diplomázott az ELTE-n média és kommunikáció szakon, ugyanebben az évben jelent meg az első cikke a Magyar Narancsban. 2013 és 2022 között a hetilap állandó szerzője volt, belpolitikáról és európai uniós témákról írt. Főként ezekkel a témákkal foglalkozik a Lakmusz újságírójaként is, 2022 októberében csatlakozott a csapathoz