Március 26-án két fontos bejelentés történt a választási dezinformáció elleni fellépés témájában. Ezen a napon tette közzé az Európai Bizottság iránymutatásait „a választásokat érintő online rendszerszintű kockázatok csökkentéséről”; és ugyanezen a napon hozták nyilvánosságra a dezinformáció elleni gyakorlati kódexhez (Code of Practice on Disinformation) csatlakozó nagy techcégek legújabb jelentéseiket, melyekben külön fejezetet szenteltek a júniusi európai parlamenti választásnak.
A bizottsági iránymutatás a digitális szolgáltatásokról szóló uniós jogszabályhoz (Digital Services Act, DSA) kapcsolódik, és elsődlegesen az EU-s szinten legalább 45 millió aktív felhasználóval rendelkező kijelölt óriásplatformoknak és keresőmotoroknak szól.
A DSA értelmében a kijelölt techcégeknek kockázatértékelést kell végezniük többek között a szolgáltatásuknak a választási folyamatokra gyakorolt hatásáról, az azonosított kockázatokat pedig „kockázatcsökkentési intézkedésekkel” kell kezelniük. A márciusi iránymutatás ilyen intézkedésekre tesz javaslatot.
A dezinformáció elleni fellépésre vonatkozó gyakorlati kódexhez önkéntes alapon csatlakozhatnak a techcégek, de a vállalások végrehajtását és az erről szóló jelentéseket a Bizottság is nyomon követi. A kódex a DSA-nak való megfelelést is szolgálja.
Ebben a cikkben bemutatjuk,
A 2024 márciusi volt a harmadik jelentéstételi kör a dezinformáció elleni gyakorlati kódexhez csatlakozó cégek számára. A kódexről a Lakmuszon korábban is több cikkben írtunk.
A kódex aláírói között ott vannak a DSA alá tartozó legfontosabb óriásplatformok és keresőmotorok, így a Meta, a Google, a TikTok és a Microsoft. Bár a Twitter eredetileg csatlakozott a kódexhez, az Elon Musk által X-re átkeresztelt platform 2023 májusában kilépett az önkéntes kezdeményezésből.
Márciusi jelentéseikben a cégek külön fejezetben számoltak be arról, hogy a dezinformáció elleni általános szabályaikon túlmenően milyen külön intézkedésekkel készülnek a június 6. és 9. közötti EP-választásra.
Meta
Tiktok
Microsoft
Az Európai Bizottság kockázatcsökkentési iránymutatása szélesebb kört ölel fel a dezinformáció elleni fellépésnél, például a gyűlöletbeszéddel és a szélsőséges tartalmakkal is foglalkozik.
A Bizottság azt javasolja az óriásplatformoknak és keresőmotoroknak, hogy a választások idején erősítsék meg a tartalommoderációs egységeiket és hozzanak létre egy külön csapatot a választással kapcsolatos kockázatok kezelésére.
Konkrét kockázatcsökkentő intézkedésekre a techcégek jelentéseiben szereplőkhöz hasonló ajánlásokat tesz a Bizottság, így például javasolja
Az irányelvek a Bizottság szerint „legjobb gyakorlatokat” jelenítenek meg, betartásuk nem kötelező a DSA alá tartozó szolgáltatóknak, de ha más megoldásokat választanak, akkor meg kell győzniük a Bizottságot arról, hogy azok ugyanolyan hatékonyak a választással kapcsolatos kockázatok csökkentésére. Április végén a Bizottság „stressztesztet” is tervez, hogy felmérje a platformok kockázatcsökkentő intézkedéseinek hatékonyságát.
Ha a Bizottság úgy találja, hogy egy szolgáltató megszegi a DSA-ban foglalt bármely kötelezettségét – például a választási kockázatcsökkentésre vonatkozót -, akkor az éves forgalom akár 6 százalékáig terjedő pénzbírsággal sújthatja a céget.
A Bizottság már több hivatalos eljárást indított a DSA vélelmezett megsértése miatt, például az X és a TikTok ellen.
Az X elleni eljárás egyik jogalapja éppen az információmanipuláció elleni fellépés elégtelensége: a Bizottság azt vizsgálja, hogy az X által alkalmazott „közösségi megjegyzések” rendszere hatékony eszköz-e a választással kapcsolatos kockázatok csökkentésére.
(Címlapi kép forrása: Jonathan Raa/NurPhoto/AFP)