A hamis profilok nem valós személyeket képviselnek, nincsenek jogaik

Hogy tudja az Európai Unió rábírni a nagy tech cégeket, hogy többet tegyenek a dezinformáció terjedése ellen? Interjú Alberto Rabbachinnal, aki az Európai Bizottság munkatársaként évek óta foglalkozik ezzel a kérdéssel.

Az Európai Unió már régóta igyekszik rábírni a nemzetközi techcégeket, hogy tegyenek többet azért, hogy megvédjék a felhasználókat a hamis, félrevezető, gyűlöletkeltő, jogsértő tartalmaktól. 2018-ban tető alá hozták dezinformáció visszaszorítását célzó gyakorlati kódexet. Ezt aláírva az ágazat legnagyobb nemzetközi szereplői, például a Twitter, a TikTok, a Facebookot és az Instagramot működtető Meta, a Google vagy a Microsoft is vállalták, hogy aktívan tesznek platformjaikon a káros tartalmak terjedése ellen.

A gyakorlatban azonban egyelőre korántsem vizsgáznak jól a cégek. Egy friss jelentés például feltárta, hogy a legnagyobb techcégek komoly biztonsági kockázatot okoztak az Európai Uniónak azzal, hogy nem sikerült visszaszorítaniuk az orosz dezinformáció terjedését a platformjaikon.

Milyen további és lehetőségei vannak az EU-nak a nagy platformcégek szabályozására? Alberto Rabbachinnal, az Európai Bizottság Kommunikációs hálózatok, tartalom és technológia főigazgatóságának (CNECT) osztályvezető-helyettesével beszélgettünk erről.

A 2018-ban elfogadott, a dezinformáció visszaszorítását célzó gyakorlati kódexet 2022 júniuásban kibővítették. Miért volt erre szükség, miben más ez az új változat?

2020 szeptemberében egy jelentésben szedtük össze, hogy milyen hiányosságokat látunk mind a kódexben, mind abban, ahogy az aláírók megvalósítják a dokumentumban leírtakat. Az egyik legfontosabb megállapításunk az volt, hogy már az ellenőrzés is nehéz, mert nincsenek megfelelő indikátorok, amelyek alapján egységes beszámolókat tudnak leadni az aláírók. Ráadásul sokszor kaptunk olyan információkat a platformoktól, amelyek ugyan érdekesek voltak, de a kódex megvalósításának szempontjából nem voltak relevánsak.

Szerettünk volna többet tudni például arról, hogy mennyi hirdetési bevétel jut olyan oldalaknak, amelyek dezinformációt terjesztenek. Vagy hogy milyen megállapodásuk van a platformoknak a tényellenőrzőkkel, vannak-e adataik arra vonatkozóan, hogy mennyi tényellenőrző cikket használnak fel, és hogyan hasznosítják a platformok a tényellenőrzőktől kapott információkat.

Azt is szerettük volna, ha az addigi aláírókhoz más szereplők is csatlakoznak, nem csupán a platformok. A 2018-as kódex aláírói között ugyan találni lehetett néhány reklámipari egyesületet, de hiányoztak a civil szervezetek, a hirdetők vagy a tényellenőrző oldalak. A 2022-es, megújított kódexet 34-en írták alá, azóta még tízen csatlakoztak (az aláírók jelenlegi névsora itt található), köztük hirdetéssel foglalkozó szervezetek vagy tényellenőrző oldalak. Az új szöveg sokkal komplexebb, mint a 2018-as kódex volt: 44 vállalást tartalmaz és több mint száz intézkedést.

Új elemként létrejött egy olyan munkacsoport is, amely folyamatosan figyeli a kódexben leírtak megvalósítását. Ennek a munkacsoportnak az Európai Bizottság az elnöke, így hozzánk is hetente eljut, mit csinálnak a platformok. Amikor az első jelentés idén februárban megjelent, az adatok kevésbé voltak átláthatók. (A jelentést a Lakmuszon is elemeztük.) Ma már a jelentések is egy közös minta alapján készülnek. Azt reméljük, hogy az újonnan megjelenő riportok már könnyebben emészthetők és hasznosabbak lesznek. Ráadásul megjelennek majd új indikátorok is, amelyek alkalmasak lesznek arra, hogy a platformokon megjelenő dezinformáció nagyságrendjét is mérni tudjuk.

Alberto Rabbachin

És mi a helyzet a Twiterrel (új nevén X), amely értékelhetetlen jelentést adott le? Ennek lesznek következményei?

A Twitter idén januárban leadta az akkor esedékes beszámolóját, májusban viszont arról tájékoztatta a Bizottságot és a kódex aláíróit,

hogy kiszáll, és nem vesz részt a kódexben leírtak megvalósításában. Mivel a kódex aláírása egyelőre teljesen önkéntes, ezt bármelyik aláíró megteheti.

Viszont augusztusban életbe lépett a digitális szolgáltatásokról szóló jogszabály (angolul Digital Services Act, DSA), így a platformoknak nemsokára kötelességük lesz kockázatelemzést végezni azzal kapcsolatban, hogy mi történik a saját felületükön. A dezinformáció visszaszorítását célzó kódex jelenleg egy "gyakorlati" kódex, a DSA életbe lépésével azonban hamarosan "magatartási" kódexé válik. Ez azt jelenti, hogy ha például a Twitter nem teljesíti a jelentéstételi kötelezettségét, akkor annak már lesznek következményei. Ahogy az adatok ellenőrzése is könnyebbé válik. Most csak remélni tudjuk, hogy a kódex aláírói jóhiszeműen adják meg az adatokat, a magatartási kódexszel azonban az ellenőrzés is egyszerűbbé válik.

Mikorra várható, hogy a gyakorlati kódexből magatartási kódex lesz?

Pontos időpontot nem tudok mondani, mert meg kell várni, hogy a DSA tanácsa felálljon. Ennek jövő év februárjában kell megtörténnie, utána már nem kell túl sok idő a kódex átalakításához. Ám erre a Bizottság mellett a DSA tanácsának is zöld utat kell adnia.

A kódex aláírói között leginkább az óriásplatformok szerepelnek. Mi a helyzet a kisebb platformokkal, arra vannak kezdeményezések, hogy őket is bevonják a folyamatba?

Az aláírók között találni azért néhány kisebb platformot is, a Twitch például egy közepes méretű oldal. Próbáljuk a kisebbeket is elérni, de azt is tudjuk, hogy a kódex aláíróinak plusz erőforrásokra van szüksége, hiszen jelentéseket kell írniuk, folyamatos kapcsolattartás van az ellenőrzést végző munkacsoporttal is. Ráadásul a kisebb platformoknak a DSA életbe lépésével, és a gyakorlati kódex magatartási kódexé válásával is más kötelezettségeik lesznek, mint az óriásplatformoknak: nem kell majd kockázatelemzést végezniük, és a kódex továbbra is önkéntes lesz a számukra. Viszont nekik is érdekük a kódex kötelezettségeinek számon tartása, mert ha egyszer óriásplatformokká válnak, akkor rájuk is vonatkoznak majd a vállalások. Arról nem is beszélve, hogy ha ők is részesei a kódexnek, akkor még hatékonyabban küzdhetünk a dezinformáció ellen. Az nagyobb kihívást jelent, hogy vannak óriásplatformok, amelyeket továbbra sem sikerült meggyőzni arról, hogy írják alá a kódexet.

Ilyen például a Telegram, ami Európa bizonyos részein nagy szerepet játszik a dezinformációs tartalmak terjesztésében.

A kódex mennyire tesz különbséget a dezinformáció és a félretájékoztatás között?

Azt a kódex is elismeri, hogy a dezinformációt és a félretájékoztatást eltérő módon kell kezelni, hiszen a dezinformáció – legalábbis a Bizottság meghatározása szerint – olyan hamis vagy félrevezető tartalom, amelyet szándékosan terjesztenek, azzal a céllal, hogy kárt vagy zavart okozzanak. Ez egy olyan dolog, amely ellen minden platformnak fel kell lépnie. Ha hamis profilok hamis információkat terjesztenek, azokat az álprofilokat zárolni kell.

Ezzel a platform nem sért alapvető jogokat, mert ezek a profilok nem valós személyeket képviselnek, a botoknak pedig nincsenek jogaik.

Ezzel szemben a félretájékoztatás nem szándékos, így azokkal szemben, akik hamis híreket terjesztenek, de nem szándékosan, másképp kell fellépni. Náluk jól működik az, ha a megosztás előtt figyelmeztetjük őket arra, hogy az általuk megosztani kívánt tartalom hamis. Ez történik akkor, amikor a platformok tényellenőrzőkkel működnek együtt, és a közösségi oldalak felcímkézik azokat a tartalmakat, amelyeket a tényellenőrző oldalak már megvizsgáltak. A felhasználók pedig eldönthetik, hogy elolvassák-e az adott hírrel kapcsolatos tényellenőrzést, vagy megosztják a hamis hírt.

Címlapi kép forrása: Jim Watson/AFP

Ez egy konkrét példa arra, hogyan próbálnak a platformok küzdeni a dezinformáció ellen, hogyan próbálják lassítani a terjedését. Milyen más intézkedéseket említhetünk még?

Az algoritmus megválogatja, hogy mit dob fel és milyen sorrendben a felhasználónak, így ha egy tényellenőrzésen átesett és hamisnak címkézett tartalomról van szó, az algoritmus hátrébb sorolhatja azt. Ez különösen fontos az olyan óriás keresőprogramoknál, mint a Google, hiszen ott sokszor az első oldal keresési eredményei között válogatnak a felhasználók. Ebből is látszik, hogy a dezinformációt nem kell feltétlenül eltávolítani a platformokról, elegendő lehet az is, ha ezek a tartalmak kevesebb láthatóságot kapnak.

És ez elegendő ahhoz, hogy lassuljon a dezinformáció terjedése?

Vannak arra kutatások, hogy ezek az intézkedések hogyan befolyásolják a dezinformáció terjedését, hogy

a tartalmak címkézésének köszönhetően kevesebben osztják meg a hamis tartalmakat.

Azt viszont meg kell jegyezni, hogy ezek a kutatások a platformok által biztosított adatokkal dolgoznak, így ezeket fenntartásokkal kell kezelnünk. Szükség lenne független kutatásokra is, amelyben megint csak a DSA jelenthet fordulópontot, hiszen a jogszabály szerint a platformoknak hozzáférést kell biztosítaniuk az adataikhoz a kutatóknak.

Melyek azok a területek, ahol továbbra sem elégedett a kódexszel, ahol még van javítanivaló?

A technológia fejlődése miatt a kódexet folyamatosan frissítenünk kell. Most a mesterséges intelligencia által generált szöveges és vizuális tartalmak jelentenek veszélyt, így a kódex aláíróitól már a legújabb jelentésükben is azt várjuk, hogy számoljanak be arról, milyen intézkedéseket tesznek az ilyen kontentek terjedésének meggátolása érdekében. Az AI által generált dezinformációs tartalmak terjedése olyan terület, ami a jövőben sok munkát fog adni nekünk is.

Fülöp Zsófia
A Szegedi Tudományegyetemen filozófiát, az ELTE-n kommunikációt és esztétikát tanult. Újságírással egyetemi tanulmányai alatt kezdett foglalkozni, majd 2013 és 2022 között a Magyar Narancs újságírójaként dolgozott, ahol főként egészségügyről, szociális ügyekről és marginalizált csoportokról írt. 2018 októbere és 2019 májusa között Brüsszelben volt gyakornok, az Európai Parlament webkommunikációs osztályán cikkeket írt és közösségi médiával foglalkozott, majd visszatért az újságíráshoz. 2022 őszétől az Oxfordi Egyetemen működő Reuters Institute ösztöndíjasaként a magyarországi romák médiareprezentációját és a kisebbségi média lehetőségeit kutatta. A Lakmusz csapatához 2023 májusában csatlakozott.