A szakértők a választásokért aggódnak, miután Biden klónozott hangján hívogatott választókat egy automata

Minden jog fenntartva. A weboldalon található AFP-tartalmak bármilyen felhasználására a https://www.afp.com/en/terms-use oldalon elérhető felhasználási feltételek vonatkoznak. A weboldalon elérhető AFP-tartalmak elérésével és/vagy használatával Ön elfogadja a fent említett felhasználási feltételeket. Az AFP-tartalmak bármilyen felhasználása az Ön kizárólagos és teljes felelősségére történik.

Fehér Házért folyó 2024-es versengésbe beleszólhat az mesterséges intelligencia alapú dezinformáció-áradat is. Egy automata telefonos kampány, másnéven robothívás segítségével ugyanis Joe Biden amerikai elnök hangján hívtak fel választópolgárokat.

"Micsoda baromság" – mondta a telefonba Joe Biden digitálisan lemásolt hangja. Ez a két szó az amerikai elnök egy híressé vált mondatát idézte a 2012-es alelnöki vitából.

A robothívás során a New Hampshire állambeli lakosokat arra szólították fel, hogy ne szavazzanak a januári demokrata előválasztáson. A hatóságok válaszul vizsgálatot indítottak a szavazók lehetséges befolyásolása miatt.

Az elnökválasztási kampány résztvevői pedig a mesterséges intelligenciát használó eszközök szigorúbb szabályozását követelik. Vannak, akik az automata telefonos kampányok teljes betiltását szorgalmazzák.

Dezinformáció-kutatók attól félnek, hogy idén, az amerikai elnökválasztás évében elharapódzhat az MI-alapú programokkal való visszaélés. Az utóbbi időben ugyanis megszaporodtak az olcsó, egyszerűen használható és nehezen lekövethető hangklónozó eszközök.

“Ez minden bizonnyal csak a jéghegy csúcsa” – mondta az AFP-nek Vijay Balasubramaniyan, a Pindrop kiberbiztonsági cég vezérigazgatója és társalapítója.

“Az idei elnökválasztási kampányban egyre több deepfake-kel találkozhatunk majd.”

A Pindrop által publikált részletes elemzés szerint a Biden-robothívást az ElevenLabs által fejlesztett szövegfelolvasó szoftverrel hajtották végre. A startup MI-alapú hangklónozással foglalkozik.

A botrány aközben robbant ki, miközben az Egyesült Államok mindkét politikai tábora használ MI-alapú eszközöket a kampányüzenetek hatékony célbajuttatásához, és miközben a technológiai vállalatokat célzó befektetők dollármilliókat pumpálnak a hangklónozással foglalkozó startupokba.

Balasubramaniyan nem árulta el, hogy a Pindrop megosztotta-e kutatási eredményeit az ElevenLabs-zel. A startup januárban jelentette be, hogy a közelmúltbeli befektetések révén a Bloomberg News szerint már 1,1 milliárd dollárra (mintegy 396 milliárd forintra) rúg a vállalat értéke.

Az ElevenLabs nem reagált az AFP többszöri megkeresésére sem. A honlapjukon egy ingyenes szövegfelolvasó programot kínálnak, amellyel “természetes hatású MI-alapú hangot generálhatunk, bármilyen nyelven.” (A szoftver jelenleg 29 nyelvet, a különböző akcentusokkal együtt összesen 47 nyelvváltozatot tud utánozni.)

A cég biztonsági irányelveiben szerepel, hogy a felhasználók olyan politikusok hangját is klónozhatják, mint például Donald Trump. Mindehhez pedig a politikusok engedélye sem kell, amennyiben “a cél humorizálás vagy kifigurázás”, azzal a kikötéssel, hogy “a felhasználó a hallgató tudtára adja, hogy amit hall, az paródia, nem pedig eredeti tartalom.”

“A választás káoszba fulladhat”

Miután a kamu Biden-hívás fényt vetett erre a csalási módszerre, az amerikai szabályozó hatóságok azt fontolgatják, hogy törvénytelennek nyilvánítják az MI-vel generált robothívásokat.

"Eljött a politikai deepfake-ek kora" – mondta Robert Weissmann, a Public Citizen érdekvédelmi csoport elnöke.

"A törvényhozóknak sietősen meg kell alkotni egy biztonságos környezetet, különben számíthatunk rá, hogy a választás káoszba fullad. A New Hampshire-i deepfake-csalás emlékeztetőül szolgál arra, hogy a deepfake-eket mennyiféleképpen lehet zavarkeltésre használni."

A kutatók aggódnak azok miatt az MI-eszközök miatt, amik annyira élethűnek tűnő videókat és szövegeket tudnak előállítani, hogy a választók nem tudják többé megkülönböztetni a fikciót a valóságtól, és ez alááshatja a választásokba vetett bizalmat.

De a legnagyobb aggodalmat világszerte azok az audió deepfake-ek váltották ki, amelyeket híres emberek és politikusok megszemélyesítésére és lejáratására használtak.

“A különböző médiumok – videó, kép és hang – közül, amelyben az MI-t a választók befolyására tudják használni, a hang a legkönnyebben kiaknázható” – mondta az AFP-nek Tim Harper, a Center for Democracy & Technology vezető politikai elemzője. “Könnyű mesterséges intelligenciával hangot klónozni, és nehéz leleplezni ezt a technológiát.”

“A választás tisztasága”

Az, hogy manapság nem nehéz hamis hangalapú tartalmat előállítani és elterjeszteni, tovább bonyolítja a már egyébként is hiperpolarizált politikai színtért. Aláássa a médiába vetett bizalmat és bárkivel azt mondathatja, hogy a valójában tényalapú “bizonyítékok nem valósak” – mondta el az AFP-nek Wasim Khaled, a Blackbird.AI vezérigazgatója.

Egyre többekben merül fel az ezzel kapcsolatos aggodalom, mivel az MI-t használó hangeszközök jóval gyorsabban fejlődnek, mint az MI használatát leleplezni képes szoftverek.

A kínai ByteDance vállalat – amely a hihetetlen népszerűségnek örvendő TikTok tulajdonosa – nemrég hozta nyilvánosságra a StreamVoice-t. Ez az MI-alapú szoftver valós időben képes másmilyenné alakítani a felhasználó hangját.

“Bár a csalók ezúttal az ElevenLabs megoldását használták, a jövőben nagy eséllyel egy másik szoftverrel fognak próbálkozni” – mondta Balasubramaniyan. “Elengedhetetlen, hogy megfelelő biztosítékok legyenek ezekben az eszközökben.”

Balasubramaniyan, más kutatókkal együtt azt javasolja, hogy legyenek hangalapú vízjelek vagy digitális aláírások az ilyen programokban. Ezek egyfajta védelmező biztosítékként szolgálnának. Emellett megfelelő szabályzat is kell, amely kimondja, hogy csak ellenőrzött felhasználók vehetik igénybe a technológiát.

“De még ezek mellett is nagyon nehéz és sokba is kerül beazonosítani azt, ha valaki úgy hoz létre káros tartalmakat, hogy azzal megsérti a felhasználási feltételeket” – mondta Harper.

“[Ez] megköveteli azt, hogy befektessünk a bizalomba és a biztonságba, különben egyértelműen az elnökválasztás tisztaságát kockáztatjuk.”

Szerzői jog © AFP 2017–2024. Minden jog fenntartva.
Szerző
Anuj CHOPRA / AFP Egyesült Államok