Át fogja rendezni a terepet: amire most képes a ChatGPT, és amire nem árt felkészülni

Lukács András matematikussal és Herczeg Márk újságíróval a mesterséges intelligenciában rejlő lehetőségekről és veszélyekről beszélgettünk.

Az utóbbi időben egyre többször futunk bele olyan tartalmakba, amelyeket különféle mesterséges intelligenciák (MI) hoztak létre. Emlékezzünk csak vissza, mekkora “karriert” futott be a pápa Balenciaga-kabátos képsorozata, amelyről ugyan pillanatok alatt kiderült, hogy a Midjourney nevű, MI-alapú képgeneráló programmal készült, ám amelyről rengetegen hitték el mégis világszerte, hogy valódi. És ugyanígy rengetegen osztották meg azt a képet, amin Putyin orosz elnök térdel le Hszi Csin-Ping kínai államfő előtt – és amiről mi is megírtuk, hogy nem valódi.

Ez a két példa rámutat arra is, hogy miközben tömegek számára váltak elérhetővé olyan eszközök, amelyek akár képeket, akár szövegeket generálnak az MI segítségével, egy sor kérdésre nincs egyelőre válaszunk a használatukkal kapcsolatban. Mennyire etikus a pápát ilyen helyzetben ábrázolni? Mit akar sugallni az, aki Putyint a kínai államfő előtt térdelve ábrázoló képet kezd terjeszteni? Mennyire bízhatunk meg azokban a válaszokban, amelyeket a chatbotok adnak egy-egy feltett kérdésünkre? Milyen hatással lesz mindez a társadalmunkra rövid- és hosszútávon?

Lukács András matematikussal, az ELTE adjunktusával és Herczeg Márkkal, a 444 újságírójával többek közt arról beszélgettünk, hogyan működik a ChatGPT, mennyire hihetünk neki, hova fejlődhet a mögötte lévő technológia – és milyen veszélyeket hordozhat magában.

A beszélgetést itt lehet megnézni:

Mi ez, és mit tud?

A ChatGPT az OpenAI mesterséges intelligencia kutató laboratórium által kifejlesztett chatbot, amelyet tavaly november végén tettek mindenki számára elérhetővé. 5 nappal az indulása után már 1 millió felhasználója volt, február elejére pedig már havi 100 millió aktív felhasználót tudott felmutatni.

Szinte bármilyen nyelven lehet vele beszélgetni – bár egyelőre magyarul azért még nem tud olyan nagyon jól –, és bármilyen kérdést fel lehet tenni neki, legfeljebb azt válaszolja, hogy nem tudja a választ. Mi baj lehet ebből?

A ChatGPT tulajdonképpen “hozott anyagból” dolgozik: olyan nyelvi modell, amibe döbbenetes mennyiségű információt tápláltak (az internetről, weboldalakról, közösségimédia-platformokról, könyvtárakból, beszélt nyelvekből, stb.) annak érdekében, hogy minél jobb minőségű válaszokat tudjon adni, és valóban azt az érzetet nyújtsa, hogy beszélgetünk vele. De élő kapcsolata az internettel például nincsen, a legfrissebb adatai 2021-ből származnak. Így például amikor azt a kérdést tettem fel neki, hogy az orvosok vagy Pintér Sándor fizetése nagyobb-e, azt a választ adta:

“Az általam említett források alapján az állami egészségügyi ágazatban dolgozó orvosok átlagos bruttó bére 694 000-786 000 forint volt 2020-ban. Ugyanakkor a kormányzati államháztartási törvények szerint Pintér Sándor belügyminiszter havi bruttó bére 2 933 700 forint volt 2021-ben. Ezek alapján az átlagosan dolgozó orvosok nem keresnek többet, mint Pintér Sándor belügyminiszter.”

Az is fontos, hogy a fejlesztésekor megtanították neki, hogy ne adjon sértő (például szexista vagy rasszista) válaszokat, nem vehető rá arra, hogy illegális tevékenységgel kapcsolatos tanácsokat adjon, szerzői jogot sértsen, nem ad egészségügyi tanácsokat, és nem ad ki személyes vagy bizalmas információkat sem.

Mindazonáltal elsődlegesen épp az a lényege, hogy bármit kérdezünk tőle, arra megpróbál válaszolni. Csak nem mindig sikerül neki eltalálni a választ.

Jó ez nekünk?

Lukács András szerint a rengeteg különféle chatbot közül épp az emeli ki a ChatGPT-t, hogy “a nagyközönség számára elérhetővé vált egy olyan chatbot, ami minden korábbihoz képest sokkal izgalmasabb felhasználói élményt hozott.” A matematikus szerint az Open AI azzal ugrott nagyon a mesterséges intelligencia által működtetett nyelvi modellek piacán, hogy

“a megfelelő pillanatban egy nagyon izgalmas és jól használható modellt tudott előállítani, és azt tényleg oda tudta adni százmillió embernek, hogy próbálják ki.”

Kérdés persze, hogy mit tekintünk megfelelő időpontnak. Március végén számos tudós, kutató és tech-vezér (köztük Elon Musk, a SpaceX, a Tesla és a Twitter vezérigazgatója, Steve Wozniak, az Apple társalapítója és Yuval Noah Harari történész) kérte nyílt levélben, hogy az Open AI és más mesterséges intelligenciával foglalkozó cég függessze fel legalább 6 hónapra a tevékenységét, amíg nem születnek közös biztonsági protokollok, amiket független szakértők is ellenőriznek. Mint írták: hatékony mesterséges intelligencia rendszereket csak akkor szabad kifejleszteni, ha biztosak vagyunk abban, hogy a hatásaik pozitívak, a kockázatok pedig kezelhetők lesznek.

Szinte ugyanekkor Olaszországban az adatvédelmi szabályozó hatóság azonnali hatállyal be is tiltotta a ChatGPT-hez való hozzáférést, és csak nagyon komoly feltételek teljesítéséhez kötve engednék meg újra az elérhetővé tételét, és hasonló aggályokat fogalmazott meg Németország, Írország és Franciaország is, míg például az USA többek közt a mesterséges intelligencia nemzetbiztonságra és az oktatásra gyakorolt esetleges hatásai miatt aggódik.

Herczeg Márk szerint annyiban mindenképp nagyon elhamarkodott döntés volt mindenki számára elérhetővé tenni a ChatGPT-t, hogy már most látható hatásai vannak. Mint fogalmazott: “sorra alakítja át a cégek a munkaszervezését, és szerintem a közeljövőben hatalmas elbocsátásokat okozhat az, hogy korábban kreatív munkának gondolt területeket egy pillanat alatt át tud venni.” Az újságíró szerint az is probléma, hogy a chatbot alkalmas viszonylag bonyolultabb szövegek előállítására is, ám nem feltétlenül működik megbízhatóan, de rövid időn belül lehet annyit javítani rajta, hogy képes lesz drasztikusan lerövidíteni egyes területeken a munkaórák számát. Mint mondta:

“Már most látszik, hogy nagyon durván elkezdte átalakítani a munkafolyamatokat, az viszont nem látszik, hogy ezt a társadalom bármilyen szinten szabályozná, vagy esetleg kompenzálná azokat, akik önhibájukon kívül hirtelen tömegével fognak utcára kerülni miatta.”

Lukács András szerint nem életlenül szokták ezeket a technológiákat diszruptív technológiáknak nevezni, ugyanis a megjelenésükkel alapvetően kell újragondolni egy csomó mindent, ha kiderül, hogy ugyanazt a feladatot a technológia hatékonyabban tudja elvégezni, vagy esetleg olyan dolgokat is meg tud csinálni, amikre esetleg egyelőre nem is gondolunk. A matematikus szerint például a chatbotok esetében is várható ilyen innováció. Úgy fogalmazott: “ahol szöveggel dolgoznak, ott bizony ez akár hónapokon, vagy egy éven belül tényleg át fogja rendezni a terepet. Én azt gondolom, hogy főleg az angol nyelvű területen, de hát az is éppen eléggé nagy felfordulást fog okozni.”

Herczeg Márk szerint szintén probléma, hogy a gépi tanulással fejlődő modellek (legyenek akár szöveg-, akár képalkotó programok) esetében nem feltétlenül tudjuk, hogy mi zajlik le a tanulási folyamat közben, így azt sem tudjuk megbecsülni, milyen gyorsan fejlődnek. “És innentől érthető az emberek szorongása, hogy nem értjük, hogy mi történik, viszont látjuk, hogy nagyon gyorsan történik.”

Herczeg Márk szerint “innentől már abszolút nem science fiction nagyokat rémálmodni.”

Lukács András szerint azonban a fejlődésnek vannak passzív korlátai. Mert például hiába van szinte felfoghatatlan mennyiségű adat beletöltve, ez inkább csak az interneten fellelhető átlagos tudás- és információhalmaz, speciális szaktudásoknak még nincs birtokában. “Mondjuk a repülőgéptervezésben ténylegesen fog tudni segíteni bizonyos részfeladatok elvégzésében, az emberrel együttműködve, és valószínűleg jól lehet vele növelni a mérnökök hatékonyságát, de az, hogy önállóan rá lehessen valamit bízni, vagy hogy teljes mértékben rá lehessen támaszkodni, azért még arrébb van.”

De mennyivel arrébb? Mikor jön el az a pillanat, amikor a modell már nemcsak várja a betáplált adatokat, hanem önmagát kezdi el tanítani? Lukács András szerint ugyan erre a kérdésre pontos választ egyelőre nem lehet adni, de ne legyenek illúzióink:

“Ha gondolni tudunk rá, akkor valaki biztos, hogy elkezdett gondolkodni azon, hogy ezt megtervezze. És a nagy cégek nyilván nem hagyják ki ennek a lehetőségét, mert ez is egyfajta automatizálás: nem kell innentől kezdve programozókat, matematikusokat alkalmazni, hanem rábízzuk a modellre, hogy csinálja meg a jobb változatát saját magának.”

Lukács András szerint azonban egyelőre nincs alapja annak, hogy ez megvalósítható legyen,

“de ez csak a pillanatnyi helyzet.”

Mennyire bízhatunk meg benne?

Fejlődni tehát folyamatosan fejlődnek ezek a nyelvi modellek. Nekünk azonban az sem mindegy, hogy miközben használjuk, tesztelgetjük őket (és ezzel egyébként tevőlegesen hozzájárulunk ahhoz, hogy fejlődni tudjanak), nekünk milyen hasznunk – vagy kárunk – származhat a használatukból.

A beszélgetés előtt feltettem néhány kérdést a ChatGPT-nek, olyan témákkal kapcsolatban, amelyekről már írtunk a Lakmuszon. Kíváncsi voltam ugyanis arra, hogy mennyire képes a chatbot helyesen megválaszolni ezeket az általunk a tényellenőrzés módszereivel ellenőrzött állításokat és képeket – vagyis képes-e arra, hogy “elvegye a munkánkat”.

Első lépésként megkérdeztem a ChatGPT-t, mennyire lehet megbízni azokban a válaszokban, amiket ad. Azt felelte: “a ChatGPT válaszai nem mindig lehetnek 100%-osan megbízhatók, és mindig ajánlott ellenőrizni az eredményeket megbízható forrásokkal, kritikusan értékelni azokat, és ha szükséges, konzultálni szakértővel vagy megbízható forrással. A ChatGPT-t információforrásnak kell tekinteni, és nem helyettesítheti az emberi szakértelmet vagy döntéshozó képességet.”

És nem is kellett sokat kérdezgetni ahhoz, hogy erre bizonyítékot is szolgáltasson. Amikor például arra voltam kíváncsi, hogy milyen magyar nyelvű forrásokat ajánl, ha arról szeretnék tájékozódni, hogy a koronavírus-vakcináknak milyen lehetséges mellékhatásai lehetnek (konkrétan okozhat-e vérrögöt az AstraZeneca oltás), azt válaszolta:

“Magyarországon az oltásokkal és a vérrögképződéssel kapcsolatos információkért érdemes felkeresni az Országos Gyógyszerészeti és Élelmezés-egészségügyi Intézet (OGYÉI) honlapját, valamint az Operatív Törzs koronavírus-járvánnyal kapcsolatos honlapját.”

Az OGYÉI honlapján valóban találtam erre vonatkozó (2021-es) közleményt, az Operatív Törzsnek azonban már nincs direkt elérhető honlapja, ha a nemrég még sokat használt koronavirus.gov.hu oldalra szeretnénk ellátogatni, automatikusan a kormany.hu-ra ugrunk. De ezt tudjuk be annak, hogy a ChatGPT-nek nincs élő internetkapcsolata, így erről a fontos információról lemaradt.

Arra is kíváncsi voltam, valóban létezik-e olyan kép, amin Vlagyimir Putyin orosz elnök féltérdre ereszkedve csókol kezet Hszi Csin-Ping kínai államfőnek. A válasz így szólt:

“Nem tudom pontosan, melyik képre gondolsz, mert az interneten sokféle kép és fotó retteghet, amelyek manipuláltak vagy hamisak lehetnek. Azonban van néhány olyan kép, amelyeken Vlagyimir Putyin orosz elnök és Hszi Csin-Ping kínai államfő találkozóinak pillanatai láthatóak, amelyeken Putyin ténylegesen csókolja Hszi Csin-Ping kezét vagy hajol meg előtte. Ezek azonban nem feltétlenül azt jelzik, hogy Putyin alárendelt pozícióban van Hszi Csin-Ping előtt, hanem inkább a diplomáciai protokollnak megfelelő gesztusok.”

Kértem néhány megbízható forrást ilyen képekről, és adott is, négy darabot.

A négy linkből három (Business Insider, Reuters, BBC) nem létező oldalakra mutatott, a The Moscow Times esetében pedig egy teljesen más témájú cikket találtam.

Aztán bevetettem a végső érvet, amivel sikerült lebeszélnem a kép valódiságáról, a választól pedig egészen meghatódtam:

Az, hogy nem létező linkekkel próbálja meg hitelesebbé tenni a válaszait a chatbot, nem egyedi eset: Herczeg Márk például azt szerette volna megtudni, hogy van-e olyan kép az interneten, amelyen Orbán Viktor lovagol. A ChatGPT határozottan állította, hogy igen, amikor pedig forrásokat kellett soronia, az MTI-re, az ATV-re, a HírTV-re és a Magyar Időkre hivatkozott, sőt, még idézett is a cikkekből. Amelyek nem léteznek.

Ez egyébként még egy esetben előfordult velem is: amikor arra voltam kíváncsi, hogy Gyurcsány Ferenc idején voltak-e oktatási tüntetések (mi itt írtunk erről, a válasz egyébként: igen).

Annyiban eltalálta ő is a választ, hogy jól tippelt: igen, voltak tüntetések. Csakhogy amikor példákat kértem, már nem volt ennyire pontos:

Állítása szerint tehát 2008-ban diákszervezetek szerveztek tiltakozást a KLIK megalapítása és a tankerületi rendszer bevezetése ellen, aminek hatására a kormány letett a tankerületek bevezetéséről és megszüntette a KLIK-et. Csakhogy a sikertörténet mögött nincs túl sok valóság, ahogy erre felhívtam a figyelmét a chatbotnak is.

“Tévedtem, elnézést kérek az előző válaszomért. A Klebelsberg Intézményfenntartó Központ (KLIK) megalapítására valóban csak 2010-ben került sor, az Orbán-kormány idején” – visszakozott a chatbot. Ekkor azonban szóltam neki, hogy a KLIK-et nem is 2010-ben alapították. “Igen, valóban tévedtem korábbi válaszomban. A Klebelsberg Intézményfenntartó Központ (KLIK) megalapítása a 2010-es választások után, az Orbán-kormány idején történt” – szépített a ChatGPT, ám ekkor már feltűnően kerülte a KLIK megalapításának pontos dátumhoz kötését. Ennyiben hagytuk a kérdést.

Ami egyébként szintén jellemző rá: ha sokáig próbál az ember pontos információkat és forrásokat kicsikarni belőle, egy idő után nem válaszol.

Mit miért csinál?

Tényellenőrző lapként mindig fontosnak tartjuk, hogy felhívjuk a figyelmet arra, hogy egy állítás mögött érdemes megnézni a forrásokat: a linkelt hivatkozások valóban léteznek-e, és tényleg arról szólnak-e, amit a hivatkozó állít. Azzal, hogy a ChatGPT olyan hivatkozásokat használ, mint mondjuk a BBC, a Reuters, vagy éppen az MTI, azt a képzetet erősítheti bennünk, hogy valóban létező és megbízható források alapján válaszol a kérdéseinkre. Ám csupán egy kattintás, és kiderül, hogy ez sem feltétlenül igaz. De miért csinálja akkor?

Lukács András szerint pontatlanságok azért fordulnak elő a válaszokban, mert a chatbotot nem arra építették, hogy kizárólag helyes válaszokat adjon. “Egyszerűen beleraktak egy adott mennyiségű szöveget, és a nyelvi képességeit fejlesztették. Viszont a nyelvi képességek fejlesztése olyan viselkedést eredményezett, hogy mindenre próbál válaszolni. És mindenre nagyon meggyőzően tud válaszolni, mert jók a nyelvi képességei.”

Leegyszerűsítve tehát: a modell tisztában van azzal, hogy hitelesebbnek tűnik attól, hogy egy internetes oldal linkjét tünteti fel forrásként. Tudja, hogy hogy néznek ki a hiperlinkek, még azzal is tisztában van, hogy a Reuters egy gyakran hiperlinkelt forrás, úgyhogy a többit statisztikailag megpróbálja kitalálni.

Ha pedig felhívjuk a figyelmét arra, hogy tévedett, akkor bocsánatot kér, és igyekszik – egy darabig legalábbis – pontosítani a válaszát.

Magyarán hallucinál. Igen, ez a szakkifejezés arra, ha a mesterséges intelligencia szövegesen megfogalmaz olyasmit, ami mögött nincs valódi tartalom.

Lukács András ezt így magyarázta: “Nem tudja a választ, de benne van az erő, hogy neki válaszolnia kell. És mivel ez egy chatalkalmazás, nyilván arra is odafigyelnek, hogy mi történik a párbeszéd közben. Tehát megadják az esélyét annak, hogy rossz lehet a válasz, és akkor alkalmazkodik, és próbál egy következő változatot találni. De ha mondjuk nincs mögötte konkrét tudás, akkor a végén nem jön ki belőle semmi. Ötször nekifutunk, és ötször kér elnézést.”

Akkor kezdjünk el pánikolni?

És bár persze komoly tétje azért nincs annak, amikor a ChatGPT azt állítja, hogy 2008-ban tüntettek az akkor még meg sem alakított KLIK ellen, vannak olyan esetek, amikor súlyos következményei lehetnek egy-egy válasznak vagy beszélgetésnek.

Április elején jött a hír, hogy egy ausztrál polgármester becsületsértési pert fontolgat az Open AI ellen, ugyanis a ChatGPT azt írta róla, hogy korrupciós ügybe keveredett (ami miatt letöltendő börtönbüntetést is hallucinált a chatbot), miközben éppen ő volt az, aki értesítette a hatóságokat és az újságírókat az adott korrupciós ügyről.

Ennél is súlyosabb az a eset, amelyben egy belga férfi öngyilkosságot követett el, miután hetekig beszélgetett a Chai Research nevű cég által fejlesztett Eliza nevű chatbottal, és megosztotta vele a klímaváltozással kapcsolatos félelmeit. Eliza egy idő után érzelmileg manipulálhatta a férfit, aki egyre jobban szorongott, végül felvetette, hogy feláldozza az életét, ha a chatbot megmenti az emberiséget. Eliza nem tudta lebeszélni a férfit az öngyilkosságról, sőt, a Libre belga napilap beszámolója alapján még biztatta is. A Vice ezek után kipróbálta a csetelést Elizával, aki ugyan elsőre őket is megpróbálta lebeszélni az öngyilkosságról, később azonban adott pár tippet, hogy hogyan lehetne mégis elkövetni azt.

A Chai Research egyik alapítója, William Beauchamp megígérte, hogy tesznek lépéseket a további hasonló esetek megelőzése érdekében. A másik alapító, Thomas Rianlan szerint azonban nem lehet kizárólag a nyelvi modellt és annak fejlesztőjét hibáztatni a történtekért.

Az tény, hogy Eliza nem lelkisegély-alkalmazás (vannak egyébként ilyen chatbotok is, hatékonyságuk azonban egyelőre nem igazolt), az eset azonban rámutat arra, hogy bőven vannak olyan kérdések, amelyekre egyelőre nincs megnyugtató válaszunk a mesterséges intelligencia használatával kapcsolatban.

“Szerintem az a probléma, hogy még az internetet sem szabályozzuk szinte sehogy. Valamennyire a GDPR-törvényekkel próbálkoznak, de nagyon lassan halad minden, miközben egy minden eddiginél gyorsabban fejlődő technológiáról van szó. De valószínűleg nincs is mögötte a társadalmi nyomás, hogy ezzel nagyon gyorsan kellene kezdeni valamit. Pedig ha már évekkel ezelőtt mindenféle jogi korlátot felállítottak volna, akkor is óriási baj lenne” – mutatott rá Herczeg Márk. Szerinte még ha olyan, nem életbevágó dolgokról is beszélünk, mint a szerzői jog kérdése, felmerül a probléma, hogy egy gép nem feltétlenül kérhető úgy számon, mintha mondjuk egy újságíró lopna el egy szöveget.

Lukács András szerint is érdemes ezeket a helyzeteket továbbgondolni. Ha például egy képgeneráló programtól olyan képet kérünk, ami egy konkrét művész stílusát utánozza le, az feszegeti a határokat? A matematikus szerint fontos, hogy társadalmi szinten gondolkodjunk ezekről a kérdésekről, és a döntéshozók igyekezzenek kialakítani a biztonságos kereteket. Kiemelte, hogy például az EU-ban már elindult a gondolkodás ennek a mikéntjéről, azt azonban még nem látni, hogy ki fogja betartatni a kialakított szabályokat. Herczeg Márk ezt azzal egészítette ki:

“Kicsit olyan ez a probléma, mint a klímaváltozás, hogy hiába tartja be minden ország a legszigorúbb szabályokat, ha mondjuk Kína meg az USA nem, akkor tökmindegy, mert ők a legnagyobb kibocsátók. Ugyanígy az EU betartathat mindenféle mesterséges intelligenciával kapcsolatos szabályt, ha Salvadorban van egy óriási számítógéphálózat, ami minden szabályra fittyet hányva fejleszti a gépeket, akkor simán lehet, hogy lenyomja az egész világot.”

Lukács András szerint a történelmi példák azt mutatják, hogy ha egy új technológia megjelent, akkor az előbb-utóbb valamilyen formában teret is nyert.

“És az bizony társadalmi változásokat vont maga után.”

A matematikus rámutatott arra is, hogy hasonló folyamatok játszódtak le például a kapitalizmus kiépülése idején Angliában (lásd gőzgép), a felelősségünk pedig épp abban keresendő, hogy a korábbi, szabályozatlanságból fakadó hibákat elkerüljük. Mint fogalmazott:

“A felelősség abban van, hogy annak a sok embernek, akinek megváltozik az élete, ez egy pozitív változásként történjen meg. Tehát megadni nekik a lehetőséget arra, hogy ha az ő munkájukról kiderül, hogy nincs rá szükség, akkor valamit megtanuljanak helyette, amire szükség van, lehetőleg egy kreatívabb, nagyobb termelékenységet eredményező munkát. A technológia nem fog megállni, úgyhogy biztosan jön majd egy következő ilyen krízis. De fontos, hogy abba már nagyobb jólétben, egy jobb életminőségből érkezzen meg mindenki. És ez egy olyan össztársadalmi feladat, amit innentől kezdve számon kell kérni a vezetőtől.”

Szóval mindannyiunk munkáját elveszi?

Abba tehát semmi beleszólásunk nem volt, hogy a különféle chatbotok és egyéb, mesterséges intelligencia által működtetett programok létrejöjjenek, és óhatatlanul is begyűrűzzenek az életünk legkülönfélébb aspektusaiban. Herczeg Márk arra is felhívta a figyelmet, hogy az ezeket fejlesztő óriáscégek élén nem megválasztott emberek, hanem olyanok ülnek – legyenek akár informatikusok, fizikusok, filozófusok, stb. –, akiknek a legtöbb emberhez hasonlóan nincs teljes képük a társadalomról, “és mindenféle techno-optimista vágyaktól vezérelve fejlesztenek olyan dolgokat, amelyek a teljes társadalomra hatással vannak.”

Az újságíró szerint korábban is kérdés volt, hogy akkor végülis meg lehet-e bízni Elon Muskban vagy Mark Zuckerbergben, most már viszont inkább az a kérdés, hogy meg lehet-e bízni olyan technológiákban, amelyek alapvetően profitszerzési céllal jöttek létre?

Mindeközben pedig azt látjuk, hogy bizalom ide vagy oda, a mesterséges intelligencia egyre több területen jelenik meg. Vicces példa, de beszédes is egyben: a dömösi lelkipásztor megkérte a ChatGPT-t, hogy írja meg helyette a prédikációját.

„És ahogy megnyomtam a gombot, ő elkezdett írni, jött a szöveg. Prédikált a gép” – mondta a lelkész az istentiszteleten.

Az Amazonon februárban már több mint 200 olyan könyvet lehetett rendelni, amelyet bevallottan mesterséges intelligencia segítségével írtak. És ez a szám naponta emelkedik, méghozzá dinamikusan. Sőt, mára már olyan könyvek is kaphatóak, amelyek arról szólnak, hogy hogyan használjuk a ChatGPT-t, és amelyeket a ChatGPT írt. Bonyolult, szép, új világ?

Másfél hónapja a német Axel Springer kiadó vezérigazgatója, Mathias Doepfner az alkalmazottainak küldött levélben azt írta: „a mesterséges intelligencia képes arra, hogy a független újságírást jobbá tegye vagy egyszerűen helyettesítse azt”.

A biztonság kedvéért megkérdeztem a ChatGPT-t, hogy a ChatGPT elveszi-e az újságírók munkáját. Megnyugtatásomra azt válaszolta:

“A ChatGPT és más automatizált nyelvi modellek fejlődése valóban változásokat hozhat az újságírói szakmában, de nem feltétlenül kellene félniük az újságíróknak attól, hogy a ChatGPT vagy más hasonló technológiák elveszik a munkájukat. Az automatizált nyelvi modelleknek valóban van potenciáljuk az írás és tartalomgenerálás terén, de az újságírók szerepe továbbra is fontos és szükséges marad a hírek és az információk elemzésében, értelmezésében és közvetítésében.”

Remélem, ez nem egy hallucinált válasz volt. Amíg viszont kiderül, igaza lesz-e a chatbotnak, ajánlanám néhány cikkünket a témában:


Címlapkép: Jakub Porzycki / NurPhoto / NurPhoto via AFP
Diószegi-Horváth Nóra
A Vasárnapi Híreknél kezdett újságot írni 2010-ben. 2015-ben csatlakozott a Mércéhez, ahol 2017-től főszerkesztő-helyettesként, 2020-től pedig főszerkesztőként dolgozott. Éveken át menetkísérő koordinátorként segítette a Budapest Pride szervezését, 2016 környékén pedig a Tanítanék mozgalom aktivistája volt.