2023. november 26. 16:00 - Danube Institute

“Minden jó hazugságban van egy morzsányi igazság.”

A mesterséges intelligencia megjelenésével a manipuláció újabb szintre lépett, ez pedig az élet számos területén jelenthet veszélyt. Legyen szó újságírásról, híradásról vagy épp közösségi médiáról: soha nem volt még ilyen könnyű elrejteni az igazságot. Hajlamosak vagyunk elhinni, amit látunk, de mi van akkor, ha amit látunk, csak illúzió? Hogyan védhetjük meg az őszinte, tényeken alapuló diskurzust, amely elengedhetetlen egy egészséges demokratikus társadalom működéséhez?

402645106_843719397760131_5417237716657535694_n.jpg

Mesterséges intelligenciáról és a forradalmi technológia megjelenésével járó veszélyekről tartott előadást Katherine Brodsky újságíró a Danube Institute eseményén. Az intézetünkben jelenleg vendégkutatóként tevékenykedő szakértő arról beszélt, a mesterséges intelligencia megjelenésével az álhírek, a hamis információk és a megtévesztés az eddiginél is komolyabb veszélyt jelentenek.

A közösségi média naponta tele van mesterséges intelligencia által generált képekkel, amelyekben valódi emberek képzeletbeli dolgokat csinálnak. És nem mindig könnyű elmondani azt, ami igaz.”

- fogalmazott Katherine Brodsky. A szakértő kiemelte: “Különösen a jelenleg zajló konfliktusok idején fontos lenne tudni, hogy mi is történik valójában.” Előadásában részletesen kifejtette, miképp áll e folyamat útjába a mesterséges intelligencia.

Az újságírás és a mesterséges intelligencia különös kapcsolatára kiemelt figyelmet fordított a szakértő. “Úgy készítünk eszközöket, hogy egyáltalán nem gondolunk egy adott eszköz létrehozásával járó következményekre.” - fogalmazott Katherine Brodsky. Meglátása szerint az újságírók dolgát a mesterséges intelligencia nagyban megkönnyíti, amennyiben gyakorlatias és időigényes folyamatokról van szó. Hanganyagból készített átiratok készítésénél egyszerűsítheti például az újságíró dolgát az AI használata, ám rendkívül veszélyes minden más esetben. Előadása során hangsúlyozta, hogy

az AI által használt információ korlátozott, elfogult és hamis is lehet egyben, hiszen a ChatGPT vagy más hasonló eszközök nem képesek felülvizsgálni az információ valóságtartalmát.

Egyfelől ez veszélyt jelent a befogadókra, hiszen könnyebben jutnak valótlan, kontextusból kiragadott információhoz, mint valaha. Ugyanakkor az újságírásba vetett bizalom is drasztikusan visszaeshet a folyamat következtében, hiszen az emberek minden információ mögött sejthetnek hamis részleteket.

A szakértő szerint épp emiatt elengedhetetlen, hogy a jövőben minden mesterséges intelligencia által generált tartalom megjelölésre kerüljön.

“Jelenleg ugyan vannak még olyan képek és más tartalmak, amelyekben egyértelműen felfedezhető az AI munkája, ám a technológia fejlődésével ez egyre csökkenni fog.” - hívta fel a figyelmet a Danube Institute vendégkutatója. Katherine Brodsky az AI általa “hallucinációnak” nevezett tulajdonságáról és annak veszélyeiről is beszélt. A folyamat lényege, hogy az AI saját belátása szerint tölti ki azokat az lyukakat, amelyekre nem talál megfelelő információt az adatbázisában. A probléma abban mutatkozik meg, hogy a mesterséges intelligencia nem vizsgálja felül az információ valósághűségét, a kitöltéshez használt információ forrását sem.

“Nem az a probléma, ha az emberek elhisznek valamit, ami nem igaz, hanem hogy a dolgokat könnyű letagadni még akkor is, ha igazak, mert az, hogy valami hamis, nem ritkaság.” - fogalmazott Katherine Brodsky előadása után. A szakértő David Martin Jones kutatási igazgatóval beszélgetett az elhangzottakról. A kutatók főképp a mesterséges intelligencia jövőjére helyezték a hangsúlyt. A szakértők egyetértettek, hogy a szabályozás kérdése rendkívül nehéz feladat, ám a jövőben mindenképp szükséges, hiszen az internet világában az információ, ezzel együtt pedig a hamis információ terjesztése könnyebb és gyorsabb, mint valaha.

Írta: Bonyhádi Lili

Tetszett a cikk? Hasonló tartalmakért kövess minket a Facebookon

komment
süti beállítások módosítása