2024. április 05. 16:00 - Danube Institute

Brit-amerikai megállapodás született az AI biztonságos fejlesztéséről

Az Egyesült Királyság és az Egyesült Államok mérföldkőnek számító megállapodást írt alá a mesterséges intelligencia (AI) tesztelésében való együttműködésről. A napokban aláírt egyezség szerint a két ország együtt fog dolgozni az AI-eszközök és az azokat alátámasztó rendszerek biztonságának értékelésére szolgáló módszerek kidolgozásán.

shutterstock_2002025357.jpg

A mesterséges intelligencia továbbra is gyorsan fejlődik, és mindkét kormány felismerte, hogy most kell cselekedni annak érdekében, hogy az AI biztonságának közös megközelítése lépést tudjon tartani a technológia kialakuló kockázataival. Miközben az országok megerősítik az AI biztonságával kapcsolatos partnerségüket, kötelezettséget vállaltak arra is, hogy más országokkal is hasonló kapcsolatokat alakítanak ki az AI biztonságának világszerte történő előmozdítása érdekében. 

Mindennek célja pedig, hogy a mesterséges intelligencia fejlesztése biztonságosan mehessen végbe. Ahogyan Michelle Donelan, brit technológiai miniszter is mondta:

Csak közös munkával tudjuk kezelni a technológia kockázatait, és kihasználni a benne rejlő hatalmas lehetőségeket, hogy mindannyian könnyebb és egészségesebb életet élhessünk".

Gina Raimondo amerikai kereskedelmi miniszter is hasonlóan vélekedett. Mint fogalmazott, „ mesterséges intelligencia generációnk meghatározó technológiája. Ez a partnerség fel fogja gyorsítani mindkét intézetünk munkáját a kockázatok teljes spektrumában, legyen szó akár a nemzetbiztonságunkról, akár a tágabb értelemben vett társadalmunkról. Partnerségünk egyértelművé teszi, hogy nem menekülünk el ezek elől az aggodalmak elől - nekifutunk. Együttműködésünknek köszönhetően intézeteink jobban megértik majd a mesterséges intelligencia rendszereket, szilárdabb értékeléseket végeznek, és szigorúbb iránymutatást adnak ki" - mondta.

A nemzetközi együttműködés fontosságát tükrözi, hogy a bejelentés értelmében a két ország megosztja egymással az AI-modellek és -rendszerek képességeivel és kockázataival kapcsolatos létfontosságú információkat, valamint az AI biztonságával és védelmével kapcsolatos alapvető műszaki kutatásokat. Mindez a mesterséges intelligencia biztonsági tesztelésének közös megközelítését fogja alátámasztani, lehetővé téve az Atlanti-óceán mindkét oldalán - és világszerte - dolgozó kutatók számára, hogy közös tudományos alapokra építsék kutatásaikat.

aikep.png

Forrás: ToolsForHumans

Miért is van ennek a megállapodásnak akkora szerepe? Milyen kockázatokat jelenthet a mesterséges intelligencia amire közösen kell felkészülnünk?

Azon kívül, hogy az AI egyre több, eddig emberek által végzett feladatot lát el és ezzel sok munkahelyet veszélyeztet, komoly gazdasági és politikai kockázatokkal is jár. Az AI nem csak felgyorsít egyes munkafolyamatokat vagy segíti az információhoz való gyorsabb hozzájutást, de hamisításra, megtévesztésre vagy fake news terjesztésére is kiválóan alkalmas.

Egy példa erre a januárban történt hamis, mesterséges intelligencia által generált robothívás, amely azt állította, hogy Joe Biden amerikai elnöktől jött, arra szólította fel a szavazókat, hogy hagyják ki a New Hampshire-i előválasztást. A megtévesztés az elnök hangjának hiteles klónozásával valósulhatott meg.

Ráadásul az intelligencia gyors fejlődésének köszönhetően a programok nem csak hangot, hanem arcokat, karaktereket, mimikát és gesztikulációt is profi szinten képesek úgy kielemezni és utánozni, hogy lényegében bárkit meg tudnak testesíteni

és ezáltal a felhasználónak kedvező információt létrehozni, majd terjeszteni. Ez nem csak politikai téren történhet meg, gyakoriak a főként hangutánzást használva történő pénzügyi és egyéb csalások is.

A probléma, hogy jelenleg az Egyesült Államokban és az Egyesült Királyságban a mesterséges intelligenciával foglalkozó cégek többnyire önmagukat szabályozzák, nincs egy külső kontroll, ami csökkenthetné az említett kockázatokat. Minderre szolgálna megoldásul a napokban aláírt megállapodás.

Szemlézte: Pál Eszter

Tetszett a cikk? Hasonló tartalmakért kövess minket a Facebookon

komment
süti beállítások módosítása