Ahogy az Európai Unió közelít az EU AI Act véglegesítéséhez, a harmadik tervezet kiadása 2025. március 11-én jelentős pillanatot jelent az AI modellkészítők számára a szabályozási környezetben. Ez a tervezet, amely a 2025. májusi véglegesítés előtti utolsó felülvizsgálati szakaszt jelzi, egy egyszerűsített struktúrát tükröz, amelyet jelentős érdekelt felek visszajelzései finomítottak.
Az EU kiterjesztette az írásbeli visszajelzések határidejét 2025. március 30-ig, lehetővé téve az alapos hozzájárulást a közelgő workshopok és munkacsoportok előtt. A végső útmutatás célja, hogy zökkenőmentesen átváltson az EU AI Act végrehajtására, amely 2025. augusztus 2-ára van ütemezve.
A harmadik tervezet egy egyszerűsített struktúrát vezet be, amely a követelményeket olyan szakaszokra osztja, amelyek az átláthatóságra, a szerzői jogra és a biztonságra/védelemre összpontosítanak a rendszerszintű kockázatot jelentő Általános Célú AI (GPAI) modellek esetében. Ez a felülvizsgálat kiemeli az EU törekvését a szabályozási kihívások és a gyakorlati megvalósítás közötti egyensúly megteremtésére. Az EU AI Hivatal kulcsszerepet játszott a kezdeti AI Gyakorlati Kódex bevezetésében, amely megalapozta ezeket az átfogó irányelveket.
Az egyszerűsített struktúra az átláthatóságot, a szerzői jogot és a biztonságot célozza a rendszerszintű kockázatot jelentő GPAI modellek esetében, egyensúlyba hozva a szabályozási kihívásokat a gyakorlati megvalósítással.
A szabványosított Model Dokumentációs Űrlap bevezetése stratégiai lépés az átláthatósági megfelelés központosítására, egyértelműséget nyújtva az AI fejlesztőknek. Ez a változás kiemeli az EU fogékonyságát az érdekelt felek visszajelzéseire, hangsúlyozva az átláthatóság koherens megközelítésének szükségességét anélkül, hogy túlterhelné a fejlesztőket.
A szerzői jogi kötelezettségeket egyszerűsítették, de megtartották a korábbi tervezetek alapvető intézkedéseit. A GPAI-knak "ésszerű intézkedéseket" kell alkalmazniuk a szerzői jogokat sértő kimenetek elkerülésére, ami egy árnyalt megközelítést tükröz, amely a kockázatok enyhítésére törekszik az innováció korlátozása nélkül.
A nyílt forráskódú modelleket felmentették bizonyos átláthatósági követelmények alól az 53. cikk értelmében, ami az EU különböző AI fejlesztési modellekhez való alkalmazkodóképességét mutatja. Ez a rugalmasság azonban szürke zónákat vezet be a végrehajtásban, olyan kifejezésekkel, mint a "legjobb erőfeszítések" és a "megfelelő intézkedések", amelyek potenciálisan bonyolíthatják a megfelelőség értékelését.
A rendszerszintű kockázatot jelentő GPAI-knak további kötelezettségei vannak, beleértve a szigorú modellértékeléseket és az incidensjelentéseket, amelyek célja a biztonsági és kibervédelmi aggályok kezelése. A tervezet magas kockázatú AI modellekre való összpontosítása összhangban van a globális trendekkel, amelyek a biztonságot és a kockázatcsökkentést helyezik előtérbe az AI bevezetésében.
A nem megfelelőség jogi kockázatai jelentősek, a büntetések a globális éves forgalom akár 3%-át is elérhetik, megerősítve az EU elkötelezettségét a robusztus szabályozói felügyelet iránt.
E törekvések ellenére a tervezet nem kerülte el a vitákat. Az Egyesült Államok kormánya kritizálta az EU szabályozási megközelítését, mint túlzást, ami potenciálisan befol
References
- https://www.akingump.com/en/insights/ai-law-and-regulation-tracker/overview-of-the-eu-ai-acts-first-draft-general-purpose-ai-code-of-practice
- https://iapp.org/resources/article/eu-ai-act-cheat-sheet/
- https://techcrunch.com/2025/03/11/eu-ai-act-latest-draft-code-for-ai-model-makers-tiptoes-towards-gentler-guidance-for-big-ai/
- https://about.citiprogram.org/blog/an-overview-of-the-eu-ai-act-what-you-need-to-know/
- https://digital-strategy.ec.europa.eu/en/library/third-draft-general-purpose-ai-code-practice-published-written-independent-experts