Az EU AI-szabályozása 2024 augusztusában lép hatályba
Az Európai Bizottság 2021 áprilisában benyújtott első javaslatát követően az Európai Parlament elfogadta a mesterséges intelligenciáról szóló uniós rendeletet. Ez 2024 júliusában jelent meg az Európai Unió Hivatalos Lapjában, és mára az EU-tagállamok mind a 24 hivatalos nyelvén elérhető. A rendelet hivatalosan 2024 augusztusában lép hatályba, bár a legtöbb rendelkezés csak két évvel később lép hatályba. Az egyes rendelkezésekre azonban eltérő határidők vonatkoznak. A rendelet kötelezettségeket ír elő az Európai Unióban mesterséges intelligencia rendszereket fejlesztő és/vagy használó cégek számára.
EU AI szabályozási ütemterv
Az EU AI-rendelete a következő ütemterv szerint kerül kidolgozásra és végrehajtásra:
2021. április: Az Európai Bizottság első javaslata
2024. március: Elfogadta az Európai Parlament
2024. július: Hivatalos közzététel az EU Hivatalos Lapjában
2024. augusztus: A rendelet hatályba lép
2025 közepe: Teljes körű végrehajtás az EU összes tagállamában
Mi az európai mesterséges intelligenciáról szóló rendelet?
A 2024-es európai mesterségesintelligencia-törvény az Európai Bizottság rendelete, amelynek célja, hogy biztosítsa a mesterséges intelligencia rendszerek „biztonságos, átlátható, nyomon követhető, megkülönböztetéstől mentes és környezetbarát” használatát . A rendelet célja annak szabályozása, hogy az AI-rendszereket hogyan kezelhetik megfelelően az AI-rendszerek „szolgáltatói” és „üzemeltetői”, az általuk jelentett kockázatoknak megfelelően. Az AI-rendszerek „szolgáltatója” a legtágabb értelemben olyan vállalat, amely saját márkaneve alatt kínál vagy fejleszt AI-rendszert. Az üzemeltetők azok, akik mesterséges intelligencia technológiát használnak. Ezért bármely cég tartozhat ebbe a csoportba. Minél nagyobb az AI-rendszer kockázata, annál szigorúbbak a szabályozási követelmények.
Az EU AI-jogának néhány kulcsfontosságú pontja
- Kockázatalapú besorolás: Az AI-törvény az AI-rendszereket különböző kockázati szintekbe sorolja, amelyek mindegyike sajátos szabályozási követelményekkel rendelkezik a lehetséges hatások kezelésére.
- Átláthatósági követelmények: A magas kockázatú mesterséges intelligencia rendszereknek szigorú átláthatósági és nyilvántartási követelményeknek kell megfelelniük az elszámoltathatóság és a nyomon követhetőség biztosítása érdekében.
- Emberi felügyelet: Bizonyos mesterséges intelligencia rendszerek emberi felügyeletet igényelnek a kockázatok csökkentése és az etikai normák fenntartása érdekében.
Kockázati szintek az EU AI-jogában
Az AI-törvény négy kockázati szintet határoz meg az AI-rendszerek számára, amelyek mindegyike meghatározott szabályozási követelményekhez kapcsolódik:
Forrás : Az Európai Bizottság hivatalos kiadványa az AI-törvényről
Elfogadhatatlan kockázat
Az e kockázati szint alá eső mesterséges intelligencia rendszerek egyértelmű veszélyt jelentenek, és szigorúan tilosak. Ilyen például a viselkedés manipulálása kognitív technikákkal, például hangvezérelt játékok, amelyek veszélyes viselkedésre csalják a gyerekeket, vagy olyan társadalmi minősítési rendszerek, amelyek viselkedésük vagy személyes jellemzőik alapján kategorizálják az embereket.
Magas kockázatú mesterséges intelligencia rendszerek
Az ebbe a kategóriába tartozó mesterséges intelligencia rendszerek jelentős hatással lehetnek az egészségre, a biztonságra vagy az alapvető jogokra. Ilyen például a mesterséges intelligencia a kritikus infrastruktúra kezelésében, az oktatásban, a foglalkoztatásban és a bűnüldözésben. Minden magas kockázati potenciállal rendelkező AI-rendszert szigorú tesztelésnek kell alávetni, mielőtt piacra kerülnének, és teljes élettartama alatt. Az egyéneknek jogukban áll jelenteni az AI-rendszerekkel kapcsolatos aggályaikat az illetékes nemzeti hatóságoknak.
Korlátozott kockázat
Ezek az AI-rendszerek alacsony kockázatot jelentenek, és átláthatósági követelmények vonatkoznak rájuk. Például a chatbotokkal kommunikáló felhasználókat tájékoztatni kell arról, hogy mesterséges intelligenciával beszélnek. A szolgáltatóknak gondoskodniuk kell arról is, hogy a mesterséges intelligencia által generált tartalom, különösen a közérdekű témákban, egyértelműen legyen megjelölve mesterségesen előállítottként, függetlenül attól, hogy szövegről, hangról vagy videóról van szó.
Minimális vagy semmi kockázat
A minimális vagy kockázat nélküli mesterséges intelligencia rendszerekre nem vonatkoznak további szabályozási követelmények. Ilyenek például a mesterséges intelligencia által vezérelt videojátékok és a spamszűrők.
Megfelelőség és mesterséges intelligencia: Mit kell tenniük a vállalatoknak
Amint azt az Európai Tanács májusi sajtóközleményében kifejtette , fontos felmérni az alapvető jogokra gyakorolt hatást, mielőtt bizonyos közszolgáltatásokat nyújtó vállalatok magas kockázatú mesterségesintelligencia-rendszert telepítenek.
Az AI-rendszer szolgáltatóinak szem előtt kell tartaniuk néhány szempontot:
- Végezzen kockázatértékelést az AI-rendszer kockázati kategóriájának meghatározásával és a szükséges védelmi intézkedések végrehajtásával.
- Készítsen műszaki dokumentációt a megfelelőség igazolására, és nyújtsa be a hatóságokhoz felülvizsgálatra.
- Az AI-rendszer fejlesztése az események automatikus naplózására a kockázatok és a rendszerváltozások észlelése érdekében.
- Hozzon létre iránymutatásokat az üzemeltetők számára a követelmények teljesítésének biztosítására.
Bár az üzemeltetőket nem terhelik ugyanazok a kötelezettségek, mint a szolgáltatókat, az AI-törvény előírja számukra, hogy betartsák a használati irányelveket, biztosítsák a szervezeti és műszaki megfelelőséget, valamint adatvédelmi hatásvizsgálatot végezzenek a magas kockázatú mesterségesintelligencia-rendszerek bevezetése előtt.
Az EU AI-törvényének be nem tartása a jogsértés súlyosságától és a vállalat méretétől függően 35 millió eurótól, azaz a globális forgalom 7%-ától 7,5 millió euróig vagy a forgalom 1,5%-áig terjedő bírságot vonhat maga után.
Európa digitális céljai és a 2030-ra meghatározott európai adatstratégia célja a tisztességes verseny előmozdítása és az online szolgáltatások átláthatóságának növelése. A vállalatok számára ez azt jelenti, hogy gondoskodniuk kell arról, hogy folyamataik támogassák ezeket az adatvédelmi értékeket. A közelmúltban elfogadott törvények, köztük a digitális szolgáltatásokról szóló törvény és a digitális piacokról szóló törvény hangsúlyozzák a tisztességes verseny és az átláthatóság fontosságát. A belső folyamatok kezelésével és azok korai szakaszában történő felülvizsgálatával az AI-rendszerek szolgáltatói és felhasználói egyaránt elkerülhetik a bírságokat és növelhetik a fogyasztói bizalmat. Javítsa megfelelőségi folyamatait még ma, ha ide kattint a kezdéshez.