Jobb

A mesterséges intelligencia uniós szabályozása


Megfelelés a mesterséges intelligencia consentmanager szóló EU-rendeletnek

Az EU AI-szabályozása 2024 augusztusában lép hatályba

Az Európai Bizottság 2021 áprilisában benyújtott első javaslatát követően az Európai Parlament elfogadta a mesterséges intelligenciáról szóló uniós rendeletet. Ez 2024 júliusában jelent meg az Európai Unió Hivatalos Lapjában, és mára az EU-tagállamok mind a 24 hivatalos nyelvén elérhető. A rendelet hivatalosan 2024 augusztusában lép hatályba, bár a legtöbb rendelkezés csak két évvel később lép hatályba. Az egyes rendelkezésekre azonban eltérő határidők vonatkoznak. A rendelet kötelezettségeket ír elő az Európai Unióban mesterséges intelligencia rendszereket fejlesztő és/vagy használó cégek számára.

EU AI szabályozási ütemterv

Az EU AI-rendelete a következő ütemterv szerint kerül kidolgozásra és végrehajtásra:

2021. április: Az Európai Bizottság első javaslata
2024. március: Elfogadta az Európai Parlament
2024. július: Hivatalos közzététel az EU Hivatalos Lapjában
2024. augusztus: A rendelet hatályba lép
2025 közepe: Teljes körű végrehajtás az EU összes tagállamában

Mi az európai mesterséges intelligenciáról szóló rendelet?

A 2024-es európai mesterségesintelligencia-törvény az Európai Bizottság rendelete, amelynek célja, hogy biztosítsa a mesterséges intelligencia rendszerek „biztonságos, átlátható, nyomon követhető, megkülönböztetéstől mentes és környezetbarát” használatát . A rendelet célja annak szabályozása, hogy az AI-rendszereket hogyan kezelhetik megfelelően az AI-rendszerek „szolgáltatói” és „üzemeltetői”, az általuk jelentett kockázatoknak megfelelően. Az AI-rendszerek „szolgáltatója” a legtágabb értelemben olyan vállalat, amely saját márkaneve alatt kínál vagy fejleszt AI-rendszert. Az üzemeltetők azok, akik mesterséges intelligencia technológiát használnak. Ezért bármely cég tartozhat ebbe a csoportba. Minél nagyobb az AI-rendszer kockázata, annál szigorúbbak a szabályozási követelmények.

Az EU AI-jogának néhány kulcsfontosságú pontja

  1. Kockázatalapú besorolás: Az AI-törvény az AI-rendszereket különböző kockázati szintekbe sorolja, amelyek mindegyike sajátos szabályozási követelményekkel rendelkezik a lehetséges hatások kezelésére.
  2. Átláthatósági követelmények: A magas kockázatú mesterséges intelligencia rendszereknek szigorú átláthatósági és nyilvántartási követelményeknek kell megfelelniük az elszámoltathatóság és a nyomon követhetőség biztosítása érdekében.
  3. Emberi felügyelet: Bizonyos mesterséges intelligencia rendszerek emberi felügyeletet igényelnek a kockázatok csökkentése és az etikai normák fenntartása érdekében.

Kockázati szintek az EU AI-jogában

Az AI-törvény négy kockázati szintet határoz meg az AI-rendszerek számára, amelyek mindegyike meghatározott szabályozási követelményekhez kapcsolódik:

Forrás : Az Európai Bizottság hivatalos kiadványa az AI-törvényről

Elfogadhatatlan kockázat
Az e kockázati szint alá eső mesterséges intelligencia rendszerek egyértelmű veszélyt jelentenek, és szigorúan tilosak. Ilyen például a viselkedés manipulálása kognitív technikákkal, például hangvezérelt játékok, amelyek veszélyes viselkedésre csalják a gyerekeket, vagy olyan társadalmi minősítési rendszerek, amelyek viselkedésük vagy személyes jellemzőik alapján kategorizálják az embereket.

Magas kockázatú mesterséges intelligencia rendszerek
Az ebbe a kategóriába tartozó mesterséges intelligencia rendszerek jelentős hatással lehetnek az egészségre, a biztonságra vagy az alapvető jogokra. Ilyen például a mesterséges intelligencia a kritikus infrastruktúra kezelésében, az oktatásban, a foglalkoztatásban és a bűnüldözésben. Minden magas kockázati potenciállal rendelkező AI-rendszert szigorú tesztelésnek kell alávetni, mielőtt piacra kerülnének, és teljes élettartama alatt. Az egyéneknek jogukban áll jelenteni az AI-rendszerekkel kapcsolatos aggályaikat az illetékes nemzeti hatóságoknak.

Korlátozott kockázat
Ezek az AI-rendszerek alacsony kockázatot jelentenek, és átláthatósági követelmények vonatkoznak rájuk. Például a chatbotokkal kommunikáló felhasználókat tájékoztatni kell arról, hogy mesterséges intelligenciával beszélnek. A szolgáltatóknak gondoskodniuk kell arról is, hogy a mesterséges intelligencia által generált tartalom, különösen a közérdekű témákban, egyértelműen legyen megjelölve mesterségesen előállítottként, függetlenül attól, hogy szövegről, hangról vagy videóról van szó.

Minimális vagy semmi kockázat
A minimális vagy kockázat nélküli mesterséges intelligencia rendszerekre nem vonatkoznak további szabályozási követelmények. Ilyenek például a mesterséges intelligencia által vezérelt videojátékok és a spamszűrők.

Megfelelőség és mesterséges intelligencia: Mit kell tenniük a vállalatoknak

Amint azt az Európai Tanács májusi sajtóközleményében kifejtette , fontos felmérni az alapvető jogokra gyakorolt ​​hatást, mielőtt bizonyos közszolgáltatásokat nyújtó vállalatok magas kockázatú mesterségesintelligencia-rendszert telepítenek.

Az AI-rendszer szolgáltatóinak szem előtt kell tartaniuk néhány szempontot:

  1. Végezzen kockázatértékelést az AI-rendszer kockázati kategóriájának meghatározásával és a szükséges védelmi intézkedések végrehajtásával.
  2. Készítsen műszaki dokumentációt a megfelelőség igazolására, és nyújtsa be a hatóságokhoz felülvizsgálatra.
  3. Az AI-rendszer fejlesztése az események automatikus naplózására a kockázatok és a rendszerváltozások észlelése érdekében.
  4. Hozzon létre iránymutatásokat az üzemeltetők számára a követelmények teljesítésének biztosítására.

Bár az üzemeltetőket nem terhelik ugyanazok a kötelezettségek, mint a szolgáltatókat, az AI-törvény előírja számukra, hogy betartsák a használati irányelveket, biztosítsák a szervezeti és műszaki megfelelőséget, valamint adatvédelmi hatásvizsgálatot végezzenek a magas kockázatú mesterségesintelligencia-rendszerek bevezetése előtt.

Az EU AI-törvényének be nem tartása a jogsértés súlyosságától és a vállalat méretétől függően 35 millió eurótól, azaz a globális forgalom 7%-ától 7,5 millió euróig vagy a forgalom 1,5%-áig terjedő bírságot vonhat maga után.

Európa digitális céljai és a 2030-ra meghatározott európai adatstratégia célja a tisztességes verseny előmozdítása és az online szolgáltatások átláthatóságának növelése. A vállalatok számára ez azt jelenti, hogy gondoskodniuk kell arról, hogy folyamataik támogassák ezeket az adatvédelmi értékeket. A közelmúltban elfogadott törvények, köztük a digitális szolgáltatásokról szóló törvény és a digitális piacokról szóló törvény hangsúlyozzák a tisztességes verseny és az átláthatóság fontosságát. A belső folyamatok kezelésével és azok korai szakaszában történő felülvizsgálatával az AI-rendszerek szolgáltatói és felhasználói egyaránt elkerülhetik a bírságokat és növelhetik a fogyasztói bizalmat. Javítsa megfelelőségi folyamatait még ma, ha ide kattint a kezdéshez.



további megjegyzések

Cookie-Crawler - Standalone-Tool
Tábornok, Új

Hírlevél 2024/11

A Cookie-robot mostantól önálló eszközként is elérhető Cookie Crawlerünk most még sokoldalúbb és rugalmasabb! Mostantól önálló eszközként is használhatja – anélkül, hogy külön CMP-t kellene létrehoznia. Az önálló opció azoknak az ügyfeleknek megfelelő, akik (még) nem akarják a cookie bannert consentmanager váltani, de szeretnék ellenőrizni weboldalaik megfelelőségét, vagy olyan külső adatvédelmi tisztviselőknek, akik szeretnék ügyfeleik […]
consentmanager Cookie-Audit Grafik

Cookie-ellenőrzés weboldalakhoz: Hogyan végezze el manuálisan vagy cookie-szkennerrel

Weboldal üzemeltetőjeként Ön felelős a felhasználói adataiért, amelyeket az Ön webhelye cookie-kon keresztül gyűjt és tárol. Az Ön webhelyén aktív cookie-k potenciálisan adatvédelmi problémákat okozhatnak – különösen, ha nem a rendeltetésének megfelelően használják, vagy ami még kritikusabb, ha a böngészőjükben a felhasználók beleegyezése vagy tudta nélkül tárolják . A kockázatok a magas bírságoktól a felhasználók […]