De AI-verordening is een Europese wet die regels stelt voor de ontwikkeling en het gebruik van AI-systemen. Ook geeft de wet rechten aan burgers die in aanraking komen met AI-systemen.
Het doel van de wet is dat AI-systemen die organisaties (binnen de EU) gebruiken, veilig zijn en fundamentele rechten respecteren. Het maakt niet uit of die AI-systemen binnen of buiten de EU zijn ontwikkeld. AI-systemen worden onderverdeeld in verschillende risicocategorieën. Afhankelijk van de categorie waarin een AI-systeem valt, gelden zwaardere, minder zware of geen regels.
Voor organisaties die AI ontwikkelen en aanbieden wordt duidelijk aan welke eisen hun systemen in Europa moeten voldoen. Organisaties die AI inzetten, kunnen straks door de AI-verordening erop vertrouwen dat deze betrouwbaar en van een hoge kwaliteit is. Mensen die in aanraking komen met AI worden beter beschermd door de eisen en rechten uit de AI-verordening.
Voor wie?
De AI-verordening gaat gelden voor ontwikkelaars van AI-modellen en -systemen en voor organisaties en bedrijven die de AI-systemen gebruiken. Er gelden met name verplichtingen voor ontwikkelaars en gebruikers van hoog-risico AI-systemen. Voor ontwikkelaars van AI-systemen waarmee je als burgers direct in aanraking komt, zoals chatbots en deepfakes, gelden verplichtingen om transparantie te bevorderen. Ook worden enkele toepassingen van AI verboden. Tenslotte gelden er eisen aan de makers van grote taalmodellen en andere modellen die op allerlei manieren kunnen worden ingezet of ingebouwd.
Categorieën
De AI Act onderscheid verschillende risicocategorieën, te weten:
- Verboden praktijken: AI-systemen voor bijvoorbeeld schadelijke manipulatie, onterechte social scoring en emotieherkenning in het onderwijs hebben een onaanvaardbaar risico;
- Hoog-risico: AI-systemen voor onder meer biometrische identificatie en categorisatie, voor het evalueren van kandidaten voor een vacature, of de toelating van studenten in het onderwijs worden beschouwd als risicovol voor fundamentele rechten, veiligheid en gezondheid. Het bepalen of iemand in aanmerking komt voor essentiele publieke diensten en subsidies zoals toeslagen valt hier ook onder. Een volledige lijst met toepassingsgebieden is te vinden in bijlage 3 van de AI-verordening en luistert nauw.
- Risico op misleiding: de makers van AI-systemen die content genereren moeten dit markeren als gegenereerd of gemanipuleerd, en deepfakes moeten als zodanig bekend worden gemaakt. Ook bij de inzet van bijvoorbeeld chatbots moet duidelijk worden dat je met AI te maken hebt.
Verplichtingen
In de AI-verordening staan ook verplichtingen voor de makers van grote AI-modellen. Voor de grootste modellen geldt dat men de systeemrisico’s in kaart moet brengen en mitigeren. Ook moet men het auteursrecht beschermen voor al deze modellen. Daarnaast moet voldoende informatie worden gegeven zodat degene die hiermee nieuwe AI ontwikkelt aan de eisen van de AI-verordening kan voldoen. Zo kan iedereen erop vertrouwen dat de bouwblokken van AI-systemen veilig zijn.
Laag risico AI
Er zijn veel AI-systemen die niet worden gereguleerd. Bij AI die niet in 1 van de bovenstaande categorieën valt gelden er geen eisen omdat de risico’s laag of nihil zijn. Ontwikkelaars of organisaties kunnen wel vrijwillige gedragscodes opstellen en naleven.
Toezicht
De naleving van verboden AI, eisen aan hoog-risico AI-systemen en transparantieverplichtingen wordt gecontroleerd door nationale toezichthouders. De verplichtingen voor grote AI-modellen worden op Europees niveau door de AI Office of het AI-bureau gecontroleerd.
Inwerkingtreding
AI-act
2024
De AI-verordening is in augustus 2024 in werking getreden. De verordening gaat vervolgens gefaseerd van kracht.
Een half jaar na inwerkingtreding zijn de bepalingen over de verboden praktijken van kracht.
2025
Een jaar na inwerkingtreding zijn o.a. de bepalingen over general purpose AI modellen van kracht en moet het toezicht zijn ingericht.
2026
Twee jaar na inwerking treding gaat de rest van de verordening van kracht, waaronder de transparantie-eisen, de eisen voor hoog-risico, en de sandboxes. (Dit is een testomgeving waarin organisaties onder begeleiding van toezichthouders nieuwe en innovatieve producten of diensten kunnen verkennen en uittesten.)
Augustus 2030
Alle AI-systemen bij overheidsorganisaties die vóór inwerkingtreding op de markt zijn gebracht moeten uiterlijk 6 jaar na inwerkingtreding van de verordening aan de eisen voor hoog risico AI-systemen voldoen.