• Direct naar de pagina-inhoud
  • Direct naar de hoofdnavigatie
  • Direct naar de secundaire content met widgets
  • Direct naar de footer

Digitale Overheid

Voor professionals die werken aan digitalisering van de overheid

Logo Rijksoverheid, naar de homepage

Digitale Overheid

  • Home
  • Onderwerpen
  • Nieuws
  • Evenementen
  • Community’s
  • Nieuwsbrief
  • Contact
Home› Onderwerpen› Nieuwe technologieën, data en ethiek› Artificiële Intelligentie (AI)› Achtergrond›Regels AI-modellen voor algemene doeleinden

Regels AI-modellen voor algemene doeleinden

Artificiële Intelligentie (AI) 1 oktober 2024

Op 1 augustus 2024 is de Europese AI-verordening in werking getreden. Deze wet heeft gevolgen voor hoe AI wordt ontwikkeld en gebruikt in de Europese Unie. In dit artikel lees je meer over de verplichtingen die vanaf augustus 2025 gelden voor AI-modellen voor algemene doeleinden. Ook staan we stil bij verschillende transparantieverplichtingen die gaan gelden vanaf augustus 2026. Dit is vooral belangrijk voor overheidsorganisaties.

Wat zijn AI-modellen voor algemene doeleinden?

AI-modellen voor algemene doeleinden zijn ontworpen om een breed scala aan taken uit te voeren. Ze worden getraind op enorme hoeveelheden data en zijn veelzijdig inzetbaar. Vanwege de brede toepasbaarheid van deze modellen, worden er veel AI-systemen op voortgebouwd. Bekende voorbeelden zijn modellen zoals GPT-4 en BERT. Deze modellen kunnen teksten, audio, video en zelfs computercode genereren. Dat maakt ze waardevol voor verschillende toepassingen.

Belangrijk om te weten is dat deze AI-modellen nog geen zelfstandige systemen zijn. Ze vormen de basis voor AI-systemen, maar zonder extra componenten zoals een gebruikersinterface zijn ze niet meer dan een krachtige tool. Voorbeelden van AI-systemen die gebruikmaken van deze modellen zijn ChatGPT, IBM Watsonx en Microsoft Copilot.

Waarom zijn er eisen voor deze modellen?

AI-modellen voor algemene doeleinden worden steeds belangrijker in de wereld van kunstmatige intelligentie. Hun brede toepasbaarheid maakt het mogelijk om nieuwe en innovatieve systemen te ontwikkelen. Maar deze ontwikkelingen brengen ook risico’s met zich mee. Ontwikkelaars weten vaak niet welke data is gebruikt of hoe het model precies is getraind. Bovendien is er veel data nodig, waarvan een deel beschermd kan zijn door auteursrecht.

Daarnaast kunnen deze modellen systeemrisico’s met zich meebrengen, zoals de verspreiding van ongepaste of zelfs gevaarlijke content. Dit kan invloed hebben op de volksgezondheid, de veiligheid en zelfs op democratische processen. Daarom is het belangrijk dat er duidelijke regels zijn voor de ontwikkeling en inzet van deze modellen.

Wat zijn de verplichtingen voor aanbieders van AI-modellen?

Als je AI-modellen voor algemene doeleinden aanbiedt, moet je technische documentatie bijhouden. Deze documentatie moet informatie bevatten over het trainings- en testproces en de resultaten van evaluaties. Deze gegevens kan het  AI-bureau opvragen.

Bovendien moeten aanbieders zorgen voor actuele informatie die toegankelijk is voor de aanbieders van systemen die het model gebruiken. Dit helpt hen om de mogelijkheden en beperkingen van het model te begrijpen en aan de wettelijke eisen te voldoen.

Voor modellen die systeemrisico’s met zich meebrengen, gelden extra verplichtingen. Je moet bijvoorbeeld regelmatige evaluaties uitvoeren om kwetsbaarheden te identificeren en incidenten te documenteren. Ook moet je zorgen voor goede cyberbeveiliging.

Wat is het AI-bureau?

Het Europees AI-bureau speelt een belangrijke rol bij de uitvoering van de AI-verordening, met name voor AI voor algemene doeleinden. Ook bevordert het de inzet van betrouwbare AI en internationale samenwerking. Lees meer over het AI-bureau op de website van de Europese Unie.

Transparantieverplichtingen voor AI-systemen

De AI-verordening introduceert vanaf augustus 2026 ook transparantieverplichtingen voor bepaalde AI-systemen. Dit geldt vooral voor generatieve AI-systemen. Deze systemen moeten ervoor zorgen dat de output duidelijk gemarkeerd wordt als kunstmatig gegenereerde of gemanipuleerde content. Dit moet in een machine-leesbaar formaat zijn, zodat het gemakkelijk te detecteren is.

Deze verplichting heeft ook gevolgen voor overheidsorganisaties die AI-systemen gebruiken voor communicatie. Zelfs als je geen aanbieder bent, maar wel gebruik maakt van een dergelijk systeem, moet je duidelijk maken dat de inhoud gegenereerd of gemanipuleerd is. Dit kan bijvoorbeeld door in de bijschriften van afbeeldingen aan te geven dat ze door AI zijn gemaakt.

Ook voor AI-systemen die met mensen communiceren, zoals chatbots, gelden transparantieverplichtingen. Gebruikers moeten weten dat ze met een AI-systeem praten en niet met een mens. Dit is vooral relevant voor online diensten van overheidsorganisaties.

Wat nu?

De AI-verordening is een uitgebreide wet met veel regels en bepalingen. Dit artikel is de derde in een serie over de AI-verordening. De komende weken gaan we dieper in op de verschillende aspecten van de wet, inclusief de hoog-risico AI-systemen en hoe toezicht op de verordening eruitziet.

Bekijk de tijdlijn van de AI-verordening.

Heb je vragen?

Heb je vragen over de implementatie van de verordening en wat dit betekent voor jouw organisatie? Neem dan contact op met het ministerie van Binnenlandse Zaken en Koninkrijksrelaties via ai-verordening@minbzk.nl. Voor andere vragen kunnen niet-overheidsorganisaties terecht bij het Ondernemersplein.

Deel deze pagina
  •  Deel via e-mail
  •  Deel op X
  •  Deel op LinkedIn

Artikelen over de AI-verordening

  • Wat betekent de AI-verordening voor jouw organisatie?
  • Welke AI-praktijken zijn verboden?

Blijf op de hoogte

Meld je gratis aan voor de nieuwsbrief en blijf op de hoogte van nieuws en ontwikkelingen rondom digitalisering.

Widgetruimte algemeen

Artificiële Intelligentie (AI)

  • Innovatie met AI
  • Publieke waarden en mensenrechten
  • AI-verordening
 

Doe mee

Word lid van de Algoritmes community!

Artikelen over de AI-verordening

  • Wat betekent de AI-verordening voor jouw organisatie?
  • Welke AI-praktijken zijn verboden?

Nieuwsbrief

Neem een abonnement! En ontvang 2 x per maand het laatste nieuws over de Digitale Overheid.

9 documenten

  • Documenten

Berichten

  • Achtergrond
  • Nieuws

Evenementen

  • Evenementen

Community's

  • Kennisnetwerk Data en Samenleving
  • Code for NL
  • RIC (Rijks Innovatie Community)
  • iBestuur
  • I-Partnerschap
  • AI en Algoritmes

Vraag, idee, reactie of suggestie?

Werk je aan de digitalisering van de overheid en heb je een vraag of een idee? Reageer via het contactformulier

  • Link DigiD helpdesk digid.nl/hulp
  • Link MijnOverheid / Berichtenbox mijn.overheid.nl/vragen
  • Link eHerkenning helpdesk eherkenning.nl/nl/contact
  • Mailadres Berichtenbox voor Bedrijven ondernemersinformatie@rvo.nl

Digitale Overheid

Voor professionals die werken aan
digitalisering van de overheid

Blijf op de hoogte

  • Nieuwsbrief Digitale Overheid
  • X @digioverheid
  • LinkedIn Digitale Overheid
  • Mastodon Digitale Overheid
  • RSS

English

  • This site in English

Over Digitale Overheid

  • Over ons
  • Contact
  • Colofon
  • Archief
  • Copyright
  • Privacy
  • Toegankelijkheidsverklaring
  • Meld een kwetsbaarheid
  • Sitemap