
Het Impact Assessment Mensenrechten en Algoritmes (IAMA) is geactualiseerd. Het instrument werd in 2021 ontwikkeld om inzichtelijk te maken welke impact algoritmes kunnen hebben op mensenrechten. De nieuwe versie sluit beter aan op praktijkervaringen binnen de overheid en op de AI-verordening.
De actualisatie is gebaseerd op gebruikersfeedback en ervaringen uit eerdere toepassingen van het IAMA. Het instrument bleek waardevol om het gesprek over mensenrechten te voeren. Tegelijkertijd was er behoefte aan verdere optimalisatie en verduidelijking om het IAMA beter toepasbaar te maken in de praktijk.
Belangrijkste veranderingen
Om het IAMA overzichtelijker te maken is het instrument verkort en aangevuld met een apart toelichtingsdocument. Daarnaast is het in lijn gebracht met artikel 27 van de AI-verordening. Dit artikel verplicht tot het uitvoeren van een grondrechteneffectbeoordeling voor hoog-risico AI-systemen. Het IAMA biedt overheden een praktisch hulpmiddel om invulling te geven aan deze verplichting. Vragen die direct samenhangen met de AI-verordening zijn herkenbaar gemarkeerd.
Instrument voor dialoog en besluitvorming
Het IAMA blijft bedoeld als instrument voor dialoog en besluitvorming, en niet als checklist. Het kan worden toegepast op hoog-risico AI-systemen en impactvolle algoritmes. En is onderdeel van het bredere Algoritmekader voor verantwoord gebruik van algoritmes door de overheid en ondersteunt onderbouwde besluitvorming en verantwoording.
Het IAMA is ontwikkeld en geactualiseerd door de Universiteit Utrecht in opdracht van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK). Je vindt het vernieuwde IAMA via de website van de Rijksoverheid.
Aan de slag met het IAMA?
BZK gaat de komende tijd graag in gesprek met overheidsorganisaties om ideeën op te halen over hoe ondersteuning kan worden geboden bij het uitvoeren van een IAMA. We nodigen je van harte uit om ideeën met ons te delen. Stuur daarvoor een mail naar algoritmes@minbzk.nl.




