• Direct naar de pagina-inhoud
  • Direct naar de hoofdnavigatie
  • Direct naar de footer
  • Nieuwsbrief
  • Over ons
  • Contact

Digitale Overheid

Voor professionals die werken aan digitalisering van de overheid

Logo Rijksoverheid, naar de homepage

Digitale Overheid

  • Home
  • Werkagenda
  • Onderwerpen
  • Nieuws en achtergrond
  • Evenementen
  • Nieuwsbrief
  • Over ons
  • Contact
Home›Nieuws›AIVD deelt principes voor verdediging AI-systemen

AIVD deelt principes voor verdediging AI-systemen

Cybersecurity 16 februari 2023

Aanvallen op AI-systemen: een aanvaller probeert aanpassingen te maken in je data, algoritme of model zodat het niet meer werkt zoals gewenst. Organisaties kunnen zich verdedigen tegen de verschillende manieren van aanvallen, door AI-systemen veilig te ontwikkelen. De Algemene Inlichtingen- en Veiligheidsdienst (AIVD) geeft daarvoor 5 principes. 

Een automatische scanner voor de doorvoer van goederen die onbedoeld wapens doorlaat. Een op AI-gebaseerd malware-detectieprogramma dat verkeerde trainingsdata heeft gekregen en nu niet meer werkt. Aanvallers die gevoelige gegevens uit je AI-systeem weten te achterhalen. En dat alles zonder dat je het als eigenaar op tijd door hebt. Zomaar een paar voorbeelden van de mogelijk desastreuze gevolgen van gemanipuleerde AI-systemen.

AI-systemen kunnen organisaties helpen om processen sneller, slimmer en beter uit te voeren. Denk aan modellen voor beeldherkenning, spraaktechnologie of cybersecurity. Ontwikkelingen in AI gaan snel. Zo snel, dat het belangrijk is om nu direct AI-systemen veilig te ontwikkelen.

5 principes voor verdediging

Deze 5 belangrijke principes helpen bij het nadenken over het veilig ontwikkelen en gebruiken van AI-modellen in je organisatie. Het is belangrijk dat security experts en AI experts met elkaar hierover in gesprek gaan.

  1. Houd de datakwaliteit op orde.
  2. Zorg voor validatie van je data.
  3. Houd rekening met supply chain security.
  4. Maak je model robuust tegen aanvallen.
  5. Zorg dat je model controleerbaar is.

5 soorten aanvallen op AI-systemen

Deze aanvallen ziet de AIVD gebeuren.

  1. Poisoning aanvallen: een aanvaller probeert aanpassingen te maken in je data, algoritme of model zodat het AI-systeem wordt ‘vergiftigd’ en daardoor niet meer werkt zoals gewenst.
  2. Input (evasion) aanvallen: met bepaalde input – bijvoorbeeld ruis over een foto – proberen een AI-systeem om de tuin te leiden zodat het systeem niet of onjuist werkt.
  3. Backdoor aanvallen: door een achterdeurtje in een AI-model te bouwen, kan een externe partij een extra pad toevoegen waarmee de uiteindelijke beslissing van het model kan worden bepaald.
  4. Model reverse engineering & inversion aanvallen: een aanvaller probeert erachter te komen hoe jouw model werkt om de dataset te reconstrueren die gebruikt is om jouw model te trainen.
  5. Inference aanvallen: gericht op het achterhalen of een specifieke set gegevens is gebruikt als trainingsdata voor een model.

Meer informatie

Bekijk de factsheet van de AIVD voor meer informatie.

Deel deze pagina
  •  Deel via e-mail
  •  Deel op Twitter
  •  Deel op LinkedIn

Gerelateerd

  • Akerboom (AIVD) “Laat dreiging niet uit de pas lopen met weerbaarheid”
  • Over de Toolbox voor Ethisch Verantwoorde Innovatie
  • AI (Artificiële Intelligentie)

Wat vind jij?

Geef je mening. Doe mee aan het lezersonderzoek van digitaleoverheid.nl

Start de enquête

Vraag, idee, reactie of suggestie?

Werk je aan de digitalisering van de overheid en heb je een vraag of een idee? Reageer via het contactformulier

  • Link DigiD helpdesk digid.nl/hulp
  • Link MijnOverheid / Berichtenbox mijn.overheid.nl/vragen
  • Link eHerkenning helpdesk eherkenning.nl/vraag-antwoord
  • Mailadres Berichtenbox voor Bedrijven ondernemersinformatie@rvo.nl

Digitale Overheid

Voor professionals die werken aan
digitalisering van de overheid

Volg ons via

  • Nieuwsbrief Digitale Overheid
  • Twitter
  • LinkedIn
  • RSS

Over deze site

  • Colofon
  • Archief
  • Copyright
  • Privacy
  • Toegankelijkheidsverklaring
  • Sitemap
  • Contact
  • This site in English