Aanvallen op AI-systemen: een aanvaller probeert aanpassingen te maken in je data, algoritme of model zodat het niet meer werkt zoals gewenst. Organisaties kunnen zich verdedigen tegen de verschillende manieren van aanvallen, door AI-systemen veilig te ontwikkelen. De Algemene Inlichtingen- en Veiligheidsdienst (AIVD) geeft daarvoor 5 principes.
Een automatische scanner voor de doorvoer van goederen die onbedoeld wapens doorlaat. Een op AI-gebaseerd malware-detectieprogramma dat verkeerde trainingsdata heeft gekregen en nu niet meer werkt. Aanvallers die gevoelige gegevens uit je AI-systeem weten te achterhalen. En dat alles zonder dat je het als eigenaar op tijd door hebt. Zomaar een paar voorbeelden van de mogelijk desastreuze gevolgen van gemanipuleerde AI-systemen.
AI-systemen kunnen organisaties helpen om processen sneller, slimmer en beter uit te voeren. Denk aan modellen voor beeldherkenning, spraaktechnologie of cybersecurity. Ontwikkelingen in AI gaan snel. Zo snel, dat het belangrijk is om nu direct AI-systemen veilig te ontwikkelen.
5 principes voor verdediging
Deze 5 belangrijke principes helpen bij het nadenken over het veilig ontwikkelen en gebruiken van AI-modellen in je organisatie. Het is belangrijk dat security experts en AI experts met elkaar hierover in gesprek gaan.
- Houd de datakwaliteit op orde.
- Zorg voor validatie van je data.
- Houd rekening met supply chain security.
- Maak je model robuust tegen aanvallen.
- Zorg dat je model controleerbaar is.
5 soorten aanvallen op AI-systemen
Deze aanvallen ziet de AIVD gebeuren.
- Poisoning aanvallen: een aanvaller probeert aanpassingen te maken in je data, algoritme of model zodat het AI-systeem wordt ‘vergiftigd’ en daardoor niet meer werkt zoals gewenst.
- Input (evasion) aanvallen: met bepaalde input – bijvoorbeeld ruis over een foto – proberen een AI-systeem om de tuin te leiden zodat het systeem niet of onjuist werkt.
- Backdoor aanvallen: door een achterdeurtje in een AI-model te bouwen, kan een externe partij een extra pad toevoegen waarmee de uiteindelijke beslissing van het model kan worden bepaald.
- Model reverse engineering & inversion aanvallen: een aanvaller probeert erachter te komen hoe jouw model werkt om de dataset te reconstrueren die gebruikt is om jouw model te trainen.
- Inference aanvallen: gericht op het achterhalen of een specifieke set gegevens is gebruikt als trainingsdata voor een model.
Meer informatie
Bekijk de factsheet van de AIVD voor meer informatie.