AI Systeem Risicoclassificatie Uitgelegd: Van Minimaal tot Onaanvaardbaar
Een diepgaande blik op de vier risiconiveaus van de EU AI Act.
De risicogebaseerde aanpak uitgelegd
In plaats van alle AI-systemen gelijk te reguleren, kent de EU AI Act verplichtingen toe die evenredig zijn aan het risico dat een bepaald AI-systeem vormt voor gezondheid, veiligheid en grondrechten. Het kader definieert vier niveaus — onaanvaardbaar, hoog, beperkt en minimaal risico.
De classificatie van een AI-systeem hangt af van het beoogde doel en de gebruikscontext, niet van de onderliggende technologie.
Onaanvaardbaar risico — Verboden AI-praktijken
Artikel 5 vermeldt AI-praktijken die als onaanvaardbaar risico worden beschouwd en daarom verboden zijn. Het verbod is afdwingbaar sinds 2 februari 2025.
Verboden praktijken omvatten: social scoring, realtime biometrische identificatie op afstand, subliminale manipulatie, exploitatie van kwetsbaarheden, ongericht scrapen van gezichtsbeelden, emotieherkenning op werkplekken en in onderwijsinstellingen, biometrische categorisering en individuele predictive policing.
Hoog-risico AI-systemen
Hoog-risico AI-systemen zijn onderworpen aan de meest uitgebreide verplichtingen. Artikel 6 definieert twee routes:
Route 1: Bijlage I — Productveiligheidswetgeving
AI-systemen die veiligheidscomponenten zijn van producten die al onder bestaande EU-wetgeving vallen. Deadline: 2 augustus 2027.
Route 2: Bijlage III — Standalone hoog-risicogebruikscases
AI-systemen gebruikt voor biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële diensten, rechtshandhaving, migratie en rechtspraak. Deadline: 2 augustus 2026.
Beperkt risico — Transparantieverplichtingen
Artikel 50 definieert transparantieverplichtingen: chatbots moeten aangeven dat ze AI zijn, deepfakes moeten gelabeld worden, emotieherkenningssystemen moeten gebruikers informeren.
Minimaal risico — Vrijwillige gedragscodes
De meerderheid van AI-systemen valt in deze categorie. Geen aanvullende verplichtingen, maar vrijwillige gedragscodes worden aangemoedigd.
Hoe classificeert u uw systeem stap voor stap?
Stap 1: Controleer tegen verboden praktijken (Artikel 5).
Stap 2: Controleer Bijlage I productveiligheid.
Stap 3: Controleer Bijlage III gebruikscases.
Stap 4: Controleer transparantieverplichtingen (Artikel 50).
Stap 5: Minimaal risico als geen van bovenstaande van toepassing is.
Een AI-systeem kan in meerdere categorieën vallen. De hoogste toepasselijke risicoklasse bepaalt de verplichtingen.
Klaar om compliant te worden?
complixo helpt u AI-systemen te classificeren, documenteren en compliance bij te houden — in minuten, niet maanden.
Gratis beginnen