Gids15/02/2026Laatst beoordeeld: 15/02/202612 min leestijd

De Complete EU AI Act Compliance Gids voor 2026

Alles wat u moet weten over EU AI Act compliance in 2026.

Door complixo Team

Wat is de EU AI Act?

De EU AI Act — officieel Verordening (EU) 2024/1689 — is een verordening van het Europees Parlement en de Raad, gepubliceerd in het Publicatieblad van de Europese Unie op 12 juli 2024. De verordening is in werking getreden op 1 augustus 2024, met verschillende bepalingen die volgens een gefaseerd tijdschema van toepassing worden.

De verordening stelt een geharmoniseerd rechtskader vast voor de ontwikkeling, het in de handel brengen, het in gebruik stellen en het gebruik van AI-systemen binnen de Europese Unie. De verordening hanteert een risicogebaseerde aanpak: hoe hoger het risico dat een AI-systeem vormt voor gezondheid, veiligheid of grondrechten, hoe strenger de verplichtingen.

De EU AI Act is niet alleen van toepassing op organisaties gevestigd in de EU, maar ook op elke organisatie wereldwijd die AI-systemen op de EU-markt brengt of waarvan de output van het AI-systeem binnen de EU wordt gebruikt. Dit extraterritoriale bereik maakt de verordening relevant voor vrijwel elk bedrijf dat AI inzet die Europese gebruikers raakt.

Belangrijke deadlines

De EU AI Act hanteert een gefaseerde implementatietijdlijn. De belangrijkste deadlines zijn:

2 februari 2025 — Verboden AI-praktijken en AI-geletterdheid. Het verbod op AI-systemen met een onaanvaardbaar risico (Artikel 5) wordt afdwingbaar. Organisaties moeten ook zorgen voor voldoende AI-geletterdheid voor personeel dat betrokken is bij AI-systemen (Artikel 4). Deze deadline is al verstreken.

2 augustus 2025 — GPAI-bepalingen en governance. Verplichtingen voor aanbieders van general-purpose AI (GPAI) modellen treden in werking (Hoofdstuk V). De AI Office governance-structuur en regels over aangemelde instanties zijn ook van toepassing vanaf deze datum.

2 augustus 2026 — Hoog-risico verplichtingen (Bijlage III). De volledige set verplichtingen voor AI-systemen met een hoog risico die in Bijlage III worden vermeld, worden van toepassing. Dit is de meest impactvolle deadline voor de meeste organisaties.

2 augustus 2027 — Bijlage I hoog-risico (productveiligheid). Verplichtingen voor AI-systemen met een hoog risico die zijn ingebed in producten die al onder bestaande EU-productveiligheidswetgeving vallen (Bijlage I).

De vier risicocategorieën

Onaanvaardbaar risico (Verboden)

AI-systemen die als een duidelijke bedreiging voor grondrechten worden beschouwd, zijn ronduit verboden onder Artikel 5. Verboden praktijken omvatten onder meer social scoring, realtime biometrische identificatie op afstand, subliminale manipulatie en emotieherkenning op de werkplek.

Hoog risico

AI-systemen die aanzienlijke risico's vormen voor gezondheid, veiligheid of grondrechten. Deze zijn gedefinieerd in Bijlage I (productveiligheid) en Bijlage III (specifieke hoog-risicogebieden zoals biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid en rechtshandhaving).

Beperkt risico

AI-systemen met specifieke transparantierisico's. Chatbots moeten onthullen dat ze AI zijn; deepfakes moeten worden gelabeld; emotieherkenningssystemen moeten gebruikers informeren.

Minimaal risico

De overgrote meerderheid van AI-systemen valt in deze categorie (bijv. spamfilters, AI-aangedreven games, voorraadbeheer). Deze kunnen zonder aanvullende wettelijke verplichtingen worden ontwikkeld en gebruikt.

Hoe bereidt u uw organisatie voor?

1. Inventariseer uw AI-systemen. Maak een uitgebreid register van alle AI-systemen die uw organisatie ontwikkelt, inzet of gebruikt.

2. Classificeer elk systeem op risiconiveau. Bepaal of elk AI-systeem valt onder onaanvaardbaar risico, hoog risico, beperkt risico of minimaal risico.

3. Controleer verboden praktijken. Bevestig dat geen van uw AI-systemen praktijken uitvoert die verboden zijn onder Artikel 5.

4. Implementeer hoog-risico verplichtingen. Pak voor elk hoog-risicosysteem de vereisten van Artikelen 9-15 aan.

5. Zorg voor AI-geletterdheid. Artikel 4 vereist dat aanbieders en gebruikers ervoor zorgen dat hun personeel een voldoende niveau van AI-geletterdheid heeft. Deze verplichting geldt al sinds 2 februari 2025.

6. Plan voor conformiteitsbeoordeling. AI-systemen met een hoog risico vereisen een conformiteitsbeoordeling (Artikel 43) voordat ze op de markt worden gebracht.

Begin nu met voorbereiden — de Augustus 2026 deadline nadert snel.

Klaar om compliant te worden?

complixo helpt u AI-systemen te classificeren, documenteren en compliance bij te houden — in minuten, niet maanden.

Gratis beginnen