AI is in razend tempo geïntegreerd in organisaties. Stand-alone AI-tools, AI-functionaliteit binnen bestaande applicaties tot grootschalige AI-engines en datalakes: organisaties kunnen niet meer zonder. Dat kan niet zonder heldere wetgeving. Wat gaat er veranderen en wat betekent dit voor organisaties binnen de EU?
Vanaf februari 2025 zijn de verbodsbepalingen van de Europese AI Act al van kracht: AI-systemen met onacceptabele risico’s voor gezondheid, veiligheid of fundamentele rechten van de mens mogen sindsdien niet meer worden toegepast of aangeboden. Vanaf 2 augustus 2025 volgen de eerste aanvullende verplichtingen. De AI Act is de eerste wetgeving in zijn soort die de inzet en ontwikkeling van kunstmatige intelligentie binnen de EU in goede banen moet leiden. Wat vandaag nog ‘aanbevelingen’ lijken, wordt vanaf 2026 harde wetgeving. Organisaties doen er dus verstandig aan nu al hun AI-huishouding onder de loep te nemen.
Nieuwe AI-regels zijn geen toekomstmuziek meer
De AI Act is bedoeld om AI veilig, transparant en controleerbaar te houden. Vanaf augustus 2025 geldt de wet voor aanbieders van zogenoemde General Purpose AI-modellen. Dit zijn modellen die voor uiteenlopende toepassingen gebruikt kunnen worden, zoals GPT-5 of open source LLM’s. Die aanbieders moeten vanaf dat moment aantonen hoe hun modellen zijn getraind, welke data zijn gebruikt en of daarbij het auteursrecht is gerespecteerd. Ook komt er een verplichting tot technische documentatie. Dit raakt niet alleen grote techbedrijven, maar ook organisaties die AI integreren in hun eigen diensten en producten.
Wat verandert er voor jouw organisatie?
De AI Act hanteert een risicogebaseerde benadering. AI-systemen worden ingedeeld in verboden, hoog risico, beperkt risico of minimaal risico. Afhankelijk van de risicocategorie gelden er andere eisen. Voor hoog risico AI (denk aan toepassingen in de gezondheidszorg, kredietverstrekking, HR of onderwijs) gelden straks zware verplichtingen op het gebied van conformiteit, risicobeoordeling en toezicht. Zelfs als je geen AI ontwikkelt, maar wel gebruikt of inkoopt, kun je onder deze wet vallen. Juist daarom is het cruciaal om je AI-landschap en gebruikstoepassingen vroegtijdig in kaart te brengen.
2026 wordt het kantelpunt voor AI-governance
De verplichtingen gaan stapsgewijs in. Waar de eerste regels zich richten op transparantie voor modelaanbieders, volgen in 2026 de onderdelen met de grootste impact: conformiteitsbeoordelingen door een zogeheten ‘notified body’, die nodig zijn om een CE-markering voor een AI-systeem te verkrijgen. Daarnaast worden registratieverplichtingen voor hoog risico AI van kracht en komt er een verplichting tot het uitvoeren van AI Impact Assessments (AIIA’s). Vanaf dat moment moeten organisaties kunnen aantonen dat hun AI veilig, betrouwbaar en uitlegbaar is. Niet alleen op papier, maar ook in de praktijk. Toezichthouders krijgen vergaande bevoegdheden om in te grijpen bij niet-naleving. Daarmee wordt 2026 hét jaar waarin AI-governance geen keuze, maar noodzaak wordt.
Wacht niet af, begin met governance en training
Vooruitkijken loont. Organisaties die nu al investeren in AI-governance, reduceren straks het risico op boetes, reputatieschade en juridische complicaties. Dat begint bij een goed overzicht van de gebruikte AI-systemen, inclusief leveranciers en toepassingen.
Ondersteuning door Crowe Technology
Crowe Technology beschikt over een groot, mulitdiciplinair team dat organisaties helpt bij vraagstukken op het vlak van data (kwaliteit, verrijking, inzicht) & AI. Wij begeleiden organisaties bij de stappen naar digitale en AI-volwassenheid. Ook AI-governance, en dus ook de Europese AI Act, is integraal onderdeel van onze werkwijze. Meer informatie over onze aanpak: Data & AI – Crowe Foederer