De AI-wet van de EU: een samenvatting
Stel je een wereld voor waarin AI-systemen beslissen wie een lening krijgt, welk nieuws mensen lezen en wie cruciale gezondheidszorg ontvangt; allemaal gebaseerd op ondoorgrondelijke algoritmen. Dit scenario zou snel werkelijkheid kunnen worden zonder robuuste regulering. Om deze risico's te beperken, heeft de Europese Unie (EU de wet op de artificial intelligence (AI Act) opgesteld. Een cruciaal initiatief dat tot doel heeft dat de AI-ontwikkeling in overeenstemming is met fundamentele rechten en dat een transparante en rechtvaardige AI-omgeving in de hele EU wordt bevorderd. Een samenvatting van de 460 pagina's van deze wet.

INHOUD
EU-wet op AI in gewone taal
De EU heeft ’s werelds eerste grote wet aangenomen om kunstmatige intelligentie te reguleren.
AI-regels en tijdlijn
- Vanaf feb 2025: Gevaarlijke AI-toepassingen (zoals sociale scores of manipulerende systemen) zijn verboden.
- Vanaf aug 2025: Grote AI-modellen (zoals systemen à la ChatGPT) moeten transparantieregels volgen (bijv. tonen waar de data vandaan komt).
- Vanaf aug 2026: Hoogrisico-AI (in scholen, banen, gezondheidszorg, rechtspraak of politie) moet aan strikte veiligheidseisen voldoen.
- Vanaf aug 2027: AI ingebouwd in producten zoals speelgoed, auto's of medische apparaten moet extra veiligheidsregels volgen.
De wet overtreden kan leiden tot enorme boetes (tot wel €35 miljoen).
De regels worden gehandhaafd door een nieuw Europees AI-kantoor en nationale toezichthouders. Het doel is om AI in Europa veilig en eerlijk te maken en mensenrechten te respecteren, terwijl innovatie toch wordt aangemoedigd.
Het doel van de AI-wetgeving
De AI-wetgeving heeft tot doel een uniform regelgevend kader voor AI vast te stellen in alle lidstaten van de EU, waarbij wordt gegarandeerd dat AI-systemen worden ontwikkeld en gebruikt op een manier die de mensenrechten en veiligheid respecteert en tegelijkertijd technologische vooruitgang bevordert. Deze doelstellingen zijn veelzijdig:
- Risicobeheer: Introduceer een gestructureerde, op risico gebaseerde aanpak voor AI-regulering die systemen categoriseert op basis van hun potentiële bedreiging voor veiligheid en fundamentele rechten.
- Bescherming van fundamentele rechten: Voorkom AI-toepassingen die individuele vrijheden en privacy kunnen schaden, zoals invasieve surveillance technologieën of systemen die discriminatie kunnen faciliteren.
- Verbetering van transparantie en verantwoordingsplicht: Verplicht tot uitgebreide openbaarmakingen over AI-operaties, waarbij wordt gegarandeerd dat systemen begrijpelijk zijn en hun acties kunnen worden verantwoord.
- Bevordering van innovatie: Faciliteer de groei van de AI-sector door duidelijke regels te stellen die innovators en bedrijven helpen om het juridische landschap te navigeren.
- Wereldwijd leiderschap: Positioneer de EU als een wereldleider in ethische AI-standaarden, die internationale normen en praktijken beïnvloedt.
Belangrijke componenten van de AI-wetgeving
Het kader van de AI-wetgeving omvat verschillende kritieke bepalingen die zijn ontworpen om verschillende aspecten van AI-governance aan te pakken:
- Risicogebaseerde classificatie: AI-systemen worden ingedeeld in vier risicocategorieën - onaanvaardbaar, hoog, beperkt en minimaal risico - met bijbehorende regelgevende vereisten.
- Verboden praktijken: De wet verbiedt bijzonder gevaarlijke toepassingen van AI, waaronder exploitatieve gedragsaanpassing en discriminerende sociale scoresystemen.
- Transparantievereisten: Entiteiten moeten openbaar maken hoe AI-systemen opereren, welke gegevens ze gebruiken en de redenering achter hun beslissingen, met name voor hoogrisico-toepassingen.
- Menselijk toezicht: De wetgeving schrijft voor dat beslissingen die worden genomen door hoogrisico AI-systemen kunnen worden overzien en ingegrepen door mensen om risico's effectief te beperken.
- Naleving en monitoring: De uitvoering wordt gecontroleerd door het Europees Bureau voor kunstmatige intelligentie (binnen de Europese Commissie), ondersteund door de Europese Raad voor kunstmatige intelligentie en nationale toezichthoudende autoriteiten, die regelmatig nalevingsbeoordelingen uitvoeren.
- Extraterritoriale reikwijdte: Vergelijkbaar met de Algemene Verordening Gegevensbescherming (AVG) is de AI-wetgeving van toepassing op elk AI-systeem dat binnen de EU wordt gebruikt, ongeacht de geografische locatie van de aanbieder.
- Handhaving en straffen: Handhaving van de AI-wetgeving wordt gedelegeerd aan de lidstaten. De wet legt boetes op tot € 35 miljoen of 7 % van de wereldwijde omzet voor de ernstigste inbreuken (verboden praktijken). Voor inbreuken op de GPAI kunnen boetes oplopen tot € 15 miljoen of 3 %. Mkb's en start-ups komen in aanmerking voor evenredige strafverminderingen.
Compliance deadlines
Op 13 maart 2024 heeft het Europees Parlement de definitieve tekst van de EU AI Act, waarin alle 808 amendementen zijn opgenomen, met grote meerderheid is aangenomen. De Europese Raad heeft de wet op 21 mei 2024 goedgekeurd en na daaropvolgende taalkundige aanpassingen werd de wet op 12 juli 2024 gepubliceerd in het Publicatieblad van de EU en trad op 1 augustus 2024 in werking.
De compliance deadlines voor de EU AI Act zijn als volgt na de inwerkingtreding:
- 6 maanden na inwerkingtreding (februari 2025):
- Er gelden verboden op AI-systemen die onaanvaardbare risico's met zich meebrengen (titel II).
- 12 maanden (augustus 2025):
- Algemene AI (GPAI), met inbegrip van basismodellen, worden verplichtingen van toepassing. Lidstaten moeten nationale autoriteiten aanwijzen.
- Geschikte autoriteiten van lidstaten moeten worden aangesteld.
- Jaarlijkse beoordeling door de Commissie en mogelijke herzieningen van beperkingen.
- 18 maanden (1e kwartaal 2026):
- De Europese Commissie zal uitvoeringshandelingen uitvaardigen waarin een kader wordt uiteengezet voor de post-marktbewakingsplannen van AI-bedrijven met een hoog risico.
- 24 maanden (3e kwartaal 2026):
- De verplichtingen voor AI-systemen met een hoog risico die zijn opgenomen in bijlage III (biometrie, onderwijs, werkgelegenheid, kritieke infrastructuur, wetshandhaving, enz.) zijn van toepassing. Regelgevende sandboxes moeten operationeel zijn.
- Lidstaten moeten sancties hebben vastgesteld, inclusief administratieve boetes.
- 36 maanden (2e of 3e kwartaal 2027):
- Verplichtingen voor Annex II-systemen met een hoog risico (AI geïntegreerd in producten die onderworpen zijn aan EU-productveiligheidsregels) zijn van toepassing.
- Einde 2030:
- AI-systemen die onderdeel zijn van grootschalige IT-systemen die door de EU-wetgeving op het gebied van vrijheid, veiligheid en recht zijn ingesteld, zoals het Schengeninformatiesysteem, moeten tegen eind 2030 voldoen aan de vereisten van de AI-wet.
Conclusie
Deze samenvatting laat zien dat de AI-wet van de EU een vooruitstrevend initiatief is dat wereldwijd een precedent schept voor AI-regulering. Door de imperatieven van innovatie en veiligheid in evenwicht te brengen, streeft het ernaar een AI-ecosysteem te bevorderen dat zowel dynamisch als principieel is. Naarmate deze regelgeving van kracht wordt, wordt verwacht dat ze niet alleen de ontwikkeling van AI binnen de EU zullen vormgeven, maar ook wereldwijde normen zullen beïnvloeden. Dit zal ervoor dat AI een kracht ten goede is die in lijn is met menselijke waarden en maatschappelijke behoeften.