AI met een hoog risico onder de EU AI Act

De EU AI-wet vertegenwoordigt een baanbrekende stap in de regulering van kunstmatige intelligentie (AI) binnen de Europese Unie. Deze wet richt zich op hoogrisico AI-systemen met ernstige gevolgen voor de openbare veiligheid, rechten en maatschappelijke waarden. Dit regelgevingskader streeft ernaar dit te voorkomen en tegelijkertijd technologische vooruitgang en innovatie aan te moedigen. De wet beoogt een sfeer te bevorderen waarin AI-technologie zich onder strikte controle veilig en verantwoord kan ontwikkelen.

hoogrisico ai en ai-wetgeving

1 mei 2024 6 minuten lezen

Classificatie van AI-wet hoogrisico systemen

AI-systemen met hoog risico zijn diegenen die aan specifieke criteria voldoen onder de EU AI-wetgeving. Zoals uiteengezet in Artikelen 6 en 7, zijn ze doorgaans betrokken als veiligheidscomponenten in producten of zijn ze zelf producten die een conformiteitsbeoordeling door een derde partij vereisen voordat ze op de markt kunnen worden gebracht of gebruikt. Deze classificatie is niet statisch; de lijst met AI-wet hoogrisico systemen kan worden gewijzigd als er nieuwe informatie en technologische doorbraken ontstaan.

Verboden AI onder de EU AI-wet »

Schattingen van AI met een hoog risico

De verhouding van AI-systemen die als hoog risico zijn geclassificeerd, is onbekend, aangezien zowel het AI-veld als de regelgevingskaders blijven evolueren. Het impactonderzoek van de Europese Commissie schatte dat slechts 5-15% van de AI-toepassingen zal worden onderworpen aan strenge regels. In tegenstelling hiermee onthulde de analyse van 100 AI-systemen door appliedAI dat 18% hoogrisico waren, 42% laag risico waren en 40% onzekere risicoclassificaties hadden. Daarom varieert de verhouding van hoogrisico systemen in deze steekproef van 18% tot 58%. Eén van de kunstmatige intelligentiesystemen zou verboden zijn.

Bovendien wees een enquête onder 113 EU AI-startups uit dat 33% van de respondenten verwachtte dat hun AI-systemen als hoog risico zouden worden geclassificeerd, aanzienlijk hoger dan de beoordeling van de Europese Commissie.

Vrijstellingen en speciale overwegingen

Niet alle AI-systemen die op basis van hun toepassingen als hoog risico kunnen worden beschouwd, vallen onder deze strenge classificatie. Systemen bedoeld voor het uitvoeren van nauwkeurig gedefinieerde procedurele taken, het verbeteren van resultaten van eerdere menselijke activiteiten, het detecteren van patronen in besluitvorming zonder invloed uit te oefenen op uitkomsten zonder menselijke beoordeling, of het voorbereiden van beoordelingen met betrekking tot gebruiksscenario's met hoog risico, worden over het algemeen niet geclassificeerd als hoogrisico als ze geen significante gezondheids-, veiligheids- of rechtenrisico's met zich meebrengen.

Elke AI die profilering van individuen uitvoert, wordt echter automatisch geclassificeerd als hoogrisico, ongeacht de andere functionaliteiten ervan. Aanbieders van systemen die mogelijk op de grens liggen, moeten hun beoordelingen grondig documenteren voordat ze op de markt worden gebracht, waarbij transparantie en verantwoordingsplicht worden gegarandeerd.

Verplichtingen voor aanbieders

Aanbieders van hoogrisico AI-systemen worden geconfronteerd met uitgebreide verplichtingen om ervoor te zorgen dat hun systemen veilig en compliant zijn:

  • Risicobeheer: Implementatie van een voortdurend risicobeheersysteem.
  • Data en documentatie: Gebruik van hoogwaardige gegevens en uitgebreide documentatie van systeemprestaties.
  • Conformiteitsbeoordeling en CE-markering: Systemen moeten een conformiteitsbeoordeling doorstaan en CE-markering ontvangen voordat ze op de markt worden gebracht.
  • Transparantie en menselijk toezicht: Aanbieders moeten zorgen voor systeemtransparantie en menselijk toezicht mogelijk maken, inclusief mechanismen om de werking indien nodig stop te zetten.

Richtlijnen en aanpassingen

De Europese Commissie is, na raadpleging van de Europese Raad voor Kunstmatige Intelligentie, belast met het verstrekken van praktische uitvoeringsrichtlijnen. Deze richtlijnen zullen helpen verduidelijken welke AI-systemen als hoogrisico worden beschouwd en voorbeelden bevatten om bij deze beoordeling te helpen. Bovendien heeft de Commissie de bevoegdheid om de criteria voor wat hoogrisico AI-systeem is te wijzigen via gedelegeerde handelingen, waardoor de wetgeving relevant blijft naarmate de technologie evolueert.

Aanpassing van hoogrisico bijlage

Bijlage III van de wet, waarin specifieke AI-wet hoogrisico toepassingen worden vermeld, kan ook worden gewijzigd om nieuwe gebruiksscenario's toe te voegen of bestaande te wijzigen als ze een vergelijkbaar of groter risico met zich meebrengen dan de reeds vermelde. Deze beslissingen zijn gebaseerd op verschillende factoren, waaronder het doel van het AI-systeem, de mate van gebruik, de aard van de verwerkte gegevens, de autonomie ervan en het mogelijke schadelijke effect.

Gevolgen van niet-naleving

Niet-naleving van de EU AI-wetgeving kan leiden tot ernstige sancties:

  • Financiële boetes: Tot €20 miljoen of 4% van de jaarlijkse wereldwijde omzet, afhankelijk van wat hoger is.
  • Operationele beperkingen: Niet-conforme systemen kunnen verboden worden om op de markt te worden gebracht of moeten mogelijk van de markt worden gehaald.
  • Reputatieschade: Het niet voldoen kan aanzienlijke gevolgen hebben voor het marktvertrouwen en de merkreputatie van de aanbieder.

Tijdlijn en implementatiefasen

De EU AI-wet zal geleidelijk worden ingevoerd:

  • Medio 2024: De wet wordt afdwingbaar, met inwerkingtreding van de eerste bepalingen.
  • Vanaf medio 2026: Alle hoogrisico AI-systemen moeten voldoen aan het volledige scala aan verplichtingen, inclusief registratie en continue monitoring.

Evenwicht tussen risico's en voordelen

Het amendementproces van de EU AI-wetgeving hanteert een gebalanceerde benadering van regulering, waarbij de potentiële voordelen van AI-systemen worden afgewogen tegen de risico's om innovatie te stimuleren en tegelijkertijd de belangen van het publiek te beschermen. Het staat toe dat systemen die geen significante risico's meer vormen, worden verwijderd uit de hoogrisico categorie, waardoor wordt gegarandeerd dat de regels gelijke tred houden met het voortdurend evoluerende AI-veld. Echter, de zorgen over de invloed van deze wetten op het tempo van innovatie zijn duidelijk, aangezien de studie van 113 in de EU gevestigde AI-bedrijven onthulde dat 50% van mening is dat de AI-wetgeving de AI-innovatie in Europa zal vertragen en 16% overweegt de ontwikkeling stop te zetten of buiten de EU te verplaatsen.

Conclusie

De EU AI-wetgeving stelt een belangrijk wereldwijd precedent door de uitdagingen van hoogrisico AI-technologieën rigoureus aan te pakken. Door te zorgen voor grondige documentatie, continue beoordeling en strenge nalevingsvereisten, balanceert de wetgeving zorgvuldig de dubbele doelstellingen van het bevorderen van innovatie en het beschermen van de belangen van het publiek. Naarmate de AI-technologie zich blijft ontwikkelen, is het flexibele kader van de wetgeving ontworpen om zich aan te passen, waardoor wordt gegarandeerd dat het regelgevingskader relevant en effectief blijft bij het bevorderen van verantwoord gebruik van AI in de EU. Deze proactieve benadering onderstreept de toewijding van de EU om voorop te lopen in ethisch AI-bestuur en stelt een benchmark voor wereldwijde AI-regelgeving.

Dit artikel is bedoeld voor informatieve doeleinden en vormt geen juridisch advies.

« Meer AI-governance Zorgen over de EU AI-wet »