Van waarden naar beleid: De principes achter AI-governance

AI in het onderwijs biedt enorme kansen, maar ook risico’s zoals privacyschendingen, bias en afhankelijkheid van leveranciers. In deel 1 zagen we dat governance de structuur biedt: wie beslist en wie verantwoordelijk is.

In dit artikel (deel 2) gaan we een stap verder: op basis waarvan worden die beslissingen genomen? Het antwoord: principes. Die vormen het morele en juridische kompas waarmee scholen beleid kunnen maken dat niet alleen technisch solide is, maar ook ethisch en pedagogisch sterk.

Principes achter AI-governance

3 oktober 2025 6 minuten lezen

Kort samengevat

  • AI-beleid op school: moet gebaseerd zijn op vijf kernprincipes: transparantie, privacy & gegevensbeheer, eerlijkheid & gelijke kansen, robuustheid & veiligheid, en duurzaamheid.
  • Deze principes: maken beleid uitlegbaar, toetsbaar en legitiem.
  • Zonder principes: mist AI-gebruik richting en vertrouwen.

De vijf kernprincipes

1. Transparantie & uitlegbaarheid

Waarom: AI-systemen functioneren vaak als black-boxes. Zonder uitleg verdwijnt het vertrouwen van leerlingen, ouders en leraren.

Wat dit betekent voor beleid:

  • Tools moeten kunnen uitleggen hoe resultaten tot stand komen, in begrijpelijke taal.
  • Leveranciers moeten model cards of duidelijke documentatie aanleveren.
  • De grenzen en beperkingen van AI moeten actief gecommuniceerd worden.

Voorbeeld: Ons adaptieve leerplatform baseert zich op eerdere toetsresultaten, maar houdt geen rekening met ziekte of thuissituatie. De leraar blijft eindverantwoordelijk.

Lees meer over transparantie in AI-besluitvorming — wat scholen moeten eisen van leveranciers, en hoe uitlegbaarheid bijdraagt aan eerlijk en betrouwbaar onderwijs.

“Beleid zonder waarden is stuurloos.”

2. Privacy & gegevensbeheer

Waarom: scholen verwerken zeer gevoelige gegevens, en AI vergroot het risico op lekken of misbruik.

Wat dit betekent voor beleid:

  • Verzamel alleen strikt noodzakelijke gegevens (dataminimalisatie).
  • Sla gegevens op en verwerk ze binnen de EU waar mogelijk, of zorg voor strikte juridische waarborgen (zoals Standard Contractual Clauses) bij overdracht naar het buitenland.
  • Leveranciers moeten een verwerkersovereenkomst (DPA) ondertekenen.

Voorbeeld: AI-tools mogen alleen worden gebruikt als alle leerlinggegevens binnen de EU worden opgeslagen of met gelijkwaardige waarborgen, en automatisch worden verwijderd aan het einde van het schooljaar.

Lees meer over privacy beschermen bij AI op school — wat er gebeurt met de gegevens die in AI-tools worden ingevoerd, en hoe scholen de persoonlijke informatie van leerlingen verantwoord kunnen beschermen.

3. Eerlijkheid & gelijke kansen

Waarom: AI kan ongelijkheid versterken als datasets bias (vooringenomenheid) bevatten.

Wat dit betekent voor beleid:

  • Test tools op bias en representativiteit.
  • AI mag nooit zelfstandig beslissen over doorstroming, selectie of beoordeling.
  • Menselijke controle moet altijd gegarandeerd zijn.

Voorbeeld: AI-advies voor plaatsing in een plusklas mag als input worden gebruikt, maar de uiteindelijke beslissing ligt altijd bij de leraar.

Lees meer over eerlijkheid en gelijke kansen in AI — hoe algoritmes onbedoeld kunnen discrimineren, en wat scholen kunnen doen om te zorgen dat AI-beslissingen rechtvaardig blijven voor alle leerlingen.

4. Robuustheid & veiligheid

Waarom: AI-systemen kunnen falen, crashen, gehackt worden of onvoorspelbare antwoorden geven – met serieuze gevolgen voor leerlingen en onderwijsbeslissingen.

Wat dit betekent voor beleid:

  • AI-tools moeten niet alleen technisch stabiel zijn, maar ook inhoudelijk consistent: bij dezelfde invoer mag er geen grote variatie in het antwoord zijn.
  • AI mag geen definitieve beslissingen nemen zonder menselijke tussenkomst of bevestiging.
  • Verplichte back-upplannen en handmatige alternatieven voor kritieke toepassingen.
  • Leveranciers moeten jaarlijkse beveiligingsaudits ondergaan.
  • Leraren moeten AI-uitvoer actief controleren op fouten, bias of willekeurige uitschieters.

Voorbeeld:: Als ChatGPT wordt ingezet voor het beoordelen van open antwoorden, moet duidelijk zijn dat bij gelijke input het antwoord ook gelijk blijft. Een leraar blijft altijd eindverantwoordelijk voor de beoordeling.

Lees meer over robuustheid en veiligheid in AI — waarom scholen betrouwbare, consistente AI-tools nodig hebben waarop leraren en leerlingen kunnen vertrouwen, en hoe technische stabiliteit de kwaliteit en eerlijkheid van het onderwijs ondersteunt.

5. Duurzaamheid & verantwoordelijkheid

Waarom: AI verbruikt veel energie en grondstoffen. Duurzaamheid is nog geen wettelijke eis, maar wordt steeds meer erkend als essentieel voor verantwoord digitaal onderwijs op lange termijn.

Wat dit betekent voor beleid:

  • Voorkeur voor leveranciers die CO2-neutrale of met hernieuwbare energie aangedreven datacenters gebruiken.
  • Voer kosten-batenanalyses uit, inclusief Total Cost of Ownership (TCO).
  • Herbruik en recycle apparatuur waar mogelijk.

Voorbeeld: Bij inkoop vergelijken we niet alleen prijs en functionaliteit, maar ook ecologische voetafdruk en levenscyclusimpact.

Lees meer over de ecologische voetafdruk van AI — hoe elke prompt en quiz energie verbruikt, welke verborgen milieukosten gepaard gaan met AI in het onderwijs, en hoe scholen met bewuste keuzes en duurzame strategieën hun digitale impact kunnen verkleinen.

Van principes naar beleid: de vertaling

Tabel 1: Van principes naar beleid: de vertaling
Principe Concrete regel Toetsbare voorwaarde
Transparantie Elke AI-tool moet een model card bevatten die logica en beperkingen uitlegt Documentatie is begrijpelijk voor niet-technische gebruikers
Privacy Geen tools zonder EU-opslag of gelijkwaardige waarborgen Leverancier tekent een DPA en specificeert datacenters
Eerlijkheid AI mag nooit de enige basis zijn voor doorstroming of selectie Een leraar heeft altijd de eindverantwoordelijkheid
Robuustheid Kritieke toepassingen moeten back-upprocedures hebben Back-upplannen zijn gedocumenteerd en getest
Duurzaamheid Voorkeur voor leveranciers met groene datacenters Leverancier levert CO2-rapport of certificering aan

Principes en dilemma’s in balans brengen

Principes geven richting, maar kunnen in de praktijk botsen:

  • Transparantie versus gebruiksvriendelijkheid: volledige uitlegbaarheid kan tools minder praktisch maken.
    • Oplossing: vereis minimale uitleg plus een samenvatting van één pagina voor leraren.
  • Innovatie versus veiligheid: snelle adoptie kan botsen met grondige privacychecks.
    • Oplossing: begin met kleinschalige pilots voordat je opschaalt.
  • Kosten versus duurzaamheid: groenere oplossingen zijn vaak duurder.
    • Oplossing: kijk naar langetermijnbesparingen en beschikbare subsidies.

Conclusie

Principes zijn de brug tussen visie en regels. Ze zorgen ervoor dat AI-beleid niet alleen juridisch klopt, maar ook ethisch en pedagogisch onderbouwd is.

Kort samengevat:

  • Principes zijn het kompas voor AI-beleid.
  • Zonder principes missen beleidsregels legitimiteit en vertrouwen.

Onderdeel van een reeks

Dit artikel vormt deel 2 (principes) van de reeks AI-governance en AI-beleid in het onderwijs:

Samen geven deze artikelen schoolleiding, ICT-coördinatoren en leraren houvast om AI verantwoord en effectief te gebruiken.

« Meer verantwoorde AI