Hoe scholen AI veilig, transparant en professioneel gebruiken

AI-beleid per domein

AI is steeds vaker aanwezig bij het ontwerpen van lessen, feedback, differentiatie, ondersteuning van leerlingen, administratie en besluitvorming op schoolniveau. Elk nieuw gebruik roept dezelfde vraag op: welke regels gelden hier, en hoe beschermen we leerlingen, personeel en de organisatie?

De zes AI-domeinen laten zien waar AI voorkomt in de dagelijkse schoolpraktijk. AI-beleid bepaalt de doelen, risico’s, normen en regels die dat gebruik verantwoord, eerlijk, transparant en professioneel houden.

Close-up van handen die een AI-beleidsdashboard op een laptop bekijken, met doelstellingen, risico's, normen en regels zichtbaar, in rustige verlichting met subtiele blauwe en gele accenten.

17 november 2025 3 minuten lezen

Kort samengevat

De zes AI-domeinen laten zien waar AI binnenkomt in de schoolpraktijk; AI-beleid bepaalt de doelen, risico’s, normen en regels die dat gebruik veilig, transparant en mensgericht houden.

Domeinen = praktijk; Beleid = voorwaarden & regels.

Een praktisch kader voor scholen

Veel scholen willen “één AI-beleid voor alles”, maar AI gedraagt zich heel verschillend bij lesontwerp, toetsing, differentiatie, leerlingondersteuning, administratie en leiderschap.

Daarom werkt beleid het best per domein: concreet, uitvoerbaar en afgestemd op de verantwoordelijkheden van elk team. Zo ontstaat geen abstract beleidsdocument, maar een praktisch besliskader dat direct gebruikt kan worden in lessen, processen en bestuur.

De zes domeinen – AI-beleid in één oogopslag

1. Lesplanning en materiaalontwikkeling

AI kan lesmateriaal ondersteunen, maar menselijke controle en transparantie zijn verplicht.

  • Beleidsdoelen: kwaliteit, didactische geschiktheid, duidelijke auteurschap.
  • Risico’s: hallucinaties, onjuiste uitleg, onduidelijk wat als origineel werk telt.
  • Normen: kwaliteitscontrole, bronvermelding, transparantie over AI-inhoud.
  • Voorbeeldregel: “AI mag conceptlesmateriaal genereren; de docent controleert op juistheid en vermeldt AI-bijdragen in de eindversie.”

2. Toetsing, feedback en evaluatie

AI mag feedback ondersteunen, maar nooit cijfers of eindbeoordelingen bepalen.

  • Beleidsdoelen: eerlijkheid, betrouwbaarheid, menselijke beoordeling.
  • Risico’s: vooroordelen, verkeerde rubric-matching, automatisch nakijken zonder context.
  • Normen: human-in-the-loop, toetsvaliditeit, controleerbare feedback.
  • Voorbeeldregel: “AI mag feedback genereren, maar cijfers en beoordelingen zijn volledig de verantwoordelijkheid van de docent.”

3. Differentiatie en gepersonaliseerd leren

AI kan helpen differentiëren, zolang aanbevelingen uitlegbaar, eerlijk en niet-bindend zijn.

  • Beleidsdoelen: gelijke kansen, veilige personalisatie, transparantie.
  • Risico’s: algoritmische uitsluiting, black box-advies, ongelijke leerroutes.
  • Normen: uitlegbaarheid, transparantie, menselijke controle van AI-advies.
  • Voorbeeldregel: “AI-gebaseerde routesuggesties zijn niet bindend; docenten bepalen altijd of het aanbod passend en eerlijk is.”

4. Leerlingondersteuning en didactische hulp

Leerlingen mogen AI gebruiken binnen veilige, begeleide grenzen die kritisch denken versterken.

  • Beleidsdoelen: veiligheid, digitale geletterdheid, pedagogisch toezicht.
  • Risico’s: ongepaste output, desinformatie, privacyzorgen.
  • Normen: veilige invoer, begeleiding, escalatieprocedures bij onveilige output.
  • Voorbeeldregel: “Leerlingen gebruiken AI binnen afgesproken grenzen; het invoeren van persoonsgegevens of vertrouwelijke situaties is niet toegestaan.”

5. Communicatie, organisatie en administratie

AI mag concepten voor administratie genereren, maar privacy en juistheid moeten altijd door personeel gecontroleerd worden.

  • Beleidsdoelen: dataminimalisatie, betrouwbaarheid, duidelijkheid.
  • Risico’s: datalekken, feitelijke fouten, verkeerd begrepen samenvattingen.
  • Normen: privacy-risicoanalyse, anonimisering, menselijke eindcontrole.
  • Voorbeeldregel: “AI mag conceptbrieven genereren; een personeelslid controleert inhoud, toon en privacygevoeligheid vóór verzending.”

6. Schoolontwikkeling, beleid en veiligheid

AI mag beleidsanalyses ondersteunen, maar nooit beslissingen sturen—menselijke interpretatie blijft vereist.

  • Beleidsdoelen: transparante besluitvorming, systeemveiligheid, data-geletterdheid.
  • Risico’s: verkeerd geïnterpreteerde trends, misleidende risicoscores, technologische afhankelijkheid.
  • Normen: menselijke interpretatie, incidentresponsplan, jaarlijkse beleidsevaluatie.
  • Voorbeeldregel: “AI-analyses mogen beleidsdiscussies ondersteunen, maar alle beslissingen worden genomen en onderbouwd door mensen.”

Hoe beleid en PDCA samenwerken

AI-beleid bepaalt wat moet gebeuren: doelen, risico’s, normen en regels per domein. PDCA bepaalt hoe het gebeurt: werkwijzen, controles en jaarlijkse updates.

Meer details staan in het bijbehorende artikel: PDCA per domein.

Samen AI-beleid versterken

Wil je AI-beleid per domein ontwikkelen of herzien? Wij ondersteunen scholen met beleidskaders, risicoanalyse en veilige AI-integratie afgestemd op lespraktijk en schoolleiding. We denken graag mee over wat werkt voor jouw school.

« Meer invalshoeken Zelfscan »