AI en onderwijs: de Europese Commissie publiceert haar nieuwe ethische richtsnoeren (2026)

IA éthique éducation lignes directrices Commission européenne 2026

De Europese Commissie heeft zojuist de editie 2026 gepubliceerd van haar Guidelines on the Ethical Use of Artificial Intelligence and Data in Teaching and Learning for Educators.

Waarom ethische AI in het onderwijs centraal staat in deze richtsnoeren

Sinds de eerste versie die in 2022 werd gepubliceerd, is het gebruik van kunstmatige intelligentie in het onderwijs explosief gegroeid, met name door de publieke toegang tot generatieve AI. Volgens de gegevens in het document is 87% van de Europeanen van mening dat alle leerkrachten opgeleid moeten worden in het gebruik van AI, beschouwt 85% digitale vaardigheden als noodzakelijk om generatieve AI veilig te gebruiken, en denkt 75% dat iedereen tegen 2030 « AI-geletterd » zal moeten zijn.

Deze update past in een grondig vernieuwde regelgevende context: de AI-verordening (Verordening (EU) 2024/1689) is inmiddels in werking getreden en de verplichtingen met betrekking tot AI-systemen met een hoog risico in het onderwijs zijn van toepassing vanaf 2 augustus 2026. De versie 2022 van deze richtsnoeren kon dit wettelijk kader niet integreren, aangezien de verordening nog niet was aangenomen. De editie 2026 verwoordt voor het eerst de wettelijke vereisten van de AI-verordening en de AVG met ethische overwegingen en praktische instrumenten.

Het is belangrijk op te merken, zoals het document zelf aangeeft, dat deze richtsnoeren niet bindend zijn en geen toepassingsgids voor de AI-verordening vormen. Ze bieden een ethisch reflectiekader dat verder gaat dan de wettelijke verplichtingen alleen.

Structuur van het document: drie pijlers

De richtsnoeren zijn opgebouwd rond drie complementaire assen:

  1. Fundamentele beginselen en juridische context — AI-verordening, AVG en ethische overwegingen die ten grondslag liggen aan het verantwoord gebruik van AI in het onderwijs.
  2. Richtvragen en praktische scenario’s — concrete voorbeelden van de toepassing van deze beginselen in de klas en op instellingsniveau.
  3. Referentiebronnen — technische definities, competentiekaders (DigComp 3.0, AI Literacy Framework zoals gedefinieerd in art. 3(56) AI-verordening) en beleidscontext.

De 5 fundamentele ethische overwegingen

Het document identificeert vijf ethische pijlers, rechtstreeks geïnspireerd op de Ethics Guidelines for Trustworthy AI van de deskundigengroep op hoog niveau van de Commissie:

  • Menselijke waardigheid — De mensgerichte benadering moet voorop staan: individuen zijn geen data-objecten. Respect voor privacy, autonomie en menselijke keuzevrijheid.
  • Billijkheid (Fairness) — Gelijkheid, inclusie, non-discriminatie en eerlijke verdeling van rechten en verantwoordelijkheden bij het gebruik van AI-instrumenten.
  • Vertrouwen en betrouwbaarheid (Trust/Trustworthiness) — Een betrouwbaar AI-instrument is transparant over zijn werking, respecteert de privacy, vermijdt vooroordelen en ondersteunt het leren in overeenstemming met de waarden van de schoolgemeenschap.
  • Academische integriteit — Het bevorderen van een cultuur waarin kritisch denken, waarden en menselijke keuzevrijheid samengaan met technologische innovatie.
  • Verantwoorde keuze (Justified Choice) — Collectieve beslissingen moeten gebaseerd zijn op transparantie, participatie en verklaarbaarheid.

AI-verordening en onderwijs: wat scholen moeten weten

Het document wijdt een gedetailleerde sectie aan het Europese regelgevingskader voor AI toegepast op het onderwijs.

Verboden praktijken (art. 5 AI-verordening)

Artikel 5, lid 1, onder f) van de AI-verordening verbiedt systemen voor emotieherkenning op werkplekken en in onderwijsinstellingen. Een systeem dat de emoties van leerlingen detecteert in een onderwijscontext is verboden, zelfs als het verklaarde doel pedagogisch is. Uitzondering: systemen die worden gebruikt om medische of veiligheidsredenen.

Het document biedt nuttige nuances: eye-trackingsoftware om fraude op te sporen is niet verboden, zolang het geen emoties afleidt. Daarentegen is emotieherkenning tijdens een toelatingstest verboden. Het verbod geldt voor alle niveaus van onderwijs en opleiding.

Hoog-risicosystemen (bijlage III, punt 3)

Onderwijs is geclassificeerd als een hoog-risicodomein. Bijlage III, punt 3, identificeert vier gevallen: (a) toegang of toelating, (b) beoordeling van leerresultaten, (c) beoordeling van het passende onderwijsniveau, (d) toezicht op verboden gedrag tijdens examens. Deze systemen zijn onderworpen aan strenge verplichtingen: risicobeoordeling, kwalitatief hoogwaardige gegevens, logging, documentatie, menselijk toezicht, cyberveiligheid.

Een AI-systeem kan aan de hoog-risicoclassificatie ontsnappen wanneer het de uitkomst van een beslissing niet wezenlijk beïnvloedt (overweging 53 AI-verordening). De verplichtingen zijn van toepassing vanaf 2 augustus 2026.

Transparantieverplichtingen (art. 50) en recht op uitleg (art. 86)

De transparantieverplichtingen omvatten het informeren van gebruikers bij interactie met een AI-systeem (art. 50, lid 1) en het labelen van door AI gegenereerde inhoud (art. 50, lid 2). Artikel 86 introduceert een recht op uitleg voor personen die getroffen worden door een beslissing van een hoog-risico-AI-systeem. Artikel 3, lid 56, definieert AI-geletterdheid en artikel 4 vereist een voldoende niveau van AI-competentie voor het personeel van aanbieders en gebruiksverantwoordelijken.

AVG en onderwijs

De AVG is volledig van toepassing. Onderwijsinstellingen moeten duidelijk communiceren over de verwerking van persoonsgegevens (art. 12-15 AVG) en een DPIA uitvoeren (art. 35 AVG) voordat zij AI-systemen met een hoog risico inzetten. Artikel 27 van de AI-verordening voegt de verplichting toe van een FRIA voor publieke gebruiksverantwoordelijken van hoog-risicosystemen.

Concrete richtvragen voor de praktijk

Het kader van richtvragen is georganiseerd in 8 thema’s: menselijke keuzevrijheid en toezicht, transparantie en verklaarbaarheid, diversiteit en inclusie, billijkheid en non-discriminatie, maatschappelijk en ecologisch welzijn, privacy en datagovernance, technische robuustheid en veiligheid, en verantwoordingsplicht (accountability).

10 geïllustreerde praktische scenario’s

De gids biedt tien concrete scenario’s, elk vergezeld van vijf prioritaire ethische vragen. De aanpak is niet-binair: een negatief antwoord verbiedt het gebruik van het instrument niet, maar signaleert dat aanvullende actie nodig is.

Onze analyse: ethische AI in het onderwijs in de praktijk

Deze geactualiseerde gids over ethische AI in het onderwijs is een waardevol instrument, en niet alleen voor de onderwijssector. Hij biedt een methodologie die overdraagbaar is naar elke organisatie die AI-systemen inzet: het kader van richtvragen, de koppeling tussen de AI-verordening en de AVG, en de risicogebaseerde benadering zijn reflexen die elke DPO, compliance officer of bestuurder zou moeten aannemen.

Enkele kritische opmerkingen: het document blijft op het niveau van soft law en vervangt geen juridische conformiteitsanalyse. De richtvragen zouden baat hebben bij meer gestructureerde zelfevaluatie-instrumenten, naar het model van het CyFun-referentiekader van het CCB voor NIS2. De kwestie van gegevensoverdrachten buiten de EU naar Amerikaanse EdTech-platformen wordt niet diepgaand behandeld.

Bij Lawgitech begeleiden wij organisaties — inclusief onderwijsinstellingen — bij hun naleving van de AI-verordening en de AVG. Als u deze richtsnoeren wilt aanpassen aan uw context of uw teams wilt opleiden, neem contact met ons op.


Document downloaden

Het volledige document (46 pagina’s, PDF, CC BY 4.0-licentie) is gratis beschikbaar voor download:

Raadpleeg en download de Guidelines on the Ethical Use of AI in Education (2026)

Bron: Europese Commissie, « Guidelines on the Ethical Use of Artificial Intelligence and Data in Teaching and Learning for Educators – Updated edition », 2026, ISBN 978-92-68-33189-7, doi:10.2766/7967834. Document gepubliceerd onder CC BY 4.0-licentie.

En savoir plus sur Lawgitech

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture