La Commission européenne vient de publier l’édition 2026 de ses Guidelines on the Ethical Use of Artificial Intelligence and Data in Teaching and Learning for Educators.
Pourquoi l’IA éthique éducation est au cœur de ces lignes directrices
Depuis la première version publiée en 2022, l’utilisation de l’intelligence artificielle dans l’éducation a explosé, portée notamment par l’accès grand public à l’IA générative. Selon les données citées dans le document, 87 % des Européens estiment que tous les enseignants devraient être formés à l’utilisation de l’IA, 85 % considèrent les compétences numériques comme nécessaires pour utiliser l’IA générative de manière sûre, et 75 % pensent que chacun devra être « AI literate » d’ici 2030.
Cette mise à jour s’inscrit dans un contexte réglementaire profondément renouvelé : l’AI Act (Règlement (UE) 2024/1689) est désormais entré en vigueur, et ses obligations concernant les systèmes d’IA à haut risque dans l’éducation s’appliqueront dès le 2 août 2026. La version 2022 de ces lignes directrices ne pouvait pas intégrer ce cadre légal, puisque le règlement n’avait pas encore été adopté. L’édition 2026 articule donc pour la première fois les exigences juridiques de l’AI Act et du RGPD avec des considérations éthiques et des outils pratiques.
Il est important de noter, comme le rappelle le document lui-même, que ces lignes directrices ne sont pas contraignantes et ne constituent pas un guide d’application de l’AI Act. Elles offrent un cadre de réflexion éthique qui va au-delà des seules obligations légales.
Structure du document : trois piliers
Les lignes directrices s’organisent autour de trois axes complémentaires :
- Principes fondamentaux et contexte juridique — AI Act, RGPD et considérations éthiques qui fondent l’utilisation responsable de l’IA en éducation.
- Questions directrices et scénarios pratiques — des exemples concrets d’application de ces principes en classe et au niveau de l’établissement.
- Ressources de référence — définitions techniques, cadres de compétences (DigComp 3.0, AI Literacy Framework défini à l’art. 3(56) AI Act) et contexte politique.
Les 5 considérations éthiques fondamentales
Le document identifie cinq piliers éthiques, directement inspirés des Ethics Guidelines for Trustworthy AI du groupe d’experts de haut niveau de la Commission :
- Dignité humaine — L’approche centrée sur l’humain doit primer : les individus ne sont pas des objets de données. Respect de la vie privée, de l’autonomie et de l’agentivité humaine.
- Équité (Fairness) — Équité, inclusion, non-discrimination et distribution juste des droits et responsabilités dans l’utilisation des outils IA.
- Confiance et fiabilité (Trust/Trustworthiness) — Un outil IA fiable est transparent sur son fonctionnement, respecte la vie privée, évite les biais et soutient l’apprentissage en accord avec les valeurs de la communauté scolaire.
- Intégrité académique — Favoriser une culture où esprit critique, valeurs et agentivité humaine coexistent avec l’innovation technologique.
- Choix justifié (Justified Choice) — Les décisions collectives doivent être fondées sur la transparence, la participation et l’explicabilité.
AI Act et éducation : ce que les écoles doivent savoir
Le document consacre une section détaillée au cadre réglementaire européen de l’IA appliqué à l’éducation.
Pratiques interdites (art. 5 AI Act)
L’article 5(1)(f) de l’AI Act interdit les systèmes de reconnaissance des émotions dans les lieux de travail et les établissements scolaires. Un système qui détecte les émotions des élèves dans un contexte éducatif est prohibé, même si l’objectif déclaré est pédagogique. Exception : les systèmes utilisés pour des raisons médicales ou de sécurité.
Le document apporte des nuances utiles : un logiciel de eye-tracking pour détecter la triche n’est pas interdit, tant qu’il n’infère pas d’émotions. En revanche, la reconnaissance des émotions lors d’un test d’admission est interdite. L’interdiction s’applique à tous les niveaux d’enseignement et de formation.
Systèmes à haut risque (Annexe III, point 3)
L’éducation est classée comme domaine à haut risque. L’Annexe III, point 3, identifie quatre cas : (a) accès ou admission, (b) évaluation des résultats d’apprentissage, (c) évaluation du niveau d’éducation approprié, (d) surveillance des comportements interdits lors d’examens. Ces systèmes sont soumis à des obligations strictes : évaluation des risques, données de haute qualité, journalisation, documentation, supervision humaine, cybersécurité.
Un système IA peut échapper à la classification haut risque lorsqu’il ne matérialise pas de manière substantielle l’issue d’une décision (considérant 53 AI Act). Les obligations s’appliqueront à compter du 2 août 2026.
Obligations de transparence (art. 50) et droit à l’explication (art. 86)
Les obligations de transparence incluent l’information des utilisateurs lors d’interactions avec un système d’IA (art. 50(1)) et l’étiquetage des contenus générés par l’IA (art. 50(2)). L’article 86 introduit un droit à l’explication pour les personnes affectées par une décision d’un système IA à haut risque. L’article 3(56) définit l’AI literacy et l’article 4 impose un niveau suffisant de maîtrise de l’IA pour le personnel des fournisseurs et déployeurs.
RGPD et éducation
Le RGPD s’applique pleinement. Les établissements doivent communiquer clairement sur le traitement des données (art. 12-15 RGPD) et mener une AIPD (art. 35 RGPD) avant de déployer des systèmes d’IA à risque élevé. L’article 27 de l’AI Act ajoute l’obligation d’une FRIA pour les déployeurs publics de systèmes à haut risque.
Des questions directrices concrètes pour le terrain
La grille de questions directrices est organisée en 8 thématiques : agentivité humaine et supervision, transparence et explicabilité, diversité et inclusion, équité et non-discrimination, bien-être sociétal et environnemental, vie privée et gouvernance des données, robustesse technique et sécurité, et responsabilité (accountability).
10 scénarios pratiques illustrés
Le guide propose dix scénarios concrets, chacun assorti de cinq questions éthiques prioritaires. L’approche est non-binaire : une réponse négative n’interdit pas l’usage de l’outil, mais signale qu’une action complémentaire est nécessaire.
Notre analyse : IA éthique éducation en pratique
Ce guide actualisé sur l’IA éthique éducation est un outil précieux, et pas uniquement pour le secteur éducatif. Il offre une méthodologie transposable à toute organisation qui déploie des systèmes d’IA : la grille de questions directrices, l’articulation entre AI Act et RGPD, et l’approche par les risques sont des réflexes que tout DPO, responsable conformité ou dirigeant devrait adopter.
Quelques observations critiques : le document reste à un niveau de soft law et ne se substitue pas à une analyse juridique de conformité. Les questions directrices gagneraient à être complétées par des outils d’auto-évaluation plus structurés, sur le modèle du référentiel CyFun du CCB pour NIS2. La question des transferts de données hors UE vers les plateformes EdTech américaines n’est pas traitée en profondeur.
Chez Lawgitech, nous accompagnons les organisations — y compris les établissements d’enseignement — dans leur mise en conformité avec l’AI Act et le RGPD. Si vous souhaitez adapter ces lignes directrices à votre contexte ou former vos équipes, contactez-nous.
Télécharger le document
Le document complet (46 pages, PDF, licence CC BY 4.0) est disponible en téléchargement gratuit :
Consulter et télécharger les Guidelines on the Ethical Use of AI in Education (2026)
Source : Commission européenne, « Guidelines on the Ethical Use of Artificial Intelligence and Data in Teaching and Learning for Educators – Updated edition », 2026, ISBN 978-92-68-33189-7, doi:10.2766/7967834. Document publié sous licence CC BY 4.0.





