Pourquoi un enseignant ne peut pas utiliser ChatGPT avec ses élèves

Compatibilidad
Ahorrar(0)
Compartir

Éclairage · Mars 2026

5 raisons juridiques et pédagogiques que chaque enseignant et chef d’établissement doit connaître.

Un professeur de mathématiques utilise ChatGPT pour générer un exercice adapté à un élève en difficulté. L’intention est bonne. Il tape le prénom de l’élève, sa classe, le trouble diagnostiqué — TDAH. En trois secondes, l’exercice est prêt. En trois secondes aussi, ces données de santé sont sur un serveur à San Francisco.

L’enseignant n’a rien fait de malveillant. Il a utilisé un outil gratuit, accessible, performant. Mais il vient, sans le savoir, de transférer des données personnelles sensibles d’un mineur vers les États-Unis, sans base légale, sans consentement explicite des parents, et sans aucune garantie sur l’usage qui en sera fait.

Ce scénario se produit chaque jour dans des milliers d’établissements en France. Et il pose un problème juridique, éthique et pédagogique que l’on ne peut plus ignorer.

⚠️ Précision importante : Cet article n’est pas un plaidoyer contre l’IA. C’est un plaidoyer pour une IA adaptée, conforme et conçue pour l’éducation. La nuance est essentielle.

Les 5 raisons pour lesquelles ChatGPT n’a pas sa place en classe

1

Les données partent aux États-Unis

ChatGPT est opéré par OpenAI, une entreprise américaine. Les données saisies transitent par des serveurs situés aux États-Unis. Le Cloud Act (2018) permet aux autorités américaines d’exiger l’accès à ces données, même lorsqu’elles concernent des citoyens européens. Par ailleurs, depuis l’invalidation du Privacy Shield par la CJUE en 2020 (arrêt Schrems II), le transfert de données personnelles vers les États-Unis est juridiquement fragile. Utiliser ChatGPT avec des données d’élèves, c’est s’exposer à un transfert hors UE sans base légale solide au regard du RGPD.

2

Les données de santé sont des données sensibles

L’article 9 du RGPD classe les données de santé parmi les données sensibles dont le traitement est interdit par principe, sauf exceptions strictement encadrées. Or, les troubles d’apprentissage — dyslexie, dyscalculie, TDAH, HPI, troubles cognitifs — sont des données de santé. Quand un enseignant mentionne “élève TDAH” ou “profil DYS” dans un prompt ChatGPT, il transmet une donnée de santé d’un mineur à un opérateur étranger. Sans consentement explicite des parents. Sans registre de traitement. Sans analyse d’impact. C’est une infraction au RGPD.

3

Vos cours entraînent les modèles

Par défaut, les données saisies dans ChatGPT peuvent être utilisées pour améliorer les modèles d’OpenAI. Un opt-out existe, mais il est enfoui dans les paramètres et peu connu des utilisateurs. Concrètement, les séquences de cours, les exercices originaux, les évaluations créées par un enseignant — fruit de son travail intellectuel — peuvent devenir du matériau d’entraînement pour une IA commerciale. La propriété intellectuelle de l’enseignant est compromise sans que celui-ci en ait conscience.

4

Les hallucinations sont un risque pédagogique réel

Les LLM ne “savent” rien. Ils prédisent le mot suivant le plus probable. Cela signifie qu’ils peuvent générer des informations fausses avec une assurance parfaite : une date historique erronée, une formule mathématique inventée, une citation littéraire qui n’existe pas, un résultat d’évaluation fictif. En contexte pédagogique, c’est un risque majeur. Un élève qui reçoit une correction fausse d’un “tuteur IA” ne questionne pas l’outil — il intègre l’erreur. Les hallucinations ne sont pas un bug rare. C’est un trait structurel des LLM actuels.

5

L’AI Act classe l’IA éducative comme “haut risque”

Le Règlement européen sur l’intelligence artificielle (AI Act), entré en vigueur en février 2025, établit une classification des systèmes d’IA par niveau de risque. Les systèmes utilisés dans l’éducation et la formation professionnelle sont explicitement classés “haut risque”. Cela implique des obligations concrètes : transparence sur le fonctionnement, évaluation d’impact, supervision humaine, documentation technique. ChatGPT, utilisé en classe sans cadre, ne satisfait aucune de ces obligations.

Alors, on fait quoi ?

La réponse n’est pas l’interdiction. D’ailleurs, le cadre d’usage publié par le Ministère de l’Éducation nationale en juin 2025 dit exactement le contraire : l’IA est autorisée dans l’éducation, “dès lors qu’elle respecte le cadre défini”. Le ministère rend même la formation des élèves à l’IA obligatoire. La CNIL, dans ses FAQ dédiées publiées fin 2025, recommande aux établissements d’associer systématiquement leur DPD (Délégué à la Protection des Données) à tout projet impliquant de l’IA.

Le message est limpide : oui à l’IA, mais pas n’importe laquelle, pas n’importe comment.

💡 La solution existe. KIDSHAKER développe des outils d’IA conçus spécifiquement pour l’éducation — PROF API pour les enseignants, TUTEUR IA pour les élèves, COCKPIT pour les chefs d’établissement. Hébergement français, zéro transfert hors UE, aucun entraînement sur vos données, modèles open-source souverains, conformité RGPD et AI Act par conception. La liberté pédagogique avec la sécurité juridique.

L’enjeu n’est pas de savoir si l’IA entrera dans les établissements scolaires — elle y est déjà. L’enjeu est de choisir les bons outils. Des outils pensés pour l’éducation, conformes par conception, hébergés en France, et qui respectent ce que vous avez de plus précieux : vos élèves et votre travail.

Pour aller plus loin : consultez notre guide complet sur la sécurité des données et l’IA en éducation — RGPD, AI Act, souveraineté numérique, tout y est.

Detalles de contacto
Sam KIDSHAKER