En 2019, cherchant à aider ma fille à quatre mille kilomètres de distance avec ses devoirs, j'ai programmé mon premier chatbot sur Discord : « ObsiBot », un tuteur virtuel. Quelques jours plus tard, sa mère m'écrit que ce projet est « moralement inacceptable ». ObsiBot fut débranché, mais la question est restée.
Aujourd'hui, il est indéniable que l'IA générative démocratise l'accès au savoir. Mais si la calculatrice était autrefois une « bicyclette pour l'esprit » (Steve Jobs), l'IA ressemble plutôt à un chauffeur de taxi : elle connaît la route parfaitement, mais ignore totalement pourquoi la destination compte.
Est-il moralement acceptable de remplacer les formateurs humains par des agents IA pour l'enseignement technique ? Notre réponse est double : le remplacement intégral est moralement inacceptable, mais l'intégration encadrée de l'IA au service de la compétence technique est à la fois justifiée et moralement nécessaire. Nous établirons d'abord la thèse utilitariste soutenant cette intégration (I), examinerons l'objection humaniste qui la menace (II), puis montrerons en réplique que l'objection repose sur une erreur de catégorie que seule la distinction aristotélicienne permet de dissoudre (III).
Sur le plan utilitariste, le déploiement de l'IA dans la formation technique se justifie par des preuves empiriques convergentes. Le problème de fond est le « Bloom 2-Sigma Problem » (Bloom, 1984) : un tutorat individuel surpasse toujours le cours magistral en termes d'apprentissage, mais est resté humainement impossible à généraliser — jusqu'à aujourd'hui.
L'IA résout cette équation d'échelle. Kestin et al. (2024) démontrent qu'un tuteur IA socratique permet de doubler les gains d'apprentissage en physique par rapport aux méthodes actives traditionnelles. Dans le monde professionnel, GitHub Copilot réduit de moitié le temps de codage (GitHub, 2022), libérant les développeurs de la simple fatigue syntaxique.
Plus fondamentalement, l'IA opère un « effet Robin des Bois ». Une étude de Stanford (2024) prouve que l'introduction d'un copilote assiste puissamment les tuteurs novices, élevant instantanément les élèves en difficulté. L'IA n'améliore pas nécessairement le génie, mais elle agit comme un formidable plancher de qualité pour la moyenne.
Refuser cette technologie n'est donc pas moralement neutre. Pendant que les écoles privées d'élite forment leurs élèves à commander ces machines, bannir l'IA de l'enseignement public creuse une fracture éducative profonde. Refuser l'IA par simple principe de précaution revient à condamner les élèves défavorisés à entrer désarmés dans l'économie de demain.
Pourtant, cette vision d'ingénieur omet l'essentiel : éduquer, ce n'est pas qu'un transfert technique de compétences (Training), c'est la formation d'un sujet moral (Bildung).
Bastani et al. (2024) illustrent la loi de Goodhart — « lorsqu'une mesure devient une cible, elle cesse d'être une bonne mesure » : des étudiants assistés par une IA offrant directement des réponses voient leurs résultats grimper de 127 % pendant l'exercice, pour ensuite chuter de 17 % lors de l'examen sur table par rapport à un groupe sans assistance. L'IA optimisait la métrique visible, pas l'apprentissage réel.
Les recherches sur le cognitive offloading (Risko & Gilbert, 2016) documentent ce phénomène d'atrophie : lorsque l'esprit délègue systématiquement la résolution de problèmes à un outil externe, l'engagement cognitif s'effondre. Comme un muscle sous plâtre, la pensée analytique s'étiole. L'étudiant développe le « syndrome de la passoire », où l'information le traverse sans jamais s'ancrer.
La friction n'est pas un défaut. C'est une fonctionnalité essentielle.
D'un point de vue déontologique, Kant exigerait que l'étudiant soit traité comme une fin en soi — un sujet pensant — et jamais réduit à un réceptacle de réponses pré-mâchées. Plus profondément encore, Kant définissait l'objectif même de l'éducation comme la Mündigkeit — conduire l'être humain à l'usage autonome de sa propre raison. Dans Qu'est-ce que les Lumières ? (1784), il lançait son invitation : sapere aude, « ose te servir de ton propre entendement. » Une IA qui court-circuite l'effort cognitif ne facilite pas l'apprentissage : elle trahit structurellement cette finalité.
L'objection est plus profonde encore : elle est constitutive, pas seulement empirique. Martin Buber, dans Je et Tu (1923), distinguait deux modes fondamentaux de relation : le Je-Tu, rencontre authentique où l'autre est reconnu comme sujet, et le Je-Cela, rapport purement instrumental. L'éducation véritable exige le Je-Tu — deux esprits qui se confrontent dans une lutte partagée, l'un capable d'échouer devant l'autre et d'en tirer une leçon humaine. L'IA, elle, triomphe dans le Je-Cela déguisé en empathie : elle simule la compréhension sans en posséder, miroir poli qui reflète l'élève sans jamais le confronter. Un inquiétant « fossé de la vertu » s'installe alors : nous entraînons l'IA à être éternellement patiente et socratique, pendant que nous devenons de simples consommateurs transactionnels. La machine hérite de l'âme, et nous du vide.
Ces deux camps — l'utilitariste célébrant la vitesse et l'humaniste défendant la vertu — s'affrontent sur un faux dilemme. L'utilitariste évalue l'éducation par ses résultats, l'humaniste par son processus — mais l'éducation possède les deux dimensions, et chacune exige son propre cadre éthique. L'éthique de la vertu, troisième grande tradition normative (Gibert, 2020), offre une sortie : pour cette tradition, la valeur morale d'une action se juge non par ses conséquences ni par le respect d'un devoir, mais par ce qu'elle fait devenir l'agent qui l'accomplit.
Aristote distinguait la Techné (le « comment », le savoir-faire instrumental) de la Phronésis (le « pourquoi », la sagesse pratique et le jugement moral). L'IA incarne la perfection absolue de la Techné. Mais elle est structurellement dépourvue de toute Phronésis. Surtout, pour Aristote, la Phronésis ne s'enseigne pas : elle se cultive par la pratique répétée (hexis) et l'exposition à des situations moralement exigeantes. Un algorithme qui court-circuite l'effort ne prive pas l'étudiant d'un simple exercice — il lui dérobe l'occasion même de forger sa sagesse pratique. L'objection humaniste a donc raison dans son domaine, mais tort de l'étendre à la Techné pure.
L'analogie du taxi éclaire cette distinction : le GPS incarne la Techné — il optimise la route, calcule le trajet le plus rapide, évite les embouteillages. Mais le chauffeur de taxi, lui, possède la Phronésis — il sait qu'un client âgé a besoin d'être déposé devant la porte, que la route « optimale » passe par un quartier dangereux, et que parfois le détour est la bonne décision. Le drame actuel du système éducatif est double : d'un côté, nous forçons encore nos meilleurs chauffeurs à mémoriser des cartes (épuiser des élèves brillants sur la corvée syntaxique), mais de l'autre, l'optimisation utilitariste laisse parfois le GPS décider de la destination (confier l'évaluation morale à un algorithme).
La vraie pédagogie moderne s'impose : laisser le GPS optimiser la route, mais ne jamais le laisser choisir la destination.
La dichotomie efficacité/humanité est une confusion téléologique. Il ne faut pas choisir entre la vitesse ou la vertu, mais les affecter au bon domaine d'apprentissage.
La Techné pure (écriture de code de base, correction grammaticale) est devenue la nouvelle arithmétique. De la même façon que la calculatrice a libéré l'élève des divisions manuelles pour l'étude du calcul intégral, l'IA doit libérer l'apprenant de la corvée syntaxique pour l'affronter à de véritables complexités conceptuelles. L'IA ne supprime pas la friction ; elle déplace la lutte vers un échelon de pensée supérieur.
Cette transition ne se fera pas seule. Elle exige l'implémentation d'une stricte Constitution Pédagogique régissant les paramètres de la machine — rédigée conjointement par des pédagogues et des éthiciens, appliquée par les institutions éducatives, et auditée de façon indépendante. À l'instar de l'IA constitutionnelle d'Anthropic (Gibert, 2020, chap. 4), cette constitution doit privilégier des principes vertueux plutôt que des règles rigides à la Asimov. La Déclaration de Montréal pour un développement responsable de l'IA (Université de Montréal, 2018) pose précisément ce cadre normatif : l'IA doit « contribuer à l'épanouissement de toutes les personnes » en préservant leur « autonomie ». Concrètement, une IA éducative doit obliger l'étudiant à raisonner par questionnement socratique, refuser de livrer le code compilable ou l'essai terminé, et signaler à l'enseignant tout contournement systématique. L'étudiant reste, au centre de la boucle, le décideur et le rédacteur en chef final.
Notre réponse normative est donc sans ambiguïté : le remplacement intégral des formateurs humains est moralement inacceptable, car la Phronésis — cette sagesse pratique irréductible à tout algorithme — ne peut être ni déléguée ni simulée. Refuser l'IA pour la Techné est, à l'inverse, une cruauté par omission qui condamne les élèves défavorisés à une inégalité structurelle.
Le véritable défi de demain n'est pas de rendre nos machines artificiellement vertueuses. C'est de refuser de laisser le GPS choisir la destination, permettant enfin à l'étudiant de se hisser hors de la pure corvée, et de reprendre fermement le volant qu'il n'aurait jamais dû lâcher.
Bastani, H., Bayati, M., Berman, J., Caoui, E., Gomes, C., Jiang, K., & Strack, P. (2024). Generative AI Can Harm Learning. SSRN Working Paper, No. 4895486. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4895486
Bloom, B. S. (1984). The 2 Sigma Problem: The Search for Methods of Group Instruction as Effective as One-to-One Tutoring. Educational Researcher, 13(6), 4-16.
Buber, M. (1923). Je et Tu [Ich und Du]. Aubier.
Gibert, M. (2020). Faire la morale aux robots : Une introduction à l'éthique de l'intelligence artificielle. Atelier 10.
GitHub. (2022). Research: Quantifying GitHub Copilot's Impact on Developer Productivity and Happiness. The GitHub Blog. https://github.blog/news-insights/research/research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/
Kant, I. (1784). Qu'est-ce que les Lumières ? [Beantwortung der Frage: Was ist Aufklärung?]. Berlinische Monatsschrift.
Kant, I. (1785). Fondements de la métaphysique des mœurs.
Kestin, G., Miller, K., McCarty, L. S., Callaghan, K., & Deslauriers, L. (2024). AI Tutoring Outperforms Active Learning. Scientific Reports, 14. https://doi.org/10.1038/s41598-025-97652-6
Risko, E. F., & Gilbert, S. J. (2016). Cognitive Offloading. Trends in Cognitive Sciences, 20(9), 676-688.
Stanford University. (2024). The Effects of AI Copilots on Novice Tutoring. arXiv preprint, arXiv:2410.03017. https://arxiv.org/abs/2410.03017
Université de Montréal. (2018). Déclaration de Montréal pour un développement responsable de l'IA. https://declarationmontreal-iaresponsable.com/
Ce rapport a été rédigé par l'auteur avec l'assistance d'outils d'IA générative. Claude (Anthropic) a été utilisé comme assistant de recherche pour explorer la littérature académique, identifier des études empiriques pertinentes (Bloom, Bastani, Kestin, Stanford), et structurer la carte argumentative. NotebookLM (Google) a servi à synthétiser les notes de cours et les transcriptions des séances en podcasts audio pour révision. Claude Code a été utilisé pour la gestion des versions du document et la conversion en formats de soumission. Toutes les idées, analyses normatives et positions défendues sont le fruit de la réflexion personnelle de l'auteur. L'IA n'a rédigé aucune section finale ; elle a servi d'outil de recherche, de révision stylistique et de vérification des sources.