Chargement
speed Ralentissez — vous manquez des détails
Le Chauffeur de Taxi et le GPS
« Est-il moralement acceptable de remplacer les formateurs humains par des agents IA autonomes pour l'enseignement des compétences techniques ? »
« Est-il moralement acceptable de remplacer les formateurs humains par des agents IA autonomes pour l'enseignement des compétences techniques ? »
Daniel Gonzalez — Université de Montréal
Séance 12 — 7 avril 2026
Un peu d'histoire personnelle
En 2019, j'ai programmé un chatbot pour aider ma fille avec ses devoirs : ObsiBot.
Sa mère m'a dit que c'était « moralement inacceptable ». ObsiBot fut débranché. La question est restée.
7 ans plus tard
En 2026, les agents IA autonomes peuvent enseigner des matières techniques, corriger des travaux, et guider un apprenant — sans intervention humaine.
Mais est-ce que maîtriser la technique suffit pour savoir penser ?
Deux visions de l'éducation technique s'affrontent. L'une mise sur l'efficacité, l'autre sur la préservation du jugement humain.
Score de capacité IA (sur 100) — estimé à partir de la littérature récente
Spectre des Positions
« L'IA est le GPS parfait : elle connaît chaque route, chaque raccourci. »
L'IA comme levier d'optimisation. La formation technique se réduit à la maîtrise de l'outil — plus rapide, plus accessible, plus personnalisée. Le savoir devient une ressource à consommer efficacement.
« Mais le GPS ne sait pas pourquoi la destination compte. »
La technique ne doit pas effacer l'effort cognitif. L'apprentissage est une épreuve du réel — l'IA risque de lisser cette épreuve jusqu'à l'atrophie de l'esprit critique et du discernement.
Forment activement leurs élèves à commander les machines IA, à les intégrer comme levier de productivité.
IA = outil stratégique enseigné
Bannissent l'IA par principe de précaution, condamnant les élèves défavorisés à entrer désarmés dans l'économie de demain.
IA = menace interdite
Refuser l'IA n'est pas moralement neutre :
c'est creuser une fracture éducative profonde.
Stanford, 2024 ; Déclaration de MontréalCadre éthique adopté par l'Université de Montréal en 2018, fondé sur 10 principes pour un développement responsable de l'IA — dont l'équité, l'inclusion et la prudence., 2018
Et si le vrai problème n'était pas l'IA elle-même, mais une erreur de catégorie ?
Aristote distingue deux formes de savoir (Éthique à Nicomaque, Livre VI). L'une peut être automatisée. L'autre, jamais.
Scène 1 — Le GPS
Imaginez un chauffeur de taxi. Le GPS connaît chaque rue, calcule l'itinéraire optimal, anticipe le trafic.
Itinéraire optimal calculé
ETA: 12 min — Trafic: fluide — Précision: 99.7%
Scène 2 — Le Chauffeur
Mais seul le chauffeur sait pourquoi ce passager pressé a besoin d'arriver à l'hôpital — et qu'il faut parfois ignorer le GPS pour prendre le raccourci non cartographié.
Décision humaine
Le passager est en détresse → Raccourci par la ruelle → GPS recalcule
L'IA connaît la route parfaitement,
mais ignore pourquoi la destination compte.
Le GPS — Savoir technique
Le savoir-faire reproductible. Suivre les règles, exécuter les protocoles, appliquer les procédures. L'IA excelle ici : elle maîtrise la route mieux que n'importe quel humain.
Automatisable par l'IA
Le Chauffeur — Sagesse pratique
Le jugement en situation. Savoir quand dévier du protocole, adapter son approche au contexte, comprendre le pourquoi derrière le comment. L'IA ne peut pas simuler cette sagesse.
Irréductible au calcul
des étudiants utilisent l'IA pour leurs devoirs techniques
peuvent expliquer le raisonnement derrière le résultat
plus rapide avec IA — mais compréhension réduite de moitié
des enseignants craignent l'atrophie de la pensée critique
La solution n'est ni l'utopie technologique,
ni le rejet aveugle.
C'est un cadre.
Trois principes pour encadrer l'intégration de l'IA dans la formation technique — ni remplacement total, ni interdiction naïve.
L'IA ne doit intervenir qu'une fois le cadre conceptuel maîtrisé par l'apprenant. Elle est un instrument de déploiement, non de fondation.
local_taxi Le chauffeur doit connaître la ville avant de consulter le GPS — sinon il devient dépendant d'un outil qu'il ne peut pas corriger.
Le résultat final perd sa valeur au profit de la démonstration du cheminement. L'étudiant doit pouvoir justifier chaque « couche » du résultat produit avec l'IA.
local_taxi On n'évalue pas si le taxi est arrivé — on évalue si le chauffeur sait expliquer pourquoi il a choisi cette route.
Mise en place de modules de « désapprentissage » où l'IA est intentionnellement biaisée, forçant l'étudiant à mobiliser son jugement critique pour détecter et corriger les erreurs.
local_taxi Parfois, le GPS indique volontairement un mauvais chemin — c'est au chauffeur de le reconnaître.
Alors, quel verdict ?
La réponse à notre question normative : ni utopie technologique, ni rejet aveugle.
Remplacer le formateur par un agent IA, c'est confier la totalité du voyage au GPS — et supprimer le chauffeur. Le transfert complet de la pensée à la machine rompt le lien pédagogique fondamental.
L'IA comme copilote du formateur — un GPS au service du chauffeur, pas à sa place. Prothèse cognitive sous contrôle strict du discernement humain et de la phronésis pédagogique.
L'IA connaît la route parfaitement, mais ignore pourquoi la destination compte.
C'est cette ignorance qui rend le formateur humain irremplaçable.
Remplacement total
L'étudiant demande à l'IA de faire son projet
Aucune compréhension requise
Le résultat est parfait, mais l'étudiant ne peut pas l'expliquer
Illusion de compétence
Diplômé techniquement incompétent
Atrophie cognitive irréversible
Intégration assistée
L'étudiant maîtrise d'abord les concepts fondamentaux
Primauté du concept
L'IA accélère l'exécution, l'étudiant justifie chaque choix
Évaluation du processus
Diplômé augmenté et critique
Phronésis préservée + techné amplifiée
Dans votre parcours, êtes-vous le passager qui suit aveuglément le GPS — ou le chauffeur qui sait quand prendre un autre chemin ?
Et si le GPS vous dit de tourner dans le fleuve Saint-Laurent... peut-être que c'est le moment de reprendre le volant.
En 1984, le chercheur Benjamin Bloom a fait une découverte embarrassante pour tout le système éducatif :
Un élève avec un tuteur personnel apprend tellement mieux qu'il dépasse 98% des élèves en classe traditionnelle.
En termes simples : prenez un élève parfaitement moyen. Donnez-lui un tuteur qui s'adapte à son rythme, corrige ses erreurs en temps réel, et ajuste chaque explication. Cet élève moyen devient meilleur que presque tout le monde.
C'est magnifique. Mais c'est aussi impossible à grande échelle. Un tuteur humain par élève coûte une fortune. Aucun système éducatif au monde ne peut se le permettre.
Depuis 40 ans, la question hante l'éducation : comment reproduire l'effet du tuteur individuel sans le tuteur ?
L'IA est la première technologie qui pourrait enfin résoudre ce problème — un tuteur adaptatif, patient, disponible 24h/24, pour chaque élève.
C'est pourquoi les utilitaristes voient dans l'IA éducative non pas un luxe, mais une obligation morale — refuser cette technologie revient à accepter que seuls les privilégiés aient accès au meilleur enseignement possible.
Bloom, B. S. (1984). "The 2 Sigma Problem: The Search for Methods of Group Instruction as Effective as One-to-One Tutoring." Educational Researcher, 13(6), 4-16.