Chargement

5 min de lecture restante

speed Ralentissez — vous manquez des détails

Titre Dilemme Aristote Cadre Verdict
TAXI
PHI1961 — Éthique, responsabilité sociale et IA

IA et Éducation
Technique

Le Chauffeur de Taxi et le GPS

« Est-il moralement acceptable de remplacer les formateurs humains par des agents IA autonomes pour l'enseignement des compétences techniques ? »

Question Normative

« Est-il moralement acceptable de remplacer les formateurs humains par des agents IA autonomes pour l'enseignement des compétences techniques ? »

Question Normative

Daniel Gonzalez — Université de Montréal

Séance 12 — 7 avril 2026

Défiler pour explorer
1 Question 2 Dilemme 3 Aristote 4 Cadre 5 Verdict

Un peu d'histoire personnelle

En 2019, j'ai programmé un chatbot pour aider ma fille avec ses devoirs : ObsiBot.

Sa mère m'a dit que c'était « moralement inacceptable ». ObsiBot fut débranché. La question est restée.

2019
arrow_forward
2026

7 ans plus tard

En 2026, les agents IA autonomes peuvent enseigner des matières techniques, corriger des travaux, et guider un apprenant sans intervention humaine.

Mais est-ce que maîtriser la technique suffit pour savoir penser ?

01 — Le Dilemme

Deux Visions

Deux visions de l'éducation technique s'affrontent. L'une mise sur l'efficacité, l'autre sur la préservation du jugement humain.

Capacités comparées

Vitesse de rétroaction 0
Personnalisation 0
Jugement contextuel 0
Empathie pédagogique 0
Adaptabilité à l'imprévu 0

Score de capacité IA (sur 100) — estimé à partir de la littérature récente

Spectre des Positions

Automatisation totale Notre thèse Rejet total
IA en Éducation Efficacité +127% Accès 24/7 Tutorat Feedback Agentivité risque Pensée critique Érosion Passivité TENSION
EFFICACITÉ SAGESSE 🪶 Le poids n'est pas celui qu'on croit
precision_manufacturing
Pour l'IA

Thèse Utilitariste

« L'IA est le GPS parfait : elle connaît chaque route, chaque raccourci. »

L'IA comme levier d'optimisation. La formation technique se réduit à la maîtrise de l'outil — plus rapide, plus accessible, plus personnalisée. Le savoir devient une ressource à consommer efficacement.

check_circle Tutorat adaptatif 24h/24 — résout le Bloom 2-Sigma Problem (Bloom, 1984)
check_circle Effet Robin des BoisL'IA ne rend pas l'expert meilleur — elle permet au novice de rattraper l'expert. Elle nivelle par le haut, comme Robin des Bois redistribue la richesse. : élève les novices au niveau des experts (Stanford, 2024)
check_circle Gains d'apprentissage doublés en tutorat IA socratiqueMéthode où l'IA ne donne jamais la réponse — elle pose des questions guidées pour amener l'étudiant à découvrir la solution par lui-même, comme Socrate avec ses interlocuteurs. (Kestin et al., 2024)
Efficience Automatisation Accès
psychology
Contre

Objection Humaniste

« Mais le GPS ne sait pas pourquoi la destination compte. »

La technique ne doit pas effacer l'effort cognitif. L'apprentissage est une épreuve du réel — l'IA risque de lisser cette épreuve jusqu'à l'atrophie de l'esprit critique et du discernement.

warning +127% / -17%Étude de Harvard (Bastani, 2024) : les étudiants utilisant GPT-4 performent 127% mieux pendant les exercices assistés, mais chutent de 17% aux examens sans IA — preuve d'une dépendance cognitive. pendant l'exercice, -17% à l'examen sans IA (Bastani et al., 2024)
warning Cognitive offloadingTendance à déléguer l'effort mental à un outil externe (calculatrice, GPS, IA). Plus on externalise, plus la capacité interne s'atrophie par manque de pratique. : atrophie de la pensée analytique (Risko & Gilbert, 2016)
warning Relation Je-CelaMartin Buber distingue deux rapports au monde : Je-Tu (rencontre authentique avec l'Autre) et Je-Cela (l'Autre réduit à un objet utilitaire). L'IA simule le Tu, mais reste un Cela. déguisée en empathie (Buber, 1923)
Agentivité Discernement Humanité
Le dilemme moral central

L'Effet Robin des Bois

school

Écoles privées d'élite

Forment activement leurs élèves à commander les machines IA, à les intégrer comme levier de productivité.

IA = outil stratégique enseigné

block

Enseignement public

Bannissent l'IA par principe de précaution, condamnant les élèves défavorisés à entrer désarmés dans l'économie de demain.

IA = menace interdite

Refuser l'IA n'est pas moralement neutre :
c'est creuser une fracture éducative profonde.

Stanford, 2024 ; Déclaration de MontréalCadre éthique adopté par l'Université de Montréal en 2018, fondé sur 10 principes pour un développement responsable de l'IA — dont l'équité, l'inclusion et la prudence., 2018

Et si le vrai problème n'était pas l'IA elle-même, mais une erreur de catégorie ?

TECHNÉ PHRONÉSIS
02 — L'Erreur de CatégorieErreur logique consistant à traiter deux choses de nature différente comme si elles étaient identiques. Ici : confondre la techné (automatisable) avec la phronésis (irréductible au calcul).

Techné & Phronésis

Aristote distingue deux formes de savoir (Éthique à Nicomaque, Livre VI). L'une peut être automatisée. L'autre, jamais.

local_taxi

La Métaphore du Taxi

Scène 1 — Le GPS

Imaginez un chauffeur de taxi. Le GPS connaît chaque rue, calcule l'itinéraire optimal, anticipe le trafic.

Itinéraire optimal calculé

ETA: 12 min — Trafic: fluide — Précision: 99.7%

person

Scène 2 — Le Chauffeur

Mais seul le chauffeur sait pourquoi ce passager pressé a besoin d'arriver à l'hôpital — et qu'il faut parfois ignorer le GPS pour prendre le raccourci non cartographié.

emergency

Décision humaine

Le passager est en détresse → Raccourci par la ruelle → GPS recalcule

L'IA connaît la route parfaitement,
mais ignore pourquoi la destination compte.

TECHNÉ Savoir-faire ERREUR DE CATÉGORIE confondre ces deux savoirs PHRONÉSIS Sagesse pratique
route

TechnéDu grec ancien τέχνη — le savoir-faire technique, la maîtrise des règles et procédures. Chez Aristote, c'est le savoir reproductible : ce qui peut s'enseigner par l'instruction et s'automatiser.

Le GPS — Savoir technique

Le savoir-faire reproductible. Suivre les règles, exécuter les protocoles, appliquer les procédures. L'IA excelle ici : elle maîtrise la route mieux que n'importe quel humain.

Contenus structurés 97%
Protocoles standardisés 94%
Procédures de diagnostic 89%

Automatisable par l'IA

VS
person

PhronésisDu grec ancien φρόνησις — la sagesse pratique, le jugement en situation. Pour Aristote, elle ne s'acquiert que par l'expérience vécue et la délibération morale — aucun algorithme ne peut la reproduire.

Le Chauffeur — Sagesse pratique

Le jugement en situation. Savoir quand dévier du protocole, adapter son approche au contexte, comprendre le pourquoi derrière le comment. L'IA ne peut pas simuler cette sagesse.

Choix architecturaux 11%
Diagnostic face à l'imprévu 7%
Éthique de l'intervention 3%

Irréductible au calcul

Données Clés

Le Portrait en Chiffres

0
%

des étudiants utilisent l'IA pour leurs devoirs techniques

0
%

peuvent expliquer le raisonnement derrière le résultat

0
x

plus rapide avec IA — mais compréhension réduite de moitié

0
%

des enseignants craignent l'atrophie de la pensée critique

La solution n'est ni l'utopie technologique,

ni le rejet aveugle.

C'est un cadre.

03 — Le Cadre

Constitution
Pédagogique

Trois principes pour encadrer l'intégration de l'IA dans la formation technique — ni remplacement total, ni interdiction naïve.

school
C
P
H
3 principes
Concept
Processus
Hybridation
01
foundation
Primauté du Concept

L'IA ne doit intervenir qu'une fois le cadre conceptuel maîtrisé par l'apprenant. Elle est un instrument de déploiement, non de fondation.

local_taxi Le chauffeur doit connaître la ville avant de consulter le GPS — sinon il devient dépendant d'un outil qu'il ne peut pas corriger.

02
account_tree
Évaluation du Processus

Le résultat final perd sa valeur au profit de la démonstration du cheminement. L'étudiant doit pouvoir justifier chaque « couche » du résultat produit avec l'IA.

local_taxi On n'évalue pas si le taxi est arrivé — on évalue si le chauffeur sait expliquer pourquoi il a choisi cette route.

03
science
Hybridation Critique

Mise en place de modules de « désapprentissage » où l'IA est intentionnellement biaisée, forçant l'étudiant à mobiliser son jugement critique pour détecter et corriger les erreurs.

local_taxi Parfois, le GPS indique volontairement un mauvais chemin — c'est au chauffeur de le reconnaître.

Alors, quel verdict ?

04 — Conclusion

Verdict Final

La réponse à notre question normative : ni utopie technologique, ni rejet aveugle.

Remplacement Total
REJETÉ

Remplacer le formateur par un agent IA, c'est confier la totalité du voyage au GPS — et supprimer le chauffeur. Le transfert complet de la pensée à la machine rompt le lien pédagogique fondamental.

Intégration Assistée
VALIDÉ

L'IA comme copilote du formateur — un GPS au service du chauffeur, pas à sa place. Prothèse cognitive sous contrôle strict du discernement humain et de la phronésis pédagogique.

GPS Techné + Chauffeur Phronésis = COPILOTE Hybridation
"

L'IA connaît la route parfaitement, mais ignore pourquoi la destination compte.

C'est cette ignorance qui rend le formateur humain irremplaçable.

Thèse Défendue
Scénario Comparé

Deux Futurs Possibles

dangerous

Sans Cadre

Remplacement total

01

L'étudiant demande à l'IA de faire son projet

Aucune compréhension requise

arrow_downward
02

Le résultat est parfait, mais l'étudiant ne peut pas l'expliquer

Illusion de compétence

arrow_downward
03

Diplômé techniquement incompétent

Atrophie cognitive irréversible

verified

Avec Cadre

Intégration assistée

01

L'étudiant maîtrise d'abord les concepts fondamentaux

Primauté du concept

arrow_downward
02

L'IA accélère l'exécution, l'étudiant justifie chaque choix

Évaluation du processus

arrow_downward
03

Diplômé augmenté et critique

Phronésis préservée + techné amplifiée

lightbulb

La Question Demeure

Dans votre parcours, êtes-vous le passager qui suit aveuglément le GPS — ou le chauffeur qui sait quand prendre un autre chemin ?

Et si le GPS vous dit de tourner dans le fleuve Saint-Laurent... peut-être que c'est le moment de reprendre le volant.

Attrape-moi si tu peux!
Le rapport? Clique sur moi, voyons!
Phronésis? Connais pas, moi je conduis!
TAXI

Clique sur le taxi pour télécharger le rapport complet en PDF

Raccourcis Clavier

Section suivanteSpace
Haut de pageHome
Fin de pageEnd
Plein écranF
Cette aide?
Le paradoxe fondamental

Le Problème des
2 Sigma de Bloom

En 1984, le chercheur Benjamin Bloom a fait une découverte embarrassante pour tout le système éducatif :

Un élève avec un tuteur personnel apprend tellement mieux qu'il dépasse 98% des élèves en classe traditionnelle.

En termes simples : prenez un élève parfaitement moyen. Donnez-lui un tuteur qui s'adapte à son rythme, corrige ses erreurs en temps réel, et ajuste chaque explication. Cet élève moyen devient meilleur que presque tout le monde.

Performance comparée
Classe magistrale (30 élèves) 50e percentile
Classe + rétroaction régulière 84e percentile
Tutorat individuel 1-sur-1 98e percentile
Le paradoxe

C'est magnifique. Mais c'est aussi impossible à grande échelle. Un tuteur humain par élève coûte une fortune. Aucun système éducatif au monde ne peut se le permettre.

Depuis 40 ans, la question hante l'éducation : comment reproduire l'effet du tuteur individuel sans le tuteur ?

L'IA est la première technologie qui pourrait enfin résoudre ce problème — un tuteur adaptatif, patient, disponible 24h/24, pour chaque élève.

C'est pourquoi les utilitaristes voient dans l'IA éducative non pas un luxe, mais une obligation morale — refuser cette technologie revient à accepter que seuls les privilégiés aient accès au meilleur enseignement possible.

Bloom, B. S. (1984). "The 2 Sigma Problem: The Search for Methods of Group Instruction as Effective as One-to-One Tutoring." Educational Researcher, 13(6), 4-16.

10:00