La généralisation de l'utilisation des IA porte un coup fatal à l'enseignement compris comme une transmission de savoirs. Ce qu'Internet avait déjà largement commencé, les Intelligences Artificielles l'achèvent aujourd'hui.
Est-ce vraiment un mal ?
Les réflexions développées ci-dessous répondent le contraire !
La formation d'une tête bien faite à l'ère de l'intelligence artificielle générative apparait comme l'anti-thèse du "remplissage" d'une tete bien pleine.
L'idée est de faire comprendre que l'intelligence humaine ne fonctionne pas comme un entonnoir que l'on remplit, mais comme un réseau qui relie les informations entre elles pour leur donner une utilité réelle.
L'enseignant "augmenté" est simplement celui qui utilise les IA pour les tâches automatiques afin de consacrer son énergie à ce que la machine ne pourra jamais faire : comprendre l'élève en situation réelle et donner du sens à l'apprentissage.
Théorie du savoir de l'"augmentation" humaine : vers la formation d'une tête bien faite à l'ère de l'intelligence artificielle générative
Le déploiement massif des Intelligences Artificielles génératives (IA) au sein des structures éducatives et des projets personnels ne constitue pas une simple mise à jour technique, mais une véritable transformation de notre façon d'être et de connaitre.
Pour les professionnels de l'éducation et les apprenants, cette transition s'accompagne d'une tension paradoxale :
- d'un côté, l'efficacité spectaculaire des modèles de langage laisse entrevoir une libération des tâches routinières ;
- de l'autre, une méfiance profonde s'installe, nourrie par la crainte d'une obsolescence des compétences humaines traditionnelles et d'un remplacement pur et simple de l'acte d'enseigner par l'acte de générer.
L'enjeu n'est donc pas de rivaliser avec la machine sur le terrain de la "tête bien pleine", mais de réformer la pensée pour construire une "tête bien faite", capable d'orchestrer, de critiquer et de donner une direction éthique aux systèmes automatisés. (Lire : "Quelle éthique pour rester maître de l’IA ?")
La métamorphose de la connaissance : du modèle encyclopédique à la pensée complexe
Depuis Montaigne, l'éducation est hantée par le spectre de la "tête bien pleine", cette accumulation de savoirs disjoints et spécialisés qui peine à former le jugement.
Les Intelligence Artificielles génératives viennent clore définitivement l'ère de la connaissance stockée.
Puisque des machines peuvent désormais accéder instantanément à des milliards de données et les synthétiser avec une fluidité apparente, la valeur ajoutée de l'humain doit se déplacer vers la capacité à relier, à contextualiser et à globaliser.
C'est ici qu'intervient le modèle de pensée complexe développé par Edgar Morin.
Le modèle de pensée de la complexité comme levier d'augmentation (de la capacité humaine démultipliée par l'outil)
La pensée complexe ne se réduit pas à la complication. Elle repose sur l'étymologie du mot complexus, ce qui est "tissé ensemble".
Dans le cadre d'un projet pédagogique assisté par les IA, l'enseignant ne doit plus se voir comme celui qui transmet des briques de savoir isolées, mais comme celui qui apprend aux élèves à naviguer dans le tissu des interdépendances.
Les IA, en proposant des réponses parcellaires et souvent décontextualisées, risquent de renforcer le morcellement disciplinaire si elles ne sont pas guidées par une pensée capable d'envisager la globalité.
La réforme de la pensée proposée par Morin s'articule autour de principes fondamentaux qui permettent de transformer l'usage des IA d'une simple délégation à une véritable augmentation cognitive.
Le mariage des contraires, par exemple, permet de maintenir ensemble des notions antagonistes sans les réduire l'une à l'autre. Dans l'interaction avec des IA, cela signifie être capable de collaborer avec l'outil tout en maintenant une distance critique irréductible.
| Principe de la pensée complexe (Morin) | Application à l'intégration des IA dans l'enseignement | Conséquence sur l'augmentation humaine |
| Mariage des contraires | Maintenir la dualité entre la logique algorithmique et l'intuition humaine. | Évite la soumission aveugle aux résultats "plausibles" mais sans fond. |
| Boucle d'influence mutuelle | Comprendre que l'utilisateur façonne l'IA (par le prompt) autant que l'IA façonne la pensée de l'utilisateur. | Développe une conscience de l'influence des outils sur nos propres processus mentaux. |
| Présence de l'ensemble dans chaque détail | Reconnaître que chaque réponse d'une IA contient en elle-même les biais et la culture de l'ensemble de son corpus d'entraînement. | Permet d'analyser une réponse spécifique comme le symptôme d'une structure globale de données. |
Cette approche exige de l'enseignant qu'il développe une "tête bien faite" capable de "désancrer" son esprit des certitudes immédiates.
L'augmentation humaine ne réside pas dans l'extension de la mémoire ou de la vitesse de calcul, mais dans le renforcement de l'aptitude générale à poser et à traiter des problèmes multidimensionnels.
L'inéquation entre savoirs morcelés et réalités globales
Il existe une inadéquation profonde entre nos systèmes éducatifs cloisonnés et la réalité des problèmes contemporains qui sont transversaux et planétaires.
Les IA, bien qu'elles puissent brasser des données de domaines variés, ne possèdent pas la conscience de la "condition humaine" nécessaire pour donner du sens à ce croisement des matières.
La mission de l'éducateur formé aux IA est donc de restaurer cette dimension humaine en apprenant aux apprenants à "contextualiser" et "globaliser" les savoirs produits par la machine.
L'incapacité à penser le complexe rend l'individu "aveugle, inconscient et irresponsable" face aux enjeux de l'automatisation.
À l'inverse, l'acquisition d'une pensée "écologisante" permet de situer chaque événement ou chaque donnée générée par l'IA dans son contexte historique, culturel et éthique, redonnant ainsi du sens à un apprentissage qui pourrait autrement paraître mécanique.
Déclic, remise en question profonde et dépassement des obstacles
Pour utiliser les IA de manière "augmentée", il est impératif d'opérer ce que Gaston Bachelard appelle une "rupture épistémologique", (déclic ou remise en question profonde). Cette rupture consiste à rompre avec l'opinion et l'évidence première pour accéder à une connaissance construite et questionnée.
L'opinion comme obstacle à l'intelligence réflexive
Les IA génératives sont, par nature, des machines à produire de l'opinion au sens de Bachelard : elles génèrent ce qui est statistiquement le plus probable, ce qui "semble vrai" ou ce qui "traduit des besoins en connaissances" sans pour autant reposer sur une rationalité établie.
Bachelard affirme que "l'opinion pense mal ; elle ne pense pas".
Dans l'usage pédagogique des IA, le premier obstacle est l'adhésion immédiate à la réponse fluide et polie de la machine. Cette satisfaction intellectuelle immédiate bloque le processus de recherche et de questionnement.
Former une tête bien faite, c'est donc développer le "sens du problème". Pour l'esprit scientifique, toute connaissance est une réponse à une question.
Si l'on utilise une IA pour obtenir des réponses sans avoir formulé de questions complexes, on s'inscrit dans une régression cognitive.
L'augmentation humaine commence au moment où l'utilisateur utilise les IA non pas pour obtenir une solution, mais pour déconstruire ses propres préjugés et explorer des perspectives contradictoires.
Classification des obstacles dus au blocage mental ou idée reçue face aux IA
Les obstacles identifiés par Bachelard s'appliquent avec une pertinence saisissante à l'interaction humain-IA.
Les reconnaître est le premier pas vers une utilisation critique et augmentée de ces outils.
| Type d'obstacle (Bachelard) | Manifestation dans l'usage des IA | Stratégie de rupture pédagogique |
| L'expérience première | Se fier à la première intuition ou au premier résultat d'un moteur de recherche ou d'un LLM. | Pratiquer le "prompting" itératif et la confrontation systématique de plusieurs sources. |
| La connaissance générale | Utiliser des concepts vagues et universels fournis par les IA pour masquer une incompréhension réelle. | Exiger des IA des preuves, des exemples situés et des raisonnements étape par étape. |
| L'obstacle verbal | Être séduit par la forme parfaite d'un texte généré au détriment de la validité du fond. | Analyser la structure logique et les biais sémantiques de la réponse générée. |
| La connaissance non questionnée | Accepter l'autorité de l'algorithme comme une vérité objective. | Transformer la réponse des IA en une nouvelle base de questionnement et de problématisation. |
L'esprit, face aux IA, n'est jamais "jeune" ; il est chargé de l'âge de ses préjugés.
L'éducation doit donc viser un "rajeunissement spirituel" qui consiste à accepter une mutation brusque de la pensée pour contredire les habitudes intellectuelles d'autrefois.
Le paradoxe de Polanyi et la dimension tacite de l'intelligence
Une source majeure de méfiance chez les enseignants est l'idée que si une machine peut expliquer un concept mathématique ou rédiger une analyse littéraire, le rôle du professeur disparaît.
Cette crainte repose sur une méconnaissance de la nature de la connaissance humaine, telle qu'analysée par Michael Polanyi. Polanyi souligne que "nous savons plus que ce que nous pouvons dire".
Savoir intuitif et vécu vs connaissance explicite
Le paradoxe de Polanyi identifie un obstacle majeur pour les IA : la difficulté à automatiser des tâches qui reposent sur une compréhension tacite.
Les IA opèrent dans le domaine de la connaissance explicite, codifiable et statistique. Elles peuvent simuler la structure d'une leçon, mais elles ne possèdent pas la dimension tacite qui fait le propre de l'expertise humaine.
Le savoir intuitif et vécu : il est ancrée dans le corps, l'expérience vécue et l'intuition. C'est l'art du geste, l'empathie pédagogique, la capacité à lire entre les lignes d'une émotion d'un élève.
La connaissance explicite : c'est le domaine des IA, capables de traiter des masses de données et de suivre des règles d'inférence, mais sans aucune "passion intellectuelle" ni engagement personnel envers la vérité.
L'augmentation humaine consiste à utiliser les IA pour gérer la connaissance explicite (recherche documentaire, synthèse d'informations, structuration de base) afin de libérer l'humain pour qu'il puisse se concentrer sur la dimension tacite de son métier.
L'enseignant "augmenté" est celui qui utilise la machine comme un levier pour approfondir sa présence humaine et son jugement situé (c'est-à-dire un jugement ancré dans une situation réelle, précise, avec un contexte, des contraintes et une expérience vécue).
L'adaptation intelligente au terrain et le risque de la décision
L'intelligence humaine est une intelligence "située", une adaptation intelligente au terrain.
Alors que les IA résolvent des problèmes définis dans des environnements contrôlés, l'humain gère des situations concrètes et imprévisibles.
Daniel Andler souligne que la fonction essentielle de l'intelligence humaine est de "faire face à ce qui arrive à un être conscient à un moment donné".
- Les IA ne "problématisent" pas ; elles sont soumises à une normativité de résultat.
- L'humain, lui, est capable de "problématiser" la situation, c'est-à-dire de remettre en question les cadres mêmes du problème posé.
Dynamiques de co-évolution : entre augmentation et atrophie
L'introduction des IA dans les processus cognitifs crée une tension entre croissance et atrophie. Le modèle de co-évolution cognitive montre que l'interaction humain-IA est un processus non linéaire où l'engagement réflexif renforce les compétences métacognitives, tandis que la délégation excessive réduit l'autonomie analytique.
Le risque d'atrophie et la dette cognitive (Retard de réflexion accumulé par facilité)
L'usage massif des IA génératives peut entraîner un affaiblissement global des muscles de l'esprit.
Des études par électroencéphalographie (EEG) montrent une chute spectaculaire de la connectivité cérébrale (ondes Alpha et Thêta) lors de l'utilisation passive des IA pour des tâches de création.
Ce phénomène est lié à la "dette cognitive" : plus l'automatisation progresse sans surveillance critique, moins le cortex préfrontal est sollicité, ce qui peut avoir des effets durables sur notre capacité à mémoriser, à nous concentrer et à réfléchir de manière autonome.
| Stade de l'interaction (Modèle CAP) | Activité mentale humaine | État de l'autonomie cognitive |
| Phase 1 : Cognition Traditionnelle | Formulation endogène des problèmes, synthèse manuelle de l'information. | Pleine autonomie, renforcement des circuits de l'apprentissage. |
| Phase 2 : Augmentation | Les IA sont des outils d'amplification ; l'humain garde le contrôle conceptuel. | Extension des capacités créatives et de traitement. |
| Phase 3 : Contournement (Bypass) | L'utilisateur saute le raisonnement interne pour ne viser que la génération (l'output) efficace. | Début de l'atrophie, dépendance aux modèles externes. |
| Phase 4 : Passivité Cognitive | Acceptation aveugle des sorties algorithmiques comme autorité épistémique. | Perte de la capacité à régénérer les processus analytiques. |
Pour conserver un esprit clair et efficace, votre capacité à réfléchir sur votre propre travail doit toujours être plus forte que votre tendance à laisser la machine faire les choses automatiquement.
En d'autres termes, vous progressez réellement seulement si votre effort de réflexion personnelle dépasse constamment le niveau d'assistance apporté par l'intelligence artificielle.
L'enseignant doit donc apprendre aux élèves à réguler leur charge cognitive pour que l'IA reste une "potion" aidante et non un poison paralysant.
De la démission de la pensée face à la machine (délégation cognitive) à la souveraineté
Le passage de la délégation à l'augmentation exige ce que certains appellent la "souveraineté cognitive", c'est-à-dire la liberté de penser par soi-même.
Cela signifie conserver le contrôle sur les processus de perception et de décision.
Le "Humain Neurojico", contrairement à l'humain cybernétique purement optimisé, affirme la primauté de l'autonomie et de la réflexivité éthique
.
Le rôle de l'éducateur alchimiste et le sens de la création de sens humain ("Meaning-Making")
Pour les professeurs en formation, comprendre comment ils sont "augmentés" nécessite de redéfinir leur rôle.
L'enseignant n'est plus seulement un transmetteur de savoirs (puisque l'IA le fait déjà), il devient un "alchimiste" de la transmutation des informations en savoirs vivants.
L'avantage humain : Créer du sens (Meaning-Making)
L'avantage humain réside dans la capacité à générer du sens à travers l'interaction sociale et l'expérience corporelle.
L'IA peut détecter des patterns dans de grands jeux de données, mais elle n'a pas de compréhension intégrée des valeurs ni de base fondamentale de sens.
Le sens chez les IA : Il est purement syntaxique et statistique. Les IA prédisent le mot suivant sans comprendre ce qu'est la souffrance, l'émerveillement ou la justice.
Le sens chez l'humain : Il est sémantique, émotionnel et situé. Il repose sur le ton de la voix, le langage corporel, le contexte historique et les expériences passées.
Dans un projet pédagogique, l'enseignant augmenté est celui qui guide les élèves dans ce processus de construction de sens. Il encourage l'étonnement, le questionnement et la recherche de réponses qui ont une résonance humaine et sociale.
Les IA peuvent servir de partenaire de co-construction, mais l'arbitre final du sens doit rester l'humain.
Les IA comme entités "psychologiquement réelles"
Un défi majeur pour l'éducation est que les élèves (et les professeurs) ont tendance à attribuer des intentions et des émotions aux IA génératives en raison de leur fluidité linguistique.
Cette activation de notre "théorie de l'esprit" (ToM) nous pousse à anthropomorphiser la machine.
Il est crucial d'enseigner que cette empathie perçue est programmée et que les IA ne ressentent rien.
Lire : "Quand les machines nous émeuvent : les enjeux de l'empathie numérique".
L'augmentation humaine passe par cette désillusion nécessaire : comprendre que l'on interagit avec un système probabiliste permet de reprendre le contrôle et de ne pas se laisser manipuler par la "sympathie" apparente d'un compagnon numérique.
Nouvelles capacités et stratégies de changement
Pour ne pas être remplacé, il faut acquérir des capacités que les IA ne possèdent pas et transformer celles qu'elles peuvent aider à développer.
Cela demande un changement de posture radical, passant de l'exécution à l'orchestration.
Maîtriser le design de l'interaction (Prompt Engineering réflexif)
Le "prompting" ne doit pas être vu comme une simple compétence technique, mais comme une nouvelle forme de dialogue philosophique.
La "grammaire de l'action" avec les modèles de langage change la nature du travail intellectuel.
On passe d'un codage procédural à une "computation conversationnelle".
| Mode d'interaction avec l'IA | Description | Capacité humaine à développer |
| Démission de la pensée face à la machine (délégation cognitive) | Offrir le jugement interprétatif aux IA. | Capacité à détecter et critiquer les présupposés ontologiques du modèle. |
| Augmentation productive | Utiliser les IA pour générer des cadres, des thèmes et des objets intermédiaires. | Capacité de synthèse et de sélection de ce qui est pertinent pour l'humain. |
| Cognitive Overhead (Surcharge) | Gérer la masse d'informations produites par les IA. | Capacité de concentration et de filtrage stratégique. |
L'enseignant doit apprendre à "fermer la boucle" (closing the loop), c'est-à-dire s'assurer que le discernement humain reste le dernier arbitre de toute production assistée par IA.
La mesure de la complexité et la culture du doute
Une nouvelle capacité essentielle est celle de "mesurer la complexité". Dans un projet pédagogique, cela consiste à utiliser les IA pour explorer une thématique sous forme problématisée et controversée.
Plutôt que de demander une réponse unique, l'utilisateur augmenté demande aux IA de présenter les désaccords entre différents acteurs, les enjeux économiques, éthiques ou environnementaux, et les zones d'incertitude.
Cela nécessite de cultiver un "doute méthodique" qui n'est pas une méfiance paralysante, mais un moteur de l'esprit critique. Il faut apprendre à douter non seulement des réponses fausses, mais aussi et surtout des réponses trop "claires" et trop "simples" qui sont souvent des pièges à pensée.
Vers un management de l'expérience vécue
Pour les projets personnels ou le management, l'augmentation consiste à réinscrire l'action dans "l'expérience réelle".
L'IA peut optimiser des comportements et résoudre des dysfonctionnements techniques, mais elle ne peut pas composer avec des situations humaines singulières traversées par des conflits de valeurs.
Le remède à ce que certains appellent "l'algébrose" (la réduction du vivant à des indicateurs et des algorithmes) est le retour du travail vivant.
Cela implique de tenir ensemble :
- le "bien-vivre" (le socle),
- le "bien-faire" (l'accomplissement)
- et le "bien-être".
Lire : "Quelle éthique pour rester maître de l’IA ?".
Synthèse et conclusions pour l'avenir de l'éducation
L'intégration de l'intelligence artificielle n'est pas un processus de remplacement, mais un processus de révélation de ce qui est irréductiblement humain.
En automatisant ce qui est répétitif et codifiable, les IA nous forcent à cultiver notre "tête bien faite", c'est-à-dire notre capacité à penser la complexité, à opérer des remises en question profondes et à assumer notre dimension tacite et située.
Recommandations pour les formateurs et les porteurs de projets
Réformer le questionnement : Ne plus évaluer la capacité à fournir une réponse, mais la capacité à formuler un problème complexe et à critiquer les solutions automatisées.
Valoriser le tacite : Mettre l'accent sur les activités qui nécessitent une présence physique, une interaction sociale réelle et une intuition pratique (expérimentations, débats, projets de terrain).
Surveiller la santé cognitive : Alterner les phases de travail avec IA et les phases de réflexion profonde sans écran pour préserver la plasticité cérébrale et éviter la dette cognitive.
Enseigner la structure des modèles : Comprendre le fonctionnement statistique des LLM pour dissiper les illusions d'intelligence réelle et d'empathie.
Promouvoir la citoyenneté terrestre : Utiliser les IA comme un outil pour comprendre les enjeux globaux et planétaires, en reliant les disciplines au service d'une communauté de destin mondiale.
L'augmentation humaine ne se mesure pas à la puissance de l'outil, mais à la hauteur de la pensée qui le dirige. Lire : "Quelle éthique pour rester maître de l’IA ?".
Le passage d'une tête bien pleine à une tête bien faite n'est plus seulement un idéal pédagogique, c'est une nécessité de survie intellectuelle dans l'ère algorithmique.
En devenant des "alchimistes du sens" et des "architectes de la complexité", les professeurs et les citoyens de demain transformeront les IA d'un risque de remplacement en une opportunité historique de redevenir pleinement humains.