Aller au contenu principal

L’IA agentique peut-elle appauvrir notre intelligence ?

3 mars 2026
Savoir. Photo : Juan Pablo Serrano / Pexels
  1. L’IA agentique améliore nos décisions… mais modifie en profondeur les incitations à apprendre
    1. Une promesse devenue évidence : décider mieux, plus vite, avec moins d’effort
    2. Deux formes de savoir : comprendre ce qui est en jeu
    3. L’effort humain : un moteur discret de la connaissance collective
    4. L’IA comme substitut : la tentation rationnelle de réduire l’effort
    5. Une tension silencieuse entre performance et accumulation
  2. Du gain individuel au risque collectif : comprendre le scénario d’« effondrement du savoir »
    1. Quand la dynamique l’emporte sur l’instant : la mécanique du basculement
    2. Des équilibres multiples : la fragilité invisible des systèmes cognitifs
    3. Plus précis n’est pas toujours mieux : l’optimum intermédiaire
    4. L’agrégation du savoir : un amortisseur stratégique
    5. Implications stratégiques : préserver l’investissement cognitif
    6. Avec l’IA agentique, une question de gouvernance du progrès

Dans un working paper du NBER (National Bureau of Economic Research), étude scientifique publiée en février 2026, « AI, Human Cognition and Knowledge Collapse« , (IA, cognition humaine et effondrement des connaissances), les trois chercheurs du Massachusetts Institute of Technology (M.I.T.) Daron Acemoglu (économiste), Dingwen et Asuman Ozdaglar développent une démonstration théorique ambitieuse : l’IA agentique peut améliorer la qualité des décisions individuelles à court terme tout en affaiblissant progressivement le stock collectif de connaissances sur lequel repose la société.

Leur analyse ne relève ni de la technophobie ni de l’enthousiasme naïf. Elle propose un cadre rigoureux pour comprendre un risque discret, mais qui interroge : celui d’une érosion lente de l’intelligence collective sous l’effet même des outils censés l’augmenter.

L’IA agentique améliore nos décisions… mais modifie en profondeur les incitations à apprendre

Une promesse devenue évidence : décider mieux, plus vite, avec moins d’effort

Depuis l’essor des modèles génératifs, l’argument s’est imposé presque naturellement. L’IA ne se contente plus de rechercher des informations ; elle les structure, les reformule, les hiérarchise. Avec l’arrivée des systèmes dits « agentiques », elle franchit une étape supplémentaire : elle ne fournit plus seulement des contenus, elle délivre des recommandations adaptées à un contexte précis.

Un investisseur décrit son profil de risque, son horizon de placement, ses contraintes fiscales : la machine propose une allocation optimisée. Un médecin saisit les symptômes et l’historique d’un patient : le système suggère des diagnostics ordonnés. Un dirigeant expose les caractéristiques de son entreprise : l’IA esquisse des scénarios stratégiques.

Le bénéfice est tangible. Les décisions gagnent en rapidité et en précision. L’incertitude se réduit. L’erreur diminue. C’est précisément cette amélioration statique (immédiate) que les auteurs prennent comme point de départ. Ils ne la contestent pas. Leur modèle suppose au contraire que les recommandations agentiques augmentent effectivement la qualité des choix individuels.

Mais c’est ici que le raisonnement bifurque. Car une décision plus performante aujourd’hui ne dit rien, en soi, de la trajectoire cognitive de la société demain. Et c’est cette trajectoire qui les intéresse.

Deux formes de savoir : comprendre ce qui est en jeu

Pour analyser cette dynamique, les chercheurs posent une distinction fondamentale entre deux types de connaissance.

La première est générale. Elle correspond au cadre commun, aux principes théoriques, aux lois structurantes d’un domaine. En médecine, ce sont les bases de la physiologie, de la microbiologie, des mécanismes pathologiques. En finance, ce sont les théories des marchés, la compréhension des instruments, des risques systémiques. En droit, ce sont les fondements normatifs et les architectures institutionnelles.

Cette connaissance générale est cumulative. Elle évolue dans le temps. Elle se transmet d’une génération à l’autre. Surtout, elle bénéficie à l’ensemble de la communauté.

La seconde est contextuelle. Elle concerne une situation particulière : le cas précis d’un patient, la configuration spécifique d’une entreprise, le profil singulier d’un investisseur.

Dans le modèle développé par Acemoglu et ses coauteurs, ces deux formes de savoir sont complémentaires. L’une ne peut produire pleinement ses effets sans l’autre.

Observer des symptômes n’a de valeur que si l’on comprend les mécanismes biologiques sous-jacents. Analyser un bilan financier n’a de sens que si l’on maîtrise les principes comptables et macroéconomiques. L’information contextuelle n’est exploitable que si elle s’inscrit dans un cadre général robuste.

Ce point est crucial. Il signifie que l’IA agentique, en améliorant la précision de l’information contextuelle, ne peut produire de valeur durable que si le socle général reste solide. Et c’est justement ce socle que la dynamique peut fragiliser.

L’effort humain : un moteur discret de la connaissance collective

Le modèle introduit alors une hypothèse réaliste, mais souvent négligée : apprendre est coûteux. Investir du temps pour comprendre un domaine, approfondir une théorie, analyser des données, mobilise de l’énergie cognitive. Cet effort produit un bénéfice privé évident : une meilleure compréhension de son propre contexte.

Mais il produit aussi, de manière moins visible, un signal public. En apprenant, en expérimentant, en formalisant, les individus alimentent progressivement le stock de connaissance générale.

Une partie de ce qu’ils acquièrent est susceptible d’être partagée, intégrée, consolidée dans le corpus collectif. C’est ce que le modèle formalise sous la forme d’une externalité d’apprendre. Chacun supporte le coût de l’effort, mais le bénéfice général est diffus.

Or, cette dimension collective n’est pas directement internalisée dans la décision individuelle. Ce qui guide l’investissement en apprentissage, c’est le rendement personnel perçu. Et c’est ici que l’IA agentique modifie les incitations.

L’IA comme substitut : la tentation rationnelle de réduire l’effort

Lorsque l’IA fournit des recommandations contextuelles très précises, elle réduit mécaniquement l’utilité marginale de l’effort humain. Pourquoi consacrer des heures à comprendre en profondeur un domaine si la machine peut déjà générer une réponse adaptée à votre situation ? Pourquoi creuser une théorie si la préconisation personnalisée suffit à prendre une décision correcte ? Du point de vue individuel, réduire l’effort devient rationnel.

Le modèle montre que la précision accrue de l’IA agit comme un substitut à l’apprentissage humain. Plus les recommandations sont fiables, moins l’incitation à investir dans la compréhension profonde est forte. À court terme, rien ne semble problématique. Les décisions restent bonnes, voire meilleures. Le gain de productivité est manifeste.

Mais collectivement, la diminution progressive de l’effort humain réduit la production de connaissance générale. Et comme cette connaissance est cumulative et partagée, sa « contraction » peut modifier l’équilibre global du système.

Une tension silencieuse entre performance et accumulation

Nous arrivons ici au cœur de la première partie de l’argument. L’IA agentique améliore la performance individuelle « statique ». Elle accroît la précision des décisions dans un contexte donné. Elle réduit le coût cognitif.

Mais en modifiant les incitations à apprendre, elle peut affaiblir la dynamique d’accumulation du savoir collectif. Cette tension n’est pas visible immédiatement. Elle se déploie dans le temps.

Une génération d’utilisateurs peut continuer à bénéficier d’un stock hérité de connaissance générale tout en investissant moins dans sa production. La génération suivante héritera d’un socle légèrement plus faible. Puis la suivante d’un socle encore plus réduit.

La question n’est donc seulement : l’IA améliore-t-elle nos décisions aujourd’hui ? Mais : comment l’IA transforme-t-elle les incitations qui déterminent le niveau de connaissance collective, demain ?

C’est cette dynamique « inter-temporelle » que la seconde partie de l’analyse va explorer, en montrant comment, sous certaines conditions, le système peut basculer vers un équilibre d’érosion durable du savoir. Et c’est là que la thèse prend toute sa portée stratégique.

Du gain individuel au risque collectif : comprendre le scénario d’« effondrement du savoir »

Quand la dynamique l’emporte sur l’instant : la mécanique du basculement

Jusqu’ici, tout semble presque rassurant. L’IA agentique améliore les décisions individuelles. Elle réduit les erreurs. Elle augmente la précision contextuelle. Où serait le problème ? Le problème apparaît lorsque l’on ne regarde plus une décision isolée, mais la trajectoire du système dans le temps.

Dans le modèle proposé par Acemoglu, Kong et Ozdaglar, la connaissance générale évolue comme un stock dynamique. Elle se nourrit des efforts d’apprentissage des individus. Chaque génération hérite du socle accumulé par la précédente, l’enrichit (ou non) puis transmet le résultat.

Si l’effort humain reste soutenu, le stock de connaissance générale se maintient à un niveau élevé. Les décisions contextuelles continuent d’être interprétées à la lumière d’un cadre solide. Le système converge vers un équilibre « savoir de grande qualité ».

Mais si l’effort diminue fortement parce que l’IA fournit des recommandations suffisamment précises pour rendre l’apprentissage moins nécessaire, la dynamique peut s’inverser. Le flux de nouvelle connaissance ralentit. Le stock collectif cesse de croître. Il peut même se contracter, car le monde évolue, les contextes changent, et les cadres théoriques doivent être actualisés.

C’est dans cette configuration que les auteurs identifient la possibilité d’un « knowledge-collapse steady state » (état stationnaire d’effondrement des connaissances) : un équilibre où le savoir général tend vers un niveau très faible, voire nul, parce que plus personne n’a intérêt à investir suffisamment dans son maintien. Il ne s’agit pas d’un effondrement spectaculaire. Il s’agit d’un glissement progressif.

Des équilibres multiples : la fragilité invisible des systèmes cognitifs

L’un des apports les plus puissants du modèle est de montrer que plusieurs trajectoires peuvent coexister.

Dans certaines configurations, la société converge vers un équilibre robuste. Le stock de connaissance reste élevé. L’IA complète l’apprentissage humain sans le remplacer totalement. L’interaction entre savoir général et information contextuelle demeure féconde.

Mais dans d’autres configurations, le système peut basculer vers un équilibre de faible connaissance. Tout dépend de l’intensité de la substitution opérée par l’IA et de la sensibilité de l’effort humain aux incitations.

Cette idée d’équilibres multiples introduit une dimension de « path dependence » (dépendance à la trajectoire). Le point de départ compte. Une société qui dispose déjà d’un stock élevé de connaissance générale et d’institutions solides peut résister plus facilement à l’effet de substitution. Une société plus fragile, avec un capital cognitif plus faible ou une agrégation du savoir moins efficace, peut basculer plus rapidement.

Autrement dit, la même technologie peut produire des effets différents selon le contexte institutionnel et culturel. C’est une conclusion importante pour l’analyse des politiques publiques comme pour celle des stratégies d’entreprise.

Plus précis n’est pas toujours mieux : l’optimum intermédiaire

Un autre résultat du papier mérite attention, tant il bouscule l’intuition. On pourrait supposer que l’amélioration continue de la précision de l’IA agentique est nécessairement bénéfique. Plus les recommandations sont fiables, plus les décisions sont bonnes. C’est une vision linéaire du progrès.

Or, le modèle montre que le bien-être collectif peut être non monotone par rapport à cette précision.

À faible niveau de précision, l’IA améliore la décision sans trop décourager l’apprentissage. Les gains directs dominent. Le système reste dans la zone de stabilité. Mais au-delà d’un certain seuil, la réduction de l’effort humain devient si marquée que le stock de connaissance générale diminue. Le bénéfice immédiat des recommandations personnalisées ne compense plus la perte dynamique de savoir collectif.

Il peut donc exister un niveau optimal intermédiaire de précision agentique. Cette conclusion est intellectuellement dérangeante. Elle suggère que l’optimisation technique maximale n’est pas toujours synonyme d’optimum social. Elle invite à penser l’IA non seulement en termes de performance instantanée, mais en termes d’équilibre systémique.

L’agrégation du savoir : un amortisseur stratégique

Face à ce risque, le modèle identifie un facteur clé de résilience : la capacité d’agrégation de la connaissance générale. Plus une société est capable de mutualiser efficacement les contributions individuelles, plus le stock collectif est robuste. Dans le cadre théorique, cela correspond à une meilleure circulation des signaux publics, à une intégration plus large des apprentissages individuels dans le corpus commun.

Concrètement, cela renvoie aux institutions scientifiques, aux universités, aux communautés professionnelles, aux plateformes de partage structurées, aux normes de publication et de formalisation.

Une forte capacité d’agrégation renforce l’effet cumulatif de l’apprentissage. Elle élargit le « bassin d’attraction » de l’équilibre du savoir de qualité. Elle rend le système moins sensible aux effets de substitution induits par l’IA.

À l’inverse, dans un environnement fragmenté, où le savoir est peu mutualisé ou peu institutionnalisé, la dynamique d’érosion peut s’enclencher plus facilement. La technologie n’agit donc jamais seule. Elle interagit avec une architecture institutionnelle.

Implications stratégiques : préserver l’investissement cognitif

Les enseignements de cette étude ne plaident ni pour le rejet de l’IA ni pour une régulation aveugle. Ils invitent à une réflexion stratégique sur les incitations.

Dans les entreprises, la question devient : comment intégrer l’IA sans affaiblir la montée en compétence interne ? Une organisation qui externalise systématiquement l’analyse à un système agentique peut gagner en efficacité à court terme, mais perdre sa capacité à produire de la connaissance originale.

La solution passe par des dispositifs qui maintiennent l’effort d’apprentissage. Par exemple, en exigeant une explicitation des recommandations, en intégrant l’outil dans des processus de validation humaine, en valorisant la compréhension des modèles sous-jacents plutôt que la simple utilisation des résultats.

Dans l’éducation, l’enjeu est similaire. Si les étudiants délèguent intégralement la production intellectuelle aux modèles génératifs, l’investissement cognitif se réduit. Or, c’est cet investissement qui alimente le stock collectif de connaissance. Il ne s’agit pas d’interdire l’usage des outils, mais de concevoir des pédagogies où l’IA soutient l’appropriation plutôt qu’elle ne s’y substitue.

Dans la recherche enfin, la question s’avère exigeante. Une communauté scientifique qui s’appuie massivement sur des systèmes capables de recombiner l’existant sans renouveler les fondements théoriques peut voir ralentir, à terme, la production de nouvelles connaissances fondamentales.

Le modèle n’affirme pas que ce scénario se produira. Il montre qu’il est possible.

Avec l’IA agentique, une question de gouvernance du progrès

En filigrane, l’étude pose une interrogation plus large : comment gouverner une technologie qui modifie les incitations d’apprentissage ?

Les auteurs évoquent la possibilité d’un design informationnel, c’est-à-dire d’une architecture des systèmes qui préserverait les incitations à apprendre. L’idée peut sembler paradoxale : faudrait-il parfois limiter la précision ou la forme des recommandations pour protéger l’investissement humain ? La question mérite au moins d’être posée.

Car au fond, le débat dépasse la seule IA. Il touche à la manière dont une société organise la production et la transmission du savoir.

Une technologie peut optimiser la décision individuelle. Mais si elle réduit l’incitation à produire et à partager de la connaissance générale, elle modifie la trajectoire cognitive collective.

Le véritable enjeu n’est donc pas de savoir si l’IA est bonne ou mauvaise. Il est de comprendre comment préserver l’intelligence collective dans un monde où la performance individuelle devient de plus en plus automatisée.

Au fond, l’étude ne nous demande pas de choisir entre l’IA et l’humain. Elle nous oblige à regarder plus loin que l’efficacité immédiate. Une société peut devenir extraordinairement performante dans l’exécution… tout en affaiblissant sa capacité à comprendre, à théoriser, à renouveler ses propres fondations.

L’enjeu n’est donc pas technologique, il est réflexif. Comment continuer à investir dans le savoir commun lorsque la machine rend l’effort individuel moins indispensable ? C’est cette tension silencieuse, entre confort cognitif et vitalité intellectuelle, que met en lumière le travail d’Acemoglu et de ses coauteurs. Et c’est à cette tension que devront répondre les institutions, l’école, l’université et les entreprises, bien plus que les algorithmes.


En savoir plus sur Jean-Luc Raymond 🚀

Abonnez-vous pour recevoir les derniers articles par e-mail.

Commentaires fermés