Aller au contenu principal

IA, confiance et jugement : ce que les machines changent à notre manière de penser et décider

22 juin 2025
Réfléchir. Photo : Luis Fernandes / Pexels
  1. Faut-il croire l’IA ? Ce que les moteurs de recherche génératifs modifient dans notre confiance à l’information
  2. Peut-on apprendre à une IA à négocier ? Ce que les robots retiennent (vraiment) des humains
  3. Travailler avec une IA, c’est déjà changer sa façon de collaborer
  4. Décider comme un humain ? Ce que l’IA ne comprend toujours pas
  5. Vers une intelligence artificielle à la hauteur de notre complexité humaine

Et si l’intelligence artificielle ne se contentait plus de répondre à nos questions, mais influençait déjà nos choix, nos relations professionnelles, et même notre sens du jugement ? À travers quatre études majeures menées par le MIT et Harvard, une autre facette de l’IA se dévoile : plus persuasive que fiable, capable de négocier comme un humain, de travailler à nos côtés… mais encore incapable de faire une exception quand la situation l’exige. Derrière la puissance des modèles génératifs, ce sont nos repères cognitifs et nos façons de décider qui sont en jeu. Plongée analytique et pédagogique dans les coulisses d’une révolution silencieuse — celle d’une IA qui ne se contente plus de calculer, mais commence à élaborer, à juger… et à agir à notre place.

Faut-il croire l’IA ? Ce que les moteurs de recherche génératifs modifient dans notre confiance à l’information

À mesure que les moteurs de recherche adoptent l’intelligence artificielle générative, notre rapport à la vérité vacille. Une étude de référence menée par Sinan Aral et Haiwen Li au MIT montre comment le design des réponses produites influence profondément notre confiance, au point de privilégier la forme sur le fond. Derrière la fluidité d’un paragraphe généré par IA se cache une réalité plus complexe : celle d’une information perçue comme crédible… même lorsqu’elle est fausse.

À l’ère de ChatGPT et de Google AI Overviews, le geste de « chercher sur Internet » n’a plus tout à fait le même sens. La génération automatique de réponses, souvent bien structurées et synthétiques, remplace progressivement les traditionnels liens bleus. Mais cette apparente efficacité soulève une question majeure : faisons-nous confiance à l’IA pour nous dire la vérité ?

C’est précisément ce qu’a voulu mesurer l’étude « Human Trust in AI Search » (avril 2025) pilotée par Haiwen Li et Sinan Aral au Massachusetts Institute of Technology. Dans cette vaste expérience internationale, les chercheurs ont analysé plus de 80 000 résultats de recherche générés par IA et par moteurs classiques, à travers 12 000 requêtes dans sept pays. Ils ont ensuite soumis ces contenus à près de 5 000 participants représentatifs de la population adulte américaine, dans une expérience randomisée visant à évaluer le niveau de confiance perçu.

Premier constat : en moyenne, les utilisateurs font moins confiance aux résultats générés par une IA qu’aux résultats traditionnels. Mais ce scepticisme peut être effacé en un clin d’œil par un simple élément graphique : la présence de références et de liens cliquables. Même lorsque ces liens sont incorrects, brisés ou inventés — ce que l’on appelle des « hallucinations » — leur seule présence augmente la crédibilité perçue de la réponse générée.

« Nous montrons que l’ajout de citations et de liens, même erronés, accroît significativement la confiance des utilisateurs envers les moteurs de recherche IA », écrivent les auteurs. Le design l’emporte sur le contenu. Une information bien présentée est jugée plus fiable qu’une réponse honnête, mais incertaine.

Ce biais perceptif se renforce avec une autre variable : la visualisation de la « confiance » de l’IA elle-même. Lorsque le système souligne certains passages en vert (forte confiance) ou en orange (faible confiance), les utilisateurs se présentent globalement plus méfiants — y compris face à des contenus factuellement corrects. L’interface qui se veut transparente devient un frein à la transmission de l’information. Un paradoxe redoutable dans un monde où l’IA va jouer un rôle croissant dans les décisions de santé, d’éducation, de consommation ou d’opinion politique.

Les auteurs mettent aussi en lumière des différences significatives selon les profils : les personnes les plus diplômées ou travaillant dans le numérique ont tendance à se montrer plus critiques, tandis que les utilisateurs peu familiers des IA génératives affichent une confiance plus élevée, souvent injustifiée. L’exposition répétée à ces outils semble jouer un rôle : plus on utilise l’IA pour faire des recherches, plus on est enclin à la croire sans la remettre en question.

En définitive, cette première étude dévoile une réalité dérangeante : dans les moteurs de recherche nouvelle génération, la confiance de l’utilisateur ne dépend plus tant de la qualité de l’information que de la manière dont elle est emballée. Et cette illusion de fiabilité pourrait ouvrir la porte à une diffusion massive d’erreurs, voire de désinformation, si elle n’est pas encadrée par des garde-fous techniques et réglementaires.

Peut-on apprendre à une IA à négocier ? Ce que les robots retiennent (vraiment) des humains

Peut-on apprendre à une intelligence artificielle à négocier comme un être humain ? Une compétition scientifique organisée par le MIT a confronté des agents conversationnels IA dans plus de 120 000 simulations. Les résultats confirment que les grandes lois de la négociation humaine — chaleur/empathie, assertivité, préparation — demeurent valides, mais révèlent aussi des stratégies inédites propres aux capacités computationnelles de l’IA. Une nouvelle théorie de la négociation algorithmique est en train d’émerger.

Négocier un contrat, marchander un prix ou trouver un compromis implique traditionnellement une intelligence sociale, un sens du timing, une lecture fine des intentions de l’autre. Des compétences a priori humaines, que l’on aurait crues difficiles à automatiser. Et pourtant : avec la montée en puissance des modèles de langage comme GPT-4o, la négociation entre IA devient un terrain d’expérimentation stratégique, et scientifique.

Dans leur étude « Advancing AI Negotiations: New Theory and Evidence from a Large-Scale Autonomous Negotiations Competition » (mars 2025), les chercheurs du MIT Jared Curhan, Michelle Vaccaro et Sinan Aral ont mis sur pied une expérience inédite. Ils ont organisé une compétition internationale rassemblant plus de 250 participants issus de 50 pays, invités à concevoir des agents IA capables de mener des négociations en langage naturel. Au total, plus de 120 000 interactions ont été générées, dans 3 types de scénarios : vente (distributif), colocation (intégratif) et embauche (multicritères).

Les résultats sont aussi inattendus que révélateurs. Les principes fondamentaux de la négociation humaine — en particulier l’empathie relationnelle — s’appliquent bel et bien aux agents IA. Les bots perçus comme chaleureux concluent plus souvent des accords et laissent une meilleure impression à leur homologue, ce que les chercheurs appellent le « subjective value » (la valeur perçue de la relation). Mais cette posture bienveillante a un revers : les agents « chaleureux » (empathiques) créent plus de « valeur commune »… mais en capturent moins pour eux-mêmes. Les agents dominants, eux, obtiennent de meilleurs résultats économiques, au prix d’une relation plus froide.

« L’agent gagnant de la compétition a brillamment combiné des principes classiques de négociation — comme la préparation méthodique ou la gestion des concessions — avec des techniques spécifiques à l’IA, comme le raisonnement en chaîne (chaîne de pensée) ou l’injection de prompts », notent les auteurs. Ce mélange de méthode humaine et d’optimisation computationnelle ouvre la voie à une nouvelle discipline : la théorie de la négociation entre IA, où l’on apprend à concevoir des agents qui savent autant persuader que modéliser l’autre.

Autre découverte marquante : les stratégies gagnantes ne sont pas nécessairement celles qui maximisent la valeur brute, mais celles qui optimisent la relation et la confiance perçue dans la durée. Les chercheurs ont également observé que la formulation des instructions, les mots choisis dans le prompt, l’ordre des arguments ou la structure du dialogue peuvent changer radicalement les performances d’un agent. Ce phénomène, propre aux modèles de langage, amplifie l’importance de l’ingénierie des prompts dans les dynamiques de négociation automatisée.

Enfin, les chercheurs ont testé les performances des agents non seulement entre eux, mais aussi face à des humains. Les premiers résultats montrent que certains agents IA égalent, voire surpassent, les humains dans certaines situations, notamment en matière de clarté d’argumentation ou de constance stratégique. Mais ils peinent encore à s’adapter à l’imprévu ou à gérer des signaux faibles typiquement humains, comme les sous-entendus ou les hésitations.

En somme, cette compétition révèle que les modèles IA, loin d’être de simples exécutants, peuvent devenir des acteurs négociateurs à part entière — capables de s’adapter, de convaincre, de faire preuve de tact. À condition d’être correctement entraînés, bien sûr. Car derrière chaque agent performant se cache un humain… qui lui a appris à négocier comme un autre humain.

Travailler avec une IA, c’est déjà changer sa façon de collaborer

À quoi ressemble la collaboration entre un humain et une intelligence artificielle dans une tâche créative ? Grâce à la plateforme expérimentale MindMeld, des chercheurs du MIT ont étudié, à grande échelle, comment IA et humains interagissent en temps réel pour concevoir des publicités. Résultat : une productivité décuplée, une nouvelle répartition des rôles… et une transformation subtile, mais profonde des dynamiques de travail.

La question n’est plus de savoir si l’intelligence artificielle va entrer dans nos outils professionnels, mais comment elle va redéfinir nos manières de coopérer. Une étude scientifique récente parvient à mesurer, avec granularité, ce que la collaboration humain IA change dans le travail créatif. Intitulée « Collaborating with AI Agents: Field Experiments on Teamwork, Productivity, and Performance » (mars 2025), cette recherche signée Harang Ju et Sinan Aral au MIT s’appuie sur une expérience à grande échelle dans le domaine du marketing digital.

Les chercheurs ont développé une plateforme baptisée MindMeld, conçue pour observer en détail le travail collaboratif entre humains et agents IA. À travers 2 310 participants recrutés via Prolific, divisés en équipes humaines ou en binômes humain IA, l’expérience consistait à concevoir des publicités pour une grande organisation. Chaque duo disposait de 40 minutes pour créer autant d’annonces que possible — images, textes, titres, slogans — dans une interface partagée, semblable à un Google Docs augmenté d’outils IA.

Les chiffres parlent d’eux-mêmes : les binômes humain IA ont produit 70 % d’annonces en plus par personne que les équipes humaines. La qualité du texte (fluidité, persuasion, clarté) est jugée supérieure par des évaluateurs externes. Quant aux messages échangés, leur volume est 45 % plus élevé dans les équipes mixtes. Mais derrière cette densité de production se cache un changement structurel : les humains associés à une IA envoient 23 % de messages sociaux en moins. Moins de petits échanges conversationnrls, moins d’échanges émotionnels, plus de messages fonctionnels — suggestions, priorités, jugements, validations.

« Collaborer avec une IA permet de réduire les coûts de coordination sociale », résument les auteurs. En d’autres termes, l’IA fluidifie le travail, mais appauvrit la relation. On discute moins, on crée plus. Le gain de productivité semble donc lié à un déplacement de l’attention : les humains consacrent 23 % de temps en plus à la génération de contenu (textes, images), et 20 % de moins à l’édition de détail.

Un autre aspect remarquable de l’étude concerne le rôle de la personnalité. Les IA ont été paramétrées avec des traits aléatoires issus du modèle des Big Five (ouverture, conscienciosité, extraversion, amabilité, névrotisme). L’objectif ? Observer si certaines combinaisons humain-agent fonctionnent mieux que d’autres. Et la réponse est oui : les humains consciencieux collaborent mieux avec des IA « ouvertes » (ce qui améliore la qualité des visuels), tandis que les paires mal assorties — par exemple, un humain extraverti avec une IA trop rigide — produisent des résultats plus faibles, notamment sur la qualité du texte.

Enfin, les publicités ont été réellement testées en externe, sur le réseau social X (anciennement Twitter), totalisant près de 5 millions d’impressions. Les campagnes associant texte IA et image humaine obtiennent les meilleurs taux de clics, prouvant que la complémentarité fonctionne… à condition de bien répartir les tâches. L’IA « brille » dans la rédaction, les humains dans la création visuelle.

Ce que cette étude met en lumière, au-delà des chiffres, c’est une mutation du travail en profondeur. La collaboration humain IA ne consiste pas à déléguer, mais à coproduire. Elle transforme les échanges, redistribue les responsabilités, modifie les rythmes. Et demain, à mesure que ces agents gagneront en autonomie et en personnalisation, il faudra sans doute repenser non seulement les outils, mais aussi les compétences « sociales » nécessaires pour bien « s’entendre » avec une intelligence artificielle.

Décider comme un humain ? Ce que l’IA ne comprend toujours pas

Dans la vie comme en entreprise, savoir faire une exception peut faire toute la différence. Mais les intelligences artificielles actuelles sont-elles capables de ce type de jugement contextuel ? Une étude menée par des chercheurs de Harvard et du MIT révèle que les modèles les plus avancés refusent encore massivement de déroger à la règle… même lorsque le bon sens humain l’exigerait. Ce biais de rigidité met en lumière une faiblesse structurelle de l’IA décisionnelle — et une piste prometteuse pour y remédier : l’apprentissage explicatif.

Vous avez demandé à votre assistant IA d’acheter un ingrédient pour un gâteau d’anniversaire, en précisant : « pas plus de 10 dollars ». À l’épicerie, le seul paquet coûte 10,01 dollars. Un humain l’achèterait. L’IA, elle, refuse. Ce n’est pas une anecdote : c’est le point de départ d’une recherche approfondie sur la manière dont les intelligences artificielles prennent — ou refusent de prendre — des décisions déviant légèrement des règles établies.

L’étude « Teaching AI to Handle Exceptions: Supervised Fine-Tuning with Human-Aligned Judgment » (mars 2025), co-signée par Matthew DosSantos DiSorbo, Harang Ju et Sinan Aral, s’attaque à une dimension méconnue, mais cruciale de l’intelligence artificielle moderne : la gestion des exceptions. Dans un monde où les règles sont rarement complètes ou universellement applicables, savoir s’en écarter quand il le faut devient une compétence fondamentale. Or, les LLMs — GPT-4o, GPT-o1, LLaMA 3.2 — échouent massivement sur ce point.

À travers des scénarios concrets inspirés de situations de service client, de gestion de contrats ou de règles internes, les chercheurs ont comparé les réponses d’humains et d’IA face à des demandes impliquant une légère transgression des consignes. Résultat : alors que la grande majorité des humains (jusqu’à 92 % dans certains cas) accepte de faire une exception raisonnable, les IA refusent de manière systématique. Cette rigidité algorithmique reflète un attachement littéral aux règles, sans prise en compte de l’intention, du contexte ou de la finalité de l’action.

« Les modèles les plus avancés adhèrent trop strictement aux politiques, même lorsque cette obéissance est absurde ou contre-productive », notent les auteurs. Ce biais pose problème dans tous les domaines où l’IA est censée agir avec discernement : service après-vente, modération de contenu, négociation contractuelle, assistance personnelle.

Pour tenter de corriger ce biais, 3 techniques ont été testées : l’application de cadres éthiques (devoir, utilité, vertu), le raisonnement en chaîne (chaîne de pensée) et le fine-tuning supervisé. Les deux premières méthodes ont montré peu ou pas d’effet. En revanche, le fine-tuning — c’est-à-dire l’entraînement du modèle sur des exemples de décisions humaines justifiées par des explications — a nettement amélioré les performances. L’IA apprend non seulement « quoi » faire, mais surtout « pourquoi » le faire. C’est cette compréhension du raisonnement humain qui lui permet de mieux généraliser son comportement à des situations inédites.

Autrement dit, la correspondance avec les valeurs humaines passe par la transmission des logiques décisionnelles, pas uniquement des résultats. Le modèle doit intégrer la nuance, le compromis, le principe de proportionnalité — autant d’éléments qui échappent aux règles fixes et aux simples étiquettes binaires. Avec seulement 50 exemples d’entraînement explicatif, les chercheurs ont observé des effets significatifs de généralisation, preuve qu’un apprentissage qualitatif peut être plus efficace qu’une immense base de données brute.

Cette recherche met en évidence une frontière critique dans la course à l’autonomie des IA : leur capacité à reproduire non seulement l’intelligence logique, mais le discernement humain. Tant qu’elles seront incapables d’ajuster leurs décisions à des contextes ambigus ou marginaux, elles resteront des outils puissants, mais fondamentalement inaptes à gérer les zones grises — c’est-à-dire la majorité des situations réelles.

Vers une intelligence artificielle à la hauteur de notre complexité humaine

Ce que révèlent ces quatre plongées dans le quotidien de l’IA, c’est moins une performance technologique qu’un miroir tendu à notre propre fonctionnement. L’intelligence artificielle ne se limite plus à exécuter des tâches ou formuler des phrases : elle influence notre façon de chercher, de décider, de collaborer, de faire confiance. À chaque interaction, elle redessine les lignes invisibles de nos comportements — parfois pour le meilleur, parfois à notre insu.

Mais ce que l’IA gagne en efficacité, elle le perd encore souvent en nuance. Elle sait reformuler des contenus, optimiser une négociation, générer des idées… mais peine à saisir l’essence même de ce qui nous rend humains : la capacité à faire une entorse raisonnable à une règle, à douter, à contextualiser, à préférer l’intention à la lettre.

Pour que l’IA ne soit pas seulement un accélérateur, mais un allié véritable, il faut donc plus qu’un saut de puissance. Il faut un saut de discernement. Cela passe par de nouvelles méthodes d’apprentissage, qui n’enseignent pas seulement « quoi faire », mais « comment et pourquoi le faire ». Il ne s’agit pas de rendre les machines plus humaines au sens émotionnel, mais plus aptes à évoluer dans un monde d’ambiguïtés, d’exceptions, d’intentions implicites — bref, notre monde.


En savoir plus sur Jean-Luc Raymond 🚀

Abonnez-vous pour recevoir les derniers articles par e-mail.

Commentaires fermés