Aller au contenu principal

Publicité générée par IA : ce que les consommateurs perçoivent vraiment (et ce que les marques sous-estiment)

18 février 2026
Publicité KFC (2004)
  1. Quand l’origine compte autant que le message
  2. La théorie de l’attribution : comment nous décidons « qui » est derrière une publicité
  3. Une méthodologie en deux temps : du débat social à la réaction en focus group
  4. « Trop parfait, donc suspect » : l’IA face au soupçon d’artificialité
  5. Dire que c’est de l’IA change la donne : la transparence comme pivot
  6. Tous les produits ne sont pas logés à la même enseigne
  7. Au-delà de l’esthétique : une question éthique et environnementale
  8. Ce que les marketeurs doivent retenir
  9. Vers une publicité hybride, assumée et contextualisée ?

Une étude scientifique française met en lumière un focus important pour les directions marketing : la performance d’une publicité ne dépend plus seulement de son esthétique ou de son efficacité persuasive, mais aussi de l’origine que le public lui attribue. Humain ou IA ? La question, souvent invisible, reconfigure la confiance, l’authenticité et même l’acceptabilité éthique des campagnes.

Quand l’origine compte autant que le message

L’intelligence artificielle générative s’est installée dans les studios de création comme dans les services marketing. Images, vidéos, accroches : produire devient rapide, fluide, peu coûteux. La promesse est connue. Ce que l’on sait moins, en revanche, c’est la manière dont ces contenus sont perçus.

C’est précisément l’objet du travail de Madiha Bendjaballah (Maître de conférences en Marketing) et Mathieu Kacha (Professeur des universités en Sciences de Gestion), tous deux chercheurs au CEREFIGE, Université de Lorraine, présenté au Colloque du marketing digital 2025 (Paris), intitulé « IA ou pas IA, telle est la perception » : étude de la perception face aux publicités générées ou non avec l’IA. Leur recherche interroge une question simple en apparence : les consommateurs font-ils la différence entre une publicité créée avec l’aide de l’IA et une publicité conçue par un humain ? Mais derrière cette question se cache un enjeu stratégique plus profond : que se passe-t-il lorsque l’on révèle l’origine du contenu ?

Les auteurs montrent que la perception ne repose pas uniquement sur le résultat visuel. Elle s’ancre dans un processus psychologique plus large : l’attribution.

La théorie de l’attribution : comment nous décidons « qui » est derrière une publicité

Pour comprendre les réactions des consommateurs, les chercheurs mobilisent la théorie de l’attribution, développée notamment par les chercheurs en psychologie, Fritz Heider puis Harold Kelley. Cette théorie explique comment les individus infèrent les causes d’un événement ou d’un comportement. Face à un message, nous ne nous contentons pas de le juger ; nous cherchons inconsciemment à en déterminer l’origine.

Est-ce intentionnel ? Est-ce authentique ? Est-ce humain ? Est-ce mécanique ?

Dans le marketing des services, ces mécanismes d’attribution influencent déjà la satisfaction et les intentions d’achat. Lorsqu’un client subit un dysfonctionnement, la manière dont il attribue la responsabilité (à un employé, à un système, à l’entreprise) modifie radicalement sa réaction. Transposée à la publicité, la logique est comparable : si une création est perçue comme humaine, elle sera évaluée différemment que si elle est « octroyée » à un algorithme.

L’apport de cette recherche se situe précisément là : montrer que la qualité perçue d’un visuel ne suffit pas. L’origine supposée agit comme un filtre interprétatif. Et ce filtre peut reconfigurer l’ensemble du jugement.

Une méthodologie en deux temps : du débat social à la réaction en focus group

Les deux chercheurs français adoptent une approche mixte. D’abord, ils analysent 98 publications issues du mouvement #StarterpackNoAI sur LinkedIn, extraites via script Python. Cette tendance, née en réaction à la tendance #StarterpackAI, revendique une création visuelle artisanale, imparfaite, assumée comme humaine.

Les verbatim analysés révèlent une tonalité critique vis-à-vis de l’IA. L’esthétique générée est décrite comme « trop parfaite », « trop propre », « générique », « reconnaissable immédiatement ». À l’inverse, les contenus humains sont associés à l’imperfection, à l’humour, à la personnalité, à l’émotion.

Ensuite, les chercheurs organisent des focus groups. Les participants sont exposés à des publicités sans mention d’origine, puis une seconde fois après divulgation de la source, humaine ou IA. Cette séquence s’avère cruciale. Elle permet d’observer non seulement les réactions spontanées, mais aussi leur évolution après révélation.

Et c’est là que le phénomène devient particulièrement intéressant.

« Trop parfait, donc suspect » : l’IA face au soupçon d’artificialité

Les résultats mettent en évidence une association récurrente entre IA et perfection décrite comme « lisse ». Or, dans l’imaginaire contemporain, la perfection peut devenir un signal d’artificialité. Ce qui est trop homogène paraît calculé. Ce qui est trop fluide semble dénué de vécu.

Les participants attribuent à l’IA des contenus émotionnellement neutres, répétitifs, standardisés. Le style est perçu comme reconnaissable, presque « codé ». À l’inverse, l’humain est associé à l’irrégularité, à la prise de risque, à la singularité. Ce contraste révèle un paradoxe. Alors que certaines études soulignent que l’IA peut atteindre (voire dépasser) la qualité visuelle humaine, la perception ne se limite pas à l’esthétique. Elle intègre une dimension morale et symbolique.

Ce n’est pas seulement « beau ou pas beau ». C’est « authentique ou pas ».

Dire que c’est de l’IA change la donne : la transparence comme pivot

L’un des apports majeurs de l’étude concerne l’effet de divulgation. Lorsque l’origine IA est révélée, les évaluations peuvent se modifier. Non pas systématiquement vers le négatif, mais vers une réinterprétation. Les participants expriment une attente de transparence. L’usage de l’IA n’est pas forcément rejeté en soi. En revanche, sa non-divulgation est perçue comme problématique, voire trompeuse. Autrement dit, ce n’est pas l’outil qui cristallise la défiance, mais l’opacité.

Cette nuance importe. Elle suggère que la question ne se résume pas à « utiliser ou non l’IA », mais à « comment l’intégrer narrativement dans la relation de marque ». À l’instar des labels environnementaux ou nutritionnels évoqués par les auteurs, un dispositif d’information pourrait contribuer à légitimer l’usage de l’IA. La confiance ne disparaît pas nécessairement avec l’IA. Elle se redéfinit autour de la cohérence et de l’honnêteté perçue.

Tous les produits ne sont pas logés à la même enseigne

Par ailleurs, l’étude introduit une variable décisive : la nature du produit. Les publicités mettant en scène des représentations humaines (vêtements portés par un modèle, incarnations corporelles) sont jugées plus négativement lorsqu’elles sont associées à l’IA. À l’inverse, pour des produits fonctionnels ou sans incarnation directe, comme des boissons ou des biens industriels, l’usage de l’IA suscite moins de réticence.

Cette distinction renvoie à une intuition anthropologique. Plus un produit touche au corps, à l’identité ou à l’émotion, plus l’origine humaine du message semble valorisée. Là où la performance technique prime, l’IA apparaît plus acceptable. La généralisation serait donc risquée. La pertinence de l’IA dépend du territoire symbolique de la marque.

Au-delà de l’esthétique : une question éthique et environnementale

Les publications analysées évoquent également l’empreinte énergétique de l’IA. Ce point, souvent absent des discours marketing, nourrit une critique supplémentaire : celle de la cohérence entre valeurs affichées et pratiques technologiques.

Pour les marques positionnées sur la responsabilité ou l’authenticité, l’usage de l’IA peut devenir sensible. Non pas parce qu’il serait intrinsèquement incompatible avec ces valeurs, mais parce qu’il doit être articulé de manière cohérente avec le récit de marque. L’incohérence perçue fragilise la relation. Elle ne se décrète pas, elle se construit.

Ce que les marketeurs doivent retenir

Premier enseignement : la performance d’un contenu ne suffit plus. L’origine perçue influence l’évaluation. Les marques doivent intégrer cette dimension dans leurs arbitrages créatifs.

Deuxième enseignement : la transparence n’est pas un détail. Elle peut atténuer la méfiance et repositionner l’IA comme un outil, non comme un substitut dissimulé.

Troisième enseignement : la stratégie doit être différenciée selon la catégorie de produit. Là où l’incarnation humaine est centrale, la prudence s’impose. Là où la dimension fonctionnelle domine, l’IA peut s’intégrer plus naturellement.

Enfin, l’étude invite à dépasser l’opposition caricaturale « humain contre machine ». Les perceptions sont nuancées. L’IA n’est ni unanimement rejetée ni inconditionnellement adoptée. Elle est évaluée à l’aune d’attentes d’authenticité, de cohérence et de sincérité.

Vers une publicité hybride, assumée et contextualisée ?

Que faire ? À mesure que l’IA s’intègre dans les processus créatifs, la question ne sera peut-être plus de savoir si un contenu est généré par IA, mais comment la collaboration homme-machine est perçue.

La théorie de l’attribution rappelle que les consommateurs cherchent des causes et des intentions. Si l’IA est présentée comme un outil au service d’une vision humaine, la perception peut différer de celle d’un contenu perçu comme entièrement automatisé.

En filigrane, l’étude pose cette question : dans un univers saturé d’images fluides et optimisées, l’imperfection deviendra-t-elle un signal de crédibilité ?

Ce n’est pas une invitation à renoncer à la technologie. C’est une invitation à penser sa mise en scène. Car au fond, la question n’est pas seulement « IA ou pas IA ». Elle devient : que veut dire, aujourd’hui, créer un message crédible ?


En savoir plus sur Jean-Luc Raymond 🚀

Abonnez-vous pour recevoir les derniers articles par e-mail.

Commentaires fermés