Ainsi, les images de l’IA manipulent notre réflexion sur les réseaux sociaux en exploitant les émotions, prévient l’étude.
Ce n'est pas de la naïveté : les images d'IA sur Facebook exploitent des émotions profondes et des dynamiques sociales qui affectent tout le monde, sans exception
Ils coulent sous nos yeux pendant que nous faisons la queue au supermarché ou sur le canapé en fin de journée. Une personne âgée célébrant un anniversaire émouvant, un enfant seul le jour de son anniversaire, une scène de campagne qui sent le passé. Mettons un j'aime, écrivons un commentaire, partageons peut-être. Il s’avère alors que cette image n’a jamais existé. Il a été créé par l’intelligence artificielle. Et non, cela ne s’est pas produit parce que nous sommes naïfs.
Recherche publiée dans Les ordinateurs dans le comportement humain explique pourquoi les images générées par l'IA sur Facebook peuvent nous frapper si profondément. La réponse ne réside pas dans la technologie, mais dans la psychologie. Et cela concerne tout le monde.
Pourquoi l’imagerie de l’IA contourne la pensée critique
L'étude a été menée par Márk Miskolczi, chercheur à Université Corvinus de Budapestqui a décidé de s’intéresser moins aux deepfakes spectaculaires et davantage à ce que nous rencontrons quotidiennement sur les réseaux sociaux. Pas la grande désinformation politique, mais le clickbait émotionnel quotidien.
Selon Miskolczi, la question n’est pas de savoir si une image est techniquement parfaite. Beaucoup ne le sont pas du tout. Des mains avec trop de doigts, des visages étrangement lisses, des détails qui ne collent pas. Pourtant ils fonctionnent. Ils fonctionnent parce qu’ils racontent des histoires émotionnelles simples, immédiates, rassurantes ou déchirantes. Et lorsqu’une histoire nous touche, le cerveau cesse d’être un détective.
Facebook est de plus en plus peuplé d'images de synthèse produites en masse par des pages qui semblent inoffensives, mais qui font en réalité partie de véritables fermes de contenu, des « usines à contenu » qui ont pour seul but de générer des interactions. J'aime, commente, partage. Chaque réaction vaut de la visibilité et donc de l’argent.
Pour étudier le phénomène, le chercheur a observé directement les panneaux d'affichage publics, en sélectionnant les pages publiant fréquemment des images suspectes. Après une double vérification, manuelle et à l'aide d'outils de détection d'IA, 146 images certainement artificielles et plus de 9 000 commentaires rédigés par des personnes réelles ont été analysés.
Le fait le plus intéressant n’est pas combien de personnes ont été trompées, mais comment elles ont réagi. Des prières, des vœux, des messages de réconfort, des paroles pleines d'humanité adressées à des sujets qui n'existent pas. Il n’y a aucun cynisme dans ces réponses. Il y a de l'empathie.
Nostalgie et compassion : les émotions qui baissent la garde
Les images les plus efficaces sont celles qui parlent d’un passé idéalisé ou d’une fragilité évidente. Des couples âgés qui « sont ensemble depuis 60 ans », des enfants tristes, des personnes seules. Des scènes qui confirment ce qu'on ressent déjà : qu'autrefois tout était plus simple, qu'il faut consoler la douleur, que l'ignorer serait inhumain.
Ici entre en jeu un mécanisme très humain : si quelque chose entre en résonance avec nos valeurs, nous avons tendance à l’accepter sans trop de questions. C’est ce qu’on appelle le biais de confirmation. Si l’image renforce ce que nous croyons, pourquoi devrions-nous en douter ?
Ensuite, il y a l’ancrage émotionnel. La première émotion que nous ressentons devient le point de référence. Si une légende parle d’un enfant oublié le jour de son anniversaire, cette première tristesse nous saisit. À ce stade, toutes les erreurs visuelles disparaissent en arrière-plan.
Quand les commentaires font un mensonge « vrai ».
Un autre aspect clé est le rôle de la foule. Si une publication reçoit des milliers de likes et une avalanche de commentaires affectueux, nous avons tendance à lui faire confiance. C'est un réflexe automatique. Si tout le monde croit que c’est vrai, c’est probablement le cas.
Selon Miskolczi, les sections de commentaires deviennent ainsi une sorte de machine à crédibilité. Certains commentaires sont rédigés par des robots, programmés pour renforcer le récit. Mais celui qui arrive plus tard ne le sait pas. Il voit simplement une communauté participer et se rassembler. Non par naïveté, mais par besoin de connexion.
L’un des aspects les plus importants de l’étude concerne un préjugé tenace : l’idée selon laquelle ce sont principalement les personnes âgées ou peu instruites qui tombent dans le piège. Les données ne le confirment pas. Les raccourcis mentaux utilisés par le cerveau fonctionnent à tout âge et à tout niveau culturel, en particulier dans les contextes de défilement rapide typiques des médias sociaux.
La vulnérabilité n’est pas une question d’intelligence, mais de contexte émotionnel. Fatigue, solitude, précipitation, besoin de se sentir intégré à quelque chose. Tous les états que nous connaissons bien.
Le plus grand risque : perdre confiance en tout
Le problème, prévient le chercheur, n’est pas seulement une tromperie temporaire. C'est l'effet à long terme. Si nous devenons incapables de distinguer les histoires vraies de la fiction automatisée, nous risquons de douter de tout. Même des images authentiques, de vrais témoignages, de vraies histoires humaines.
Il n'y a pas lieu de paniquer. Une prise de conscience est nécessaire. Apprendre à ralentir, mieux observer, se demander pourquoi un contenu nous touche autant. Non pas pour devenir froid ou cynique, mais pour protéger précisément cette partie de nous qui réagit avec empathie. Car le paradoxe est le suivant : les images de l’IA fonctionnent si bien précisément parce que nous sommes humains. Et peut-être que comprendre comment nous sommes touchés est le premier pas pour ne plus être utilisé.
Source : Les ordinateurs dans le comportement humain
