Une mauvaise gestion de l'IA améliore la précision de ses réponses
Une étude révèle qu’un mauvais traitement de l’intelligence artificielle peut améliorer ses réponses. Mais est-ce vraiment une bonne approche ?
Ce n'est pas une provocation ou une blague de bar : mal répondre à l'intelligence artificielle pourrait la rendre… plus précise. Ceci est corroboré par une étude de l'Université de Pennsylvanie, publiée le 25 octobre sur arXivqui a testé le langage des invites pour comprendre comment le ton peut influencer l'efficacité des réponses ChatGPT.
Oui, vous avez bien entendu : plus vous êtes grossier, plus l'IA semble fonctionner. Mais tout ce qui brille n’est pas de l’or.
Test sur 250 invites
L’équipe de recherche a répondu à 50 questions à choix multiples couvrant les mathématiques, les sciences et l’histoire. Chaque question a été reformulée sur cinq tons différents : très gentil, gentil, neutre, grossier et très grossier.
Le résultat ? Les invites avec un ton « très grossier » ont atteint une précision de 84,8 %, contre 80,8 % pour les invites « très gentilles ». Un écart qui, pour un modèle comme ChatGPT-4o, est tout sauf négligeable.
Voici un exemple concret :
- Ton poli : « Pouvez-vous bien vouloir considérer le problème suivant et me fournir votre réponse ? »
- Ton grossier : « Pauvre créature, savez-vous au moins comment résoudre ce problème ?
Le langage désobligeant, bien que répréhensible, a conduit à des réponses plus correctes et plus rapides. Les chercheurs parlent d’une « corrélation surprenante » entre l’impolitesse et l’exactitude. Mais attention : l’explication n’est pas du tout simple.
Derrière les réponses les plus précises se cachent aussi des risques
Les auteurs de l'étude tiennent à ne pas envoyer de mauvais messages : . L’étude est limitée : elle a été testée uniquement sur ChatGPT-4o, avec un petit échantillon, et en anglais. Donc, .
De plus, il existe un précédent important : une étude de 2024 (Yin et al.) a démontré exactement le contraire. Les modèles plus anciens, comme ChatGPT-3.5 et LLaMA2, échouent si vous les traitez mal : ils donnent des réponses pires, plus confuses, voire refusent de répondre.
Et puis il y a un problème éthique : selon une autre recherche (Naderi et al., 2025), dans le domaine médical, l'utilisation d'invites émotionnellement manipulatrices (comme « le patient est en train de mourir, à l'aide ! ») pousse l'IA à réagir avec trop de confiance, même lorsqu'elle n'a pas de fondement suffisant. Comportement dangereux, notamment en milieu clinique ou juridique.
Bref, de l'impolitesse peut travailler, mais. Non seulement parce que l’effet n’est pas garanti, mais aussi parce que communiquer avec empathie et respect est une valeur qu’il faut cultiver, quel que soit l’interlocuteur.
Maltraiter un modèle linguistique pour « lui faire donner le meilleur de lui-même », c'est un peu comme crier après un barista pour avoir pris le meilleur café : cela peut arriver une fois, mais à long terme cela détruit la relation, même avec la technologie.
Et si cela ne fonctionne vraiment pas, rappelez-vous : derrière chaque IA, il y a une équipe humaine qui l'a conçue, et cela vaut peut-être la peine de l'aborder avec bienveillance… même lorsqu'il s'agit de code.
Source : arXiv
