Je vais vous dire pourquoi tout le monde abandonne ChatGPT pour s'inscrire à Claude après avoir signé avec le Pentagone
ChatGPT perd des utilisateurs après l'accord entre OpenAI et le Pentagone : boom des téléchargements pour Claude après le rejet d'Anthropic
Il y a une histoire qui circule depuis quelques jours et qui, si on la raconte à quelqu'un qui ne suit pas de près la technologie, semble sortir d'un film. Une société d’IA dit non au Pentagone et est mise sur liste noire « risque pour la chaîne d’approvisionnement nationale »et en 48 heures, son chatbot est devenu l'application la plus téléchargée d'Amérique. Le rival, celui qui a signé le contrat avec le ministère de la Défense, se retrouve avec +775% d'avis une étoile et un PDG qui admet publiquement avoir tout communiqué de la pire des manières.
Bienvenue dans l’ère où la réputation d’une entreprise technologique est en jeu sur l’App Store. Mais commençons dans l'ordre. Anthropic, la société qui développe le chatbot Claude, a rejeté la demande du ministère américain de la Défense de pouvoir utiliser son intelligence artificielle sans les contraintes éthiques que l'entreprise s'était imposées : pas d'armes autonomes, pas de surveillance de masse des citoyens.
L’administration Trump a réagi en plaçant Anthropic sur une liste de fournisseurs considérés comme « un risque pour la chaîne d’approvisionnement nationale », mettant ainsi fin à plusieurs contrats fédéraux. Ergo : si vous ne nous donnez pas ce que nous voulons, nous vous mettrons sur liste noire. C’est exactement le genre de réponse que l’on attend de quelqu’un qu’on appelle encore le « Département de la Guerre », étant donné que l’administration Trump a également changé le nom, un détail qui ne fait aucune différence.
Entre-temps, OpenAI a signé cet accord avec le Pentagone. Avec quelques limitations inscrites dans le contrat, bien sûr, mais il l'a signé. Sam Altman a admis plus tard sur X que la communication avait été très mal gérée :
Nous n'aurions pas dû nous précipiter pour publier vendredi.
Mais le tort à la réputation était déjà fait.
Claude dépasse ChatGPT pour la première fois au classement
Ce qui s’est passé ensuite est techniquement mesurable et humainement assez amusant à raconter. Le 27 février 2026, les téléchargements de Claude aux États-Unis augmentent de 37 %. Le lendemain de 51%. Les désinstallations de ChatGPT montent en flèche à +295 % par rapport à la moyenne quotidienne.
Pour la toute première fois, Claude surpasse ChatGPT en termes de téléchargements quotidiens, arrive en premier sur l'App Store américain et y reste pendant des jours. Un message apparaît sur Reddit intitulé « Annuler et supprimer ChatGPT !!! » avec trente mille votes positifs. Un site a même été créé, CancelChatGPT.com, dédié exclusivement à guider les utilisateurs dans la suppression de leurs comptes, avec des instructions étape par étape, comme si la désinstallation d'une application était devenue une forme d'activisme civique accompagné de tutoriels. Et dans un certain sens, cela le devint, au moins pour quelques jours.
Les abonnés payants de Claude ont plus que doublé depuis le début de l'année, les nouveaux utilisateurs quotidiens ont triplé les volumes par rapport à novembre 2024. Avant le Super Bowl de février, Anthropic était classé 42e dans les charts de l'App Store américain. Puis vint la semaine de la polémique, et de la première place.
Le côté compliqué de l'histoire
Cela dit, la situation est beaucoup moins claire qu’il n’y paraît. Anthropic a un partenariat actif avec Palantir et Amazon Web Services, conclu en novembre 2024, qui accorde aux agences de renseignement et aux ministères de la défense américains l'accès aux modèles Claude. Certains experts ont émis des doutes sur le fait que Claude ait déjà été employé à la planification d'opérations militaires, malgré l'interdiction formelle de l'entreprise. En pratique : Anthropic ne vend pas directement au Pentagone, mais vend à ceux qui vendent au Pentagone. La différence est juridique et non morale.
Cela ne veut pas dire que le refus d'Anthropic n'était qu'une démarche marketing, puisque Dario Amodei a perdu de véritables contrats fédéraux, ce qui a un coût économique réel. Cependant, cela signifie que l’histoire de la « bonne » par rapport à la « mauvaise » intelligence artificielle est une simplification si commode qu’elle éveille les soupçons. Une fois qu’un instrument existe, son utilisation prévue n’est plus décidée par ceux qui l’ont construit.
Ce qui reste, une fois le bruit de fond supprimé, est un fait intéressant : les gens commencent à choisir leurs outils numériques également en fonction de qui les produit et de la manière dont ils se comportent. Il s’agit d’un changement de comportement réel, mesuré et rapide. Que ce soit motivé par des convictions profondes ou par la vague émotionnelle d’un week-end sur les réseaux sociaux, difficile de le dire pour l’instant. Probablement les deux, comme presque toujours.
Ce qui est sûr, c'est que sur le marché de l'intelligence artificielle, la réputation s'est transformée en une variable concurrentielle concrète : non plus seulement une valeur déclarée sur le site institutionnel, mais quelque chose qui déplace des millions de téléchargements en quarante-huit heures. Pour les entreprises technologiques habituées à tout convertir en mesures, à l’exception de la confiance, c’est le genre de problème qu’elles ne savaient pas devoir inscrire dans une feuille Excel. Et maintenant, ils l'ont là, beau et gros, dans la colonne des dégâts.
Source : Anthropique
