La guerre moderne ne se joue plus seulement sur les terrains d’opérations physiques, mais de plus en plus dans les bureaux feutrés de la Silicon Valley et les couloirs du Pentagone. Si l’intégration de l’intelligence artificielle dans l’appareil militaire américain est un projet de longue date, l’arrivée des modèles de langage de grande taille (LLM) comme ChatGPT ou Claude a radicalement accéléré les enjeux. Aujourd’hui, une fracture idéologique sépare les géants de la tech : d’un côté, ceux qui acceptent de devenir le bras armé de l’État, de l’autre, ceux qui érigent des lignes rouges éthiques au risque de tout perdre.
Table des matières

L’affrontement entre Dario Amodei et Pete Hegseth
Au centre de cette tempête se trouve Anthropic, la start-up fondée par d’anciens cadres d’OpenAI et créatrice de l’IA Claude. En 2025, l’entreprise avait pourtant entamé une collaboration prometteuse avec l’armée américaine via un contrat pilote de 200 millions de dollars. Cependant, les relations se sont brutalement dégradées sous l’impulsion de Pete Hegseth, le secrétaire à la Défense.
Dans un contexte de tensions géopolitiques accrues, notamment avec l’Iran, le Pentagone a posé un ultimatum à la fin du mois de février 2026. L’exigence était claire : Anthropic devait supprimer ou assouplir considérablement ses garde-fous éthiques. Le gouvernement américain souhaitait obtenir une liberté totale d’utilisation, notamment pour deux domaines critiques : la surveillance de masse domestique et le développement de systèmes d’armes létaux totalement autonomes.
Dario Amodei, PDG d’Anthropic, a opposé une fin de recevoir catégorique. Selon lui, les modèles d’intelligence artificielle actuels ne possèdent pas la fiabilité nécessaire pour prendre des décisions de vie ou de mort de manière autonome. De plus, il a rappelé que la surveillance de masse des citoyens est en contradiction frontale avec les valeurs démocratiques que son entreprise s’est engagée à protéger.
Les représailles du Pentagone et la montée d’OpenAI
La réponse du département de la Défense ne s’est pas fait attendre. Dans une manœuvre sans précédent pour une entreprise américaine, Anthropic a été désignée comme un risque pour la chaîne d’approvisionnement. Cette étiquette, habituellement réservée à des adversaires étrangers comme Huawei, interdit de fait à tout sous-traitant de la Défense d’utiliser les technologies d’Anthropic. Le Pentagone a même menacé d’invoquer le Defense Production Act, une loi de temps de guerre, pour forcer l’entreprise à livrer ses codes sources sans restrictions.
Ce retrait forcé a immédiatement profité aux concurrents. OpenAI, dirigé par Sam Altman, et xAI, l’entreprise d’Elon Musk, se sont empressés de se positionner comme des partenaires plus dociles. Le Pentagone a finalement jeté son dévolu sur OpenAI pour remplacer les services d’Anthropic dans ses réseaux classifiés.
Si OpenAI affirme maintenir certains principes, ses exigences sont nettement plus souples que celles d’Anthropic. L’accord stipule que les armes autonomes utilisant ChatGPT devront conserver un humain dans la boucle de décision pour les tirs mortels. Concernant la surveillance, OpenAI refuse l’espionnage de masse sur le territoire américain, mais laisse la porte ouverte à des usages plus intrusifs à l’étranger. Cette flexibilité, bien que pragmatique aux yeux du Pentagone, soulève de graves questions sur la dilution des principes éthiques face aux contrats militaires massifs.

Une Silicon Valley en pleine crise de conscience
Ce virage militariste ne fait pas l’unanimité au sein des centres de recherche. Une véritable fronde interne s’organise. Près de 960 développeurs et ingénieurs de Google et d’OpenAI ont signé une lettre ouverte pour dénoncer l’utilisation de leurs travaux à des fins de combat. Ces employés craignent que leurs innovations, initialement conçues pour aider l’humanité, ne deviennent les outils d’une nouvelle forme de répression ou de guerre automatisée.
L’histoire montre toutefois que les protestations des employés ont rarement infléchi la stratégie des géants de la tech face aux milliards de dollars du secteur de la Défense. Le précédent du Projet Maven chez Google, où la pression interne avait forcé l’entreprise à se retirer d’un programme de drones avant de revenir par la petite porte via d’autres contrats, illustre cette difficulté.
Vers une guerre froide de l’intelligence artificielle
Ce conflit marque le début d’une nouvelle ère : celle de la guerre froide technologique. Pour le gouvernement américain, la supériorité de l’IA est une question de survie nationale face aux avancées de la Chine. Dans cette logique, les considérations éthiques de start-ups comme Anthropic sont perçues comme des obstacles à la compétitivité militaire du pays.
La décision d’Anthropic est un pari risqué. En se coupant des budgets du Pentagone, l’entreprise se prive d’une manne financière colossale, mais elle parie sur une image de marque basée sur la sécurité et l’intégrité (l’IA constitutionnelle). À l’inverse, OpenAI semble accepter son rôle de pilier de l’infrastructure de défense américaine, quitte à perdre son image de laboratoire de recherche au profit d’une stature de contractant industriel.
En fin de compte, la question qui se pose est fondamentale : les entreprises qui créent l’IA la plus puissante de l’histoire peuvent-elles rester neutres, ou sont-elles condamnées à devenir les arsenaux des superpuissances du XXIe siècle ? Le cas Anthropic prouve que la résistance est possible, mais qu’elle a un prix politique et économique que peu sont prêts à payer.
📬 Si t’as aimé cet article, ma newsletter pourrait te plaire.
Chaque dimanche : mes articles, ma revue de presse perso, mes découvertes. 1 email/semaine. 0 spam.




