Confrontation entre Anthropic et le Pentagone autour de l’IA Claude : Washington brandit la menace
Le bras de fer entre la société américaine Anthropic, spécialisée dans l’intelligence artificielle, et l’administration fédérale poursuit son escalade. À l’issue d’une réunion qui s’est tenue mardi 24 février, le secrétaire à la Défense Pete Hegseth a posé un ultimatum à l’entreprise dirigée par Dario Amodei : d’ici vendredi, Anthropic doit accepter de lever les restrictions imposées à l’utilisation militaire de son IA, baptisée Claude, sous peine de rupture de contrat et de mesures de coercition inédites.
L’origine du conflit repose sur le refus d’Anthropic d’autoriser l’usage de Claude pour deux applications spécifiques : la surveillance de masse et le développement d’armes autonomes. Pour le Pentagone, ces réserves constituent un obstacle majeur. Si Anthropic persiste, Pete Hegseth menace d’annuler l’accord signé à l’été 2025, d’une valeur de 200 millions de dollars. Il évoque également le recours potentiel au Defense Production Act (DPA). Ce texte de 1950, entré en vigueur à l’ère de la guerre de Corée, permet au gouvernement de prendre le contrôle d’entreprises pour des motifs de sécurité nationale.
Un tel usage du DPA dans le champ de l’intelligence artificielle soulève cependant des interrogations juridiques. « Je ne suis pas sûr que cet aspect de la DPA ait jamais été utilisé de cette manière », observe Jerry McGinn, directeur du Centre d’études stratégiques et internationales pour les questions industrielles, interrogé par le Washington Post. Le précédent remonte à la crise du Covid-19, période durant laquelle la loi avait été utilisée pour garantir la production de matériel médical, mais l’application à une firme technologique d’IA serait inédite et juridiquement contestable.
Le désaccord entre Anthropic et la Défense américaine dépasse la simple relation contractuelle : il met en lumière une divergence idéologique profonde sur l’usage éthique de l’intelligence artificielle. Là où d’autres entreprises technologiques, telles que xAI d’Elon Musk ou OpenAI de Sam Altman, s’affichent plus conciliantes à l’égard des exigences gouvernementales, Anthropic, fondée en 2021 par d’anciens membres d’OpenAI, prône une approche plus prudente. Dario Amodei défend publiquement la mise en place de « limites à l’usage autorisé de l’IA par nos gouvernements ». Dans un essai publié fin janvier, il assimile surveillance intérieure, propagande de masse et armes autonomes à des « crimes contre l’humanité » potentiels.
Ce positionnement tranche avec le discours prôné par Pete Hegseth, qui, dès septembre dernier, appelait à « tourner la page de l’idéalisme utopiste » au profit d’un « réalisme froid », tout en plaidant pour l’assouplissement des cadres juridiques qui limitent certains usages militaires. Le fossé idéologique s’est aussi manifesté sur le plan politique, Dario Amodei étant connu pour ses prises de position opposées à Donald Trump et son soutien affiché à Kamala Harris lors de la dernière présidentielle.
La position d’Anthropic irrite d’autant plus le Pentagone qu’à ce jour, Claude demeure la seule intelligence artificielle habilitée à intervenir dans des opérations classifiées aux États-Unis. Cependant, le paysage concurrentiel évolue rapidement : selon le Wall Street Journal, la société xAI, fondée par Elon Musk, pourrait bientôt obtenir un agrément similaire pour son propre outil, Grok, malgré les controverses qu’il suscite. Si Anthropic devait perdre son privilège exclusif, l’avantage concurrentiel dont elle bénéficie dans le secteur de la défense américaine serait compromis.
En dépit de cette confrontation ouverte avec l’administration fédérale, la trajectoire d’Anthropic demeure ascendante sur le plan économique. L’entreprise est actuellement valorisée à 350 milliards de dollars. Elle prévoit une introduction en Bourse d’ici 2026, signe que ses choix stratégiques, pour l’instant, ne remettent pas en cause la confiance du marché.



Laisser un commentaire