Qui décide des actions d’une IA en zone de guerre ?

Qui décidera, demain, de ce qu’une IA « a le droit » de faire quand elle se retrouve au cœur d’une opération militaire : l’État qui commande, ou l’entreprise qui fournit le modèle ? La querelle publique entre le Pentagone et Anthropic n’a pas l’air d’un simple conflit contractuel. Elle ressemble plutôt à un signal faible d’une trajectoire plus longue, où des modèles généralistes deviennent une infrastructure stratégique, et où la définition même de « l’usage acceptable » pourrait basculer. Quand une technologie sert à écrire, coder, analyser, et aussi à accélérer des décisions à haute intensité, la question du contrôle cesse d’être abstraite. Elle devient un enjeu de souveraineté, de responsabilité et de tempo.
L’histoire se noue sur plusieurs fils qui se rejoignent. Il y a d’abord des critiques répétées contre Anthropic, accusée de limites éthiques jugées « idéologiques ». Puis la tension grimpe après des révélations médiatiques sur une utilisation supposée de sa technologie lors de l’enlèvement violent de Nicolás Maduro par l’armée américaine en janvier 2026, ce que l’entreprise conteste. Au même moment, le secrétaire à la Défense Pete Hegseth brandit un ultimatum : si les garde-fous ne sont pas assouplis avant 5h01 (heure de Washington) le vendredi 27 février, l’État pourrait invoquer le Defense Production Act, et/ou faire classer Anthropic comme risque pour la chaîne d’approvisionnement. La scène est inhabituelle : l’État menace à la fois de s’emparer d’une technologie et de la bannir.
Le moteur profond, c’est la transformation des grands modèles de langage en outils d’état-major. Claude, comme d’autres, automatise déjà de la rédaction, du raisonnement, de l’analyse. Dans l’univers défense-renseignement, l’attrait est évident : accélérer la production de synthèses, croiser des informations, préparer des options. La singularité, ici, tient au fait que le bras de fer se déroule en pleine lumière, ce que raconte la querelle IA et guerre : on ne voit plus seulement une adoption technologique, on voit une bataille pour définir qui fixe les limites, et à quel prix.
Le vocabulaire employé par le Pentagone est révélateur. L’exigence n’est pas seulement d’obtenir des performances, mais d’écarter toute « mise au point idéologique » qui, selon lui, empêcherait des réponses « objectivement vraies ». Derrière ce cadrage, on devine une volonté de neutraliser les politiques d’usage des fournisseurs, et de requalifier ces garde-fous en biais. Ce n’est pas qu’une dispute morale : c’est une manière de déplacer la frontière entre ce que le modèle refuse et ce que l’institution estime nécessaire. À partir du moment où « usage responsable » est redéfini comme « tout usage légal », l’entreprise perd la capacité de dire non sur des usages qu’elle juge trop risqués.
La diversité, l’équité, l’inclusion et l’idéologie sociale n’ont pas leur place au ministère de la Guerre ; nous ne devons donc pas employer des modèles d’IA qui intègrent un « réglage » idéologique interférant avec leur capacité à fournir des réponses objectivement vraies aux requêtes des utilisateurs.
Anthropic, de son côté, maintient deux lignes rouges : pas de surveillance de masse des citoyens américains, pas d’armes totalement autonomes capables de sélectionner et engager des cibles sans implication humaine. Le point important, c’est que l’entreprise ne se présente pas comme pacifiste au sens classique ; elle accepte de servir des usages défense, mais veut encadrer ceux qui lui semblent franchir un seuil. La contestation du Pentagone porte moins sur la lettre de ces interdictions que sur le principe : une institution militaire refuse d’être limitée par les règles internes d’un fournisseur. Dans un environnement secret par nature, le contrôle revient à celui qui écrit les clauses et qui peut auditer ce qui est réellement fait.
La menace de « risque pour la chaîne d’approvisionnement » joue alors comme une arme de gouvernance : elle ne vise pas seulement un contrat, elle peut contaminer tout l’écosystème de partenaires. C’est précisément ce que décrit le statut de risque fournisseur : après un message présidentiel ordonnant l’arrêt des produits Anthropic dans les agences fédérales, Pete Hegseth annonce une désignation qui interdirait à des contractants liés à l’armée toute activité commerciale avec l’entreprise. En pratique, c’est une forme de mise à l’index. Et l’ambiguïté est assumée : bannir, tout en rappelant que la technologie serait « essentielle ».
Cette contradiction apparente devient plus lisible si on la projette à quelques années. Un État peut chercher simultanément à discipliner un acteur privé et à s’assurer que l’écosystème comprenne le message : la dépendance est tolérée tant qu’elle est docile. Le Defense Production Act, brandi comme recours, ajoute une couche : il ne s’agit plus d’acheter un service, mais de s’octroyer un droit de réorientation. En filigrane, le Pentagone pose un problème de doctrine : si l’IA est une capacité militaire, peut-elle rester gouvernée par des politiques privées de « bon usage » ? Et si la réponse devient « non », la suite logique ressemble à une reprise de contrôle, directe ou indirecte.
Le cœur du désaccord se comprend mieux quand on regarde ce que l’armée pourrait faire, légalement, sans que le public en ait une visibilité immédiate. l’enjeu du bras de fer est précisément là : il n’existe pas de prohibition générale des systèmes entièrement autonomes, et une directive du DoD datée de 2023 permet, sous conditions et revue de hauts responsables, des systèmes capables de sélectionner et engager des cibles sans intervention humaine. Dans ce cadre, un usage « légal » peut rester extrêmement contestable moralement, et surtout difficile à contrôler de l’extérieur. Une fois intégré dans une chaîne opérationnelle classifiée, le modèle devient un élément du dispositif, pas un outil isolé.
La surveillance est l’autre versant, plus discret mais potentiellement plus massif. Il ne s’agit pas seulement d’écouter, mais de relier : détection automatisée de motifs, rapprochement d’identités entre bases, scores de risque, suivi continu. Le texte rappelle que la surveillance de citoyens américains est déjà possible sous certaines lois ; l’IA change l’échelle en rendant la fouille et l’interprétation quasi permanentes. Dans ce contexte, les lignes rouges d’Anthropic ont une portée symbolique, mais aussi une limite : elles ne couvrent pas « les communautés humaines » en général, seulement les citoyens américains. On voit poindre un futur où l’IA devient un multiplicateur de puissance, y compris pour des opérations dont les garde-fous démocratiques sont flous.
Au sommaire
Vers une norme de marché : « tout usage légal »
Si rien ne dévie la trajectoire, le plus probable est une normalisation par les contrats. Hegseth a déjà demandé que « tout usage légal » soit intégré dans les futurs marchés, dans un délai de 180 jours. La dynamique concurrentielle pousse dans le même sens : Palantir avait annoncé en juillet 2024 un partenariat pour amener Claude dans des opérations de renseignement et de défense, puis Anthropic a signé un contrat du DoD de 200 millions de dollars en juillet 2025, pendant que d’autres acteurs se repositionnaient. Google a modifié ses principes, OpenAI a retouché son texte de mission en retirant « safety » comme valeur centrale, et xAI aurait accepté le standard « lawful use ». Sur trois à cinq ans, la conséquence pourrait être une obsolescence de fait des politiques d’usage « maison » : elles survivraient sur le papier, mais deviendraient négociables sous pression.
Cette trajectoire a aussi une dimension géopolitique et industrielle : contrôler les modèles, c’est contrôler une capacité stratégique, au même titre que des composants critiques ou des infrastructures numériques. Les débats sur la coordination internationale, la gouvernance et la réduction des risques existent déjà dans l’écosystème, et la géopolitique de la super IA insiste sur l’idée qu’une course non coordonnée pousse les acteurs à renoncer à des engagements unilatéraux dès que des concurrents « foncent ». La phrase attribuée au responsable scientifique d’Anthropic dans Time va dans ce sens : si d’autres avancent sans freins, garder seul des contraintes devient coûteux. Autrement dit, la morale ne disparaît pas ; elle se transforme en variable de compétitivité.
Quand les garde-fous deviennent une coalition
Une autre trajectoire, moins évidente mais plausible, passerait par une convergence des lignes rouges entre grands fournisseurs, sous la pression interne. la lettre ouverte des salariés montre un mécanisme précis : empêcher une stratégie de division où chaque entreprise cède par peur que la voisine cède la première. Des employés de Google et d’OpenAI appellent leurs dirigeants à soutenir Anthropic et à refuser la surveillance de masse domestique et l’armement totalement autonome. À court terme, ce n’est pas une règle, juste un rapport de force. Mais à moyen terme, si plusieurs acteurs majeurs adoptent les mêmes interdits, le Pentagone perd la possibilité de « remplacer » facilement un fournisseur par un autre plus accommodant.
La portée réelle de cette coalition dépendra d’un détail souvent sous-estimé : la capacité des organisations à tenir dans le temps quand la pression monte, quand les contrats changent, quand les équipes se renouvellent. Le même article évoque des signes de sympathie : Sam Altman jugerait problématique de menacer le DPA, et un responsable scientifique de Google aurait écrit que la surveillance de masse viole le Quatrième Amendement et refroidit la liberté d’expression. On reste dans des déclarations, mais elles comptent parce qu’elles dessinent une norme sociale au sein des labos. Nous sommes d’accord sur un point : si la norme interne change, la norme externe finit souvent par suivre, même lentement.
Reste une troisième possibilité, plus brutale, où le conflit produit un effet inverse : un durcissement politique et une accélération de l’autonomisation étatique. La logique serait la suivante : si les fournisseurs privés imposent des limites jugées inacceptables, l’État investit, réquisitionne, ou bascule vers des acteurs alignés, et réduit sa dépendance. La désignation « supply-chain risk » fonctionne alors comme un avertissement à toute l’industrie, pas seulement à Anthropic. Dans ce futur, les garde-fous ne disparaissent pas ; ils changent d’endroit. Ils se déplacent des conditions d’utilisation d’un modèle vers des dispositifs de contrôle internes, classifiés, moins contestables publiquement. Le paradoxe, c’est qu’on gagnerait peut-être en cohérence opérationnelle, tout en perdant en transparence démocratique.
Le point de bascule : qui audite, qui signe, qui peut dire non
Le déclencheur qui décidera entre ces trajectoires ressemble moins à un débat philosophique qu’à un événement juridique ou technique très concret. Si le Defense Production Act est effectivement utilisé pour forcer un ajustement des politiques d’usage, le précédent sera lourd : l’État aura prouvé qu’il peut transformer une « limite éthique » en simple variable de conformité. À l’inverse, si les fournisseurs tiennent et si le Pentagone accepte des clauses explicites, l’industrie aura créé une jurisprudence contractuelle. Un autre signal se cache dans la politique de « responsible scaling » d’Anthropic, récemment mise à jour : le fait de renoncer à promettre de ne pas publier un modèle si des mitigations ne sont pas garanties à l’avance suggère une course où les engagements se réécrivent sous contrainte. La bascule, finalement, se jouera sur l’auditabilité : peut-on vérifier, même partiellement, l’usage réel du modèle en contexte secret ?
Les indicateurs à surveiller existent déjà, et ils disent quelle dynamique prend l’avantage. Le langage des prochains contrats du DoD, surtout si « tout usage légal » devient une formule standard, donnera une mesure du rapport de force. Le sort concret de l’étiquette « supply-chain risk » comptera autant que sa menace, parce qu’elle peut redessiner des partenariats au-delà du gouvernement fédéral. Les révisions de principes éthiques chez Google, OpenAI ou xAI montrent si l’alignement se fait vers plus de permissivité ou vers des interdits communs. Les signaux venus de l’intérieur des entreprises, comme les lettres ouvertes, indiquent si une résistance collective est tenable. Enfin, l’écart entre les discussions internationales sur l’IA militaire et l’absence des États-Unis à certains rendez-vous suggère un futur fait de normes concurrentes plutôt que d’accord global rapide.
À horizon de quelques années, l’issue la plus plausible ressemble à un compromis instable : des lignes rouges minimales, conservées parce qu’elles sont politiquement explosives (surveillance domestique de masse, armes totalement autonomes), mais un élargissement progressif de tout le reste au nom de « l’usage légal » et de l’urgence stratégique. La scène actuelle donne déjà une intuition : même quand une entreprise résiste, la demande de continuité opérationnelle pousse l’État à chercher un remplaçant, et le marché à proposer des solutions plus dociles. Dans ce monde, la gouvernance ne se résume pas à « pour ou contre l’IA militaire » ; elle devient une lutte permanente sur la granularité des interdits et sur la preuve de leur respect.
Cette histoire mérite d’être racontée jusqu’au bout pour comprendre ses enjeux et ses perspectives d’avenir : elle annonce une époque où la frontière entre politique publique et politique produit se brouille, où une clause contractuelle peut peser autant qu’un débat parlementaire, et où la vitesse d’adoption peut rendre les garde-fous obsolètes avant même d’être stabilisés. Rien n’est figé, et c’est justement cela qui rend le moment décisif. Dans votre domaine, quel signal faible voyez-vous aujourd’hui qui pourrait indiquer si la trajectoire va vers plus de contrôle étatique, plus d’autonomie des fournisseurs, ou une coalition de garde-fous qui tient vraiment ?
- L'empathie artificielle : les machines pourront-elles reconnaître nos émotions ?
- La singularité technologique : scénarios possibles et enjeux pour l'humanité
- Intelligence artificielle : sécurité et sûreté sont elles possibles ?
- Test de Turing : nos ordinateurs sont-ils vraiment Intelligents ?
- L'intelligence artificielle : catalyseur de la prochaine révolution industrielle ?
- L'Histoire de Moltbook


