Au milieu des tensions croissantes concernant l’utilisation de l’IA militaire, le partenariat entre OpenAI et le Pentagone a déclenché un vif débat sur l’éthique, le timing et la pression gouvernementale.
Summary
Altman admet que le lancement a été précipité et mal encadré
Sam Altman a reconnu que OpenAI a mal géré la présentation publique de sa nouvelle collaboration avec le Pentagone. Dans un message de style interne publié sur X, il a écrit que l’entreprise « n’aurait pas dû précipiter » l’annonce de l’accord avec le Département de la Défense.
Altman a déclaré que la direction avait tenté d’apaiser une confrontation croissante avec le gouvernement américain. Cependant, il a reconnu que le résultat « semblait opportuniste et bâclé » et n’a pas réussi à transmettre l’intention de l’entreprise de limiter les utilisations nuisibles de sa technologie.
Le partenariat a été révélé vendredi, seulement quelques heures après que le Président Donald Trump a ordonné aux agences fédérales de cesser d’utiliser les systèmes d’Anthropic d’intelligence artificielle. De plus, l’annonce est survenue peu avant les opérations militaires américaines contre l’Iran, accentuant les critiques publiques sur le timing.
La réaction s’est rapidement propagée sur les réseaux sociaux, où de nombreux utilisateurs ont accusé OpenAI d’exploiter une répression politique contre un rival. De nombreux commentateurs ont affirmé supprimer leurs comptes ChatGPT et passer au modèle Claude d’Anthropic en signe de protestation.
Les modifications du contrat se concentrent sur la surveillance domestique et les limites du renseignement
En réponse, OpenAI travaille maintenant avec des responsables du Département de la Défense pour réviser l’accord. L’objectif, a déclaré Altman, est d’intégrer les lignes directrices éthiques d’OpenAI directement dans le langage juridiquement contraignant plutôt que de se fier à des engagements politiques informels.
Une nouvelle clause clé stipule que « le système IA ne doit pas être intentionnellement utilisé pour la surveillance domestique des personnes et ressortissants américains. » Cette interdiction explicite de la surveillance domestique vise à répondre aux préoccupations en matière de libertés civiles soulevées par les critiques des déploiements militaires de l’IA.
Les responsables de la Défense ont également confirmé que le système couvert par le contrat du département de la défense ne sera pas déployé par les services de renseignement américains tels que la NSA. Cependant, Altman a précisé que toute utilisation future par les agences de renseignement nécessiterait un contrat distinct et des négociations supplémentaires.
Cela dit, Altman a insisté sur le fait que le partenariat entre OpenAI et le Pentagone vise à restreindre les utilisations à haut risque tout en permettant des applications étroites liées à la défense qui respectent la loi américaine et les propres règles de sécurité de l’entreprise.
Le différend avec Anthropic établit le contexte politique plus large
L’accord OpenAI a émergé directement des négociations échouées entre Anthropic et le Département de la Défense. Anthropic avait exigé des garanties écrites que ses modèles d’IA ne soutiendraient pas l’espionnage domestique ni ne propulseraient des systèmes d’armes autonomes opérant sans supervision humaine significative.
Vendredi, le Secrétaire à la Défense Pete Hegseth a annoncé qu’Anthropic recevrait une désignation de menace pour la chaîne d’approvisionnement après l’échec des négociations. De plus, des responsables gouvernementaux auraient passé des mois à critiquer l’accent fort mis par Anthropic sur la sécurité de l’IA, arguant que cela limitait la flexibilité sur le champ de bataille.
La rupture est devenue publique lorsque des rapports ont révélé que le système Claude d’Anthropic avait été utilisé lors d’une opération militaire en janvier visant le président vénézuélien Nicolás Maduro. Anthropic n’a pas contesté ouvertement ce déploiement à l’époque, ce qui a ensuite alimenté des questions sur la cohérence de ses politiques internes.
Malgré l’effondrement ultérieur, Anthropic était auparavant devenue la première entreprise d’IA à déployer des modèles à l’intérieur de l’infrastructure classifiée sécurisée du Pentagone dans le cadre d’un accord finalisé l’année dernière. Cette histoire, selon les critiques, a rendu le passage soudain à une étiquette de menace pour la chaîne d’approvisionnement particulièrement frappant.
Altman s’oppose à la désignation de risque d’Anthropic
Altman a utilisé sa dernière déclaration de Sam Altman pour défendre Anthropic même si sa propre entreprise a formalisé son rôle avec le Pentagone. Il a déclaré avoir passé le week-end en conversations avec des hauts responsables, les pressant de reconsidérer la nouvelle classification.
« J’ai réitéré qu’Anthropic ne devrait pas être désignée comme un risque pour la chaîne d’approvisionnement, et que nous espérons que le Département de la Défense leur offre les mêmes conditions que celles auxquelles nous avons convenu, » a-t-il écrit. Cependant, les dirigeants du Pentagone n’ont pas encore signalé une volonté de revenir sur la désignation.
Anthropic a été fondée en 2021 par d’anciens chercheurs d’OpenAI qui sont partis après des différends internes sur la direction stratégique et les cas d’utilisation militaire acceptables. La startup a depuis construit sa marque sur le développement responsable de l’IA et des contrôles d’alignement plus stricts.
Cela dit, les autorités américaines n’ont pas publiquement répondu à l’appel d’Altman pour des conditions égales, ni expliqué en détail comment la nouvelle étiquette de chaîne d’approvisionnement d’Anthropic affectera les futurs achats d’IA par le gouvernement.
Implications pour les futurs contrats militaires d’IA
Le conflit souligne les enjeux politiques croissants autour des attributions de contrats du département de la défense en intelligence artificielle. Les entreprises font maintenant face à la pression de concilier opportunités commerciales avec risque de réputation et préoccupations concernant les systèmes autonomes létaux.
De plus, l’épisode met en lumière comment la formulation des contrats autour de la surveillance, du ciblage et de l’exclusion des agences de renseignement est devenue centrale dans les négociations. L’intervention d’Altman suggère que les grands laboratoires d’IA pourraient de plus en plus faire pression non seulement pour leurs propres accords mais aussi pour un traitement comparable de leurs rivaux.
Alors que les débats sur les normes de sécurité et la sécurité nationale s’intensifient, la résolution de ces différends façonnera probablement la manière dont le Pentagone structure les opportunités de contrats du département de la défense pour l’IA avancée, et quels modèles de gouvernance d’entreprise gagnent une influence à long terme à Washington.
En résumé, le lancement précipité d’OpenAI, le statut de risque contesté d’Anthropic, et les restrictions évolutives sur l’utilisation de la surveillance et du renseignement signalent une nouvelle phase dans la manière dont l’armée américaine aborde les partenariats en IA et la responsabilité.

