Nous assistons actuellement à un bras de fer historique entre Anthropic, l'un des pionniers de l'intelligence artificielle, et le ministère américain de la Guerre. Au cœur de cette confrontation explosive se trouve une demande expresse de l'armée pour obtenir un accès illimité aux technologies de pointe développées par l'entreprise. Mais alors que l'ultimatum fixé par le Pentagone pour ce vendredi approche à grands pas, la résistance s'organise bien au-delà des seuls bureaux d'Anthropic. Une vague de solidarité inattendue traverse la Silicon Valley. Plus de trois cents employés de Google et une soixantaine de salariés d'OpenAI ont co-signé une lettre ouverte percutante. Leur message est sans équivoque, ils exhortent leurs propres dirigeants à soutenir Anthropic et à refuser catégoriquement cette appropriation unilatérale de l'IA par les forces armées.
La position d'Anthropic est extrêmement ferme et s'articule autour de refus éthiques fondamentaux. L'entreprise s'oppose farouchement à l'utilisation de son intelligence artificielle pour des programmes de surveillance de masse de la population sur le territoire national américain, ainsi que pour le développement d'armes entièrement autonomes. Les signataires de la lettre partagent cette vision et encouragent leurs employeurs respectifs à mettre de côté leurs rivalités commerciales traditionnelles pour faire front commun. Ils estiment qu'il est d'une importance capitale de maintenir les limites éthiques qu'Anthropic a eu le courage de tracer. Le texte met d'ailleurs en lumière la stratégie perçue du gouvernement, affirmant que les autorités tentent de diviser chaque entreprise en instillant la peur que l'autre ne finisse par céder la première. Selon ces employés engagés, cette tactique de division ne peut fonctionner que si l'opacité règne sur les intentions de chacun.
Bien que les hautes directions de Google et d'OpenAI n'aient pas encore formulé de réponse officielle à cette missive, de nombreuses prises de parole informelles laissent entrevoir une véritable sympathie pour le combat mené par Anthropic. Sam Altman, le PDG d'OpenAI, a par exemple déclaré lors d'une interview sur CNBC qu'il ne pensait pas, à titre personnel, que le Pentagone devrait brandir la menace du Defense Production Act (loi sur la production de défense) contre ces entités technologiques. Un porte-parole d'OpenAI a d'ailleurs confirmé que la société partageait pleinement les lignes rouges d'Anthropic concernant les armes autonomes et la surveillance. Du côté de Google DeepMind, si la firme reste officiellement muette, son scientifique en chef Jeff Dean a exprimé son opposition personnelle à la surveillance gouvernementale. Sur le réseau social X, il a fermement rappelé que la surveillance de masse violait le quatrième amendement et avait un effet dissuasif sur la liberté d'expression, précisant que de tels systèmes sont intrinsèquement vulnérables aux abus politiques et discriminatoires.
Ce contexte est d'autant plus tendu qu'un récent rapport d'Axios révèle que l'armée américaine utilise déjà actuellement des modèles comme Grok de X, Gemini de Google et ChatGPT d'OpenAI pour des tâches non classifiées. Le Pentagone négocie désormais ardemment pour intégrer ces technologies dans des opérations classifiées. Bien qu'Anthropic maintienne un partenariat existant avec la défense, le secrétaire en charge Pete Hegseth a lancé un avertissement sévère au PDG Dario Amodei. Si l'entreprise ne cède pas, le gouvernement la déclarera comme un risque pour la chaîne d'approvisionnement, ou invoquera le Defense Production Act pour la forcer à se plier aux exigences militaires.
Face à cette pression, Amodei a souligné l'ironie absolue de la situation dans un communiqué publié jeudi. Il a pointé du doigt la nature fondamentalement contradictoire de ces menaces gouvernementales, notant qu'il est tout simplement illogique de qualifier leur IA de risque pour la sécurité d'un côté, tout en considérant leur modèle Claude comme essentiel à la sécurité nationale de l'autre. Quoi qu'il en soit, la position d'Anthropic reste inébranlable. Comme l'a conclu l'entreprise, elle ne peut, en son âme et conscience, accéder à ces requêtes militaires.

Commentaires