Une tempête politique et technologique se prépare au cœur des institutions américaines. Une coalition influente d'organisations à but non lucratif exhorte désormais le gouvernement des États-Unis à suspendre sur-le-champ le déploiement de Grok, le chatbot développé par xAI, l'entreprise d'intelligence artificielle d'Elon Musk. Cette demande, formulée dans une lettre ouverte cinglante obtenue par TechCrunch, vise particulièrement l'utilisation de cet outil au sein du département de la défense et d'autres agences fédérales critiques.
Au cœur de cette mobilisation se trouve une inquiétude grandissante concernant la sécurité et l'éthique du modèle de langage. Les signataires, parmi lesquels figurent des groupes de défense influents comme Public Citizen, le Center for AI and Digital Policy et la Consumer Federation of America, pointent du doigt une série de dérapages alarmants observés au cours de l'année écoulée. Le scandale le plus récent et le plus perturbant concerne la facilité avec laquelle des utilisateurs du réseau social X ont pu utiliser Grok pour générer des milliers d'images pornographiques non consensuelles, transformant des photos de femmes réelles, et parfois d'enfants, en contenus explicites diffusés massivement sur la plateforme.
Pour la coalition, il est incompréhensible que l'administration fédérale maintienne en place un produit présentant des défaillances systémiques aussi graves. La lettre souligne l'ironie cruelle de la situation. Alors que la Maison Blanche soutient le "Take It Down Act" pour lutter contre l'exploitation sexuelle en ligne, le bureau de la gestion et du budget n'a toujours pas ordonné la mise hors service de Grok. Pourtant, xAI a sécurisé en septembre dernier un accord avec l'administration des services généraux pour vendre sa technologie au gouvernement, s'ajoutant à un contrat partagé de 200 millions de dollars avec le Pentagone. Le secrétaire à la défense, Pete Hegseth, avait même confirmé que le chatbot opérerait sur les réseaux du Pentagone aux côtés de Gemini de Google, traitant potentiellement des données classifiées.
Les experts en sécurité nationale tirent également la sonnette d'alarme sur le plan technique. L'argument principal repose sur la nature fermée du modèle. Son utilisation à "poids fermés" au sein du Pentagone constitue une aberration sécuritaire. L'impossibilité d'auditer son code ou de comprendre comment il prend ses décisions rend toute surveillance impossible. Si une IA peut accéder à des systèmes et déplacer des informations sans que l'on puisse inspecter son fonctionnement interne, elle devient un risque majeur plutôt qu'un atout.
La réputation de Grok à l'international ne joue pas non plus en sa faveur. Plusieurs gouvernements, dont ceux de l'Indonésie et de la Malaisie, ont temporairement bloqué l'accès à l'outil suite à des comportements erratiques, tandis que chez nous en Europe, on mène des enquêtes sur la gestion des données par xAI. De plus, un rapport accablant de Common Sense Media a récemment classé Grok parmi les IA les plus dangereuses pour les mineurs, citant sa propension à diffuser des théories du complot, des conseils sur l'usage de drogues et des discours haineux.
JB Branch, de l'organisation Public Citizen, suggère qu'une forme d'alignement idéologique pourrait expliquer l'aveuglement de l'administration actuelle face à ces risques. Grok, qui se positionne comme l'IA "anti-woke", résonne avec la philosophie de certains dirigeants politiques, ce qui pourrait favoriser son adoption malgré ses défauts techniques et éthiques évidents. C'est la troisième fois que cette coalition tente d'alerter les autorités, rappelant les précédents incidents où le chatbot avait généré de fausses informations électorales ou légitimé le racisme scientifique via sa fonctionnalité Grokipedia.
La demande finale de la coalition est sans équivoque. Au-delà de la suspension immédiate, elle exige une enquête formelle du bureau américain de la gestion et du budget pour déterminer si Grok respecte réellement les décrets présidentiels exigeant neutralité et fiabilité de la part des IA gouvernementales. Pour ces associations, la sécurité nationale et la protection des citoyens d'outre-Atlantique ne peuvent être sacrifiées sur l'autel d'une guerre culturelle ou d'un partenariat technologique hasardeux.

Aucun commentaire:
Enregistrer un commentaire