La start-up américaine Anthropic, créatrice du célèbre chatbot Claude, accuse ouvertement trois des plus prometteuses entreprises d'IA chinoises d'avoir orchestré une campagne massive pour siphonner ses technologies. L'objectif ? Accélérer le développement de leurs propres systèmes en contournant des années de recherche et développement complexe.
Au cœur de cette controverse se trouve une pratique courante dans l'industrie appelée la distillation. En termes simples, elle consiste pour un modèle d'IA moins performant à apprendre et à s'entraîner en analysant les réponses générées par un modèle beaucoup plus avancé, copiant ainsi ses capacités. Bien que cette méthode soit souvent considérée comme une technique de formation légitime dans l'écosystème open source pour créer des versions plus petites et moins chères, elle devient hautement problématique sur le plan légal lorsqu'elle est utilisée pour extraire des données d'une technologie propriétaire.
Selon Anthropic, les entreprises DeepSeek, Moonshot AI et MiniMax ont mis en place des campagnes à l'échelle industrielle pour extraire de manière illicite les capacités de son modèle phare. Pour y parvenir, ces acteurs auraient utilisé des méthodes d'offuscation, violant ainsi directement les conditions d'utilisation de la firme américaine qui interdisent formellement la récolte furtive de données à des fins de distillation, ainsi que l'utilisation de ses technologies sur le territoire chinois.
Le palmarès des accusés - Les statistiques clés
- 24 000: Le nombre de comptes frauduleux créés de toutes pièces pour interagir avec le modèle Claude.
- 16 millions: Le volume colossal d'échanges générés par ces comptes pour nourrir les modèles concurrents.
Dans le détail, l'intensité de l'attaque varie considérablement selon les entreprises visées:
- MiniMax a mené la charge la plus lourde avec 13 millions d'échanges ciblant spécifiquement le codage agentique, l'utilisation d'outils et l'orchestration. Anthropic a même observé que l'entreprise a redirigé près de 50% de son trafic pour siphonner les capacités du modèle Claude le plus récent dès son lancement.
- Moonshot AI suit avec plus de 3,4 millions d'échanges, se concentrant sur le raisonnement agentique, l'analyse de données, le développement d'agents informatiques et la vision par ordinateur. Moonshot a d'ailleurs sorti le mois dernier son nouveau modèle open source, Kimi K2.5.
- DeepSeek, bien qu'impliqué dans un volume moindre avec plus de 150 000 échanges, ciblait la logique fondamentale et les capacités de raisonnement. Plus inquiétant, il est accusé d'avoir utilisé Claude pour générer des alternatives capables de contourner la censure sur des questions politiquement sensibles concernant l'autoritarisme, le parti ou les dissidents.
Au-delà du droit d'auteur - Sécurité et géopolitique
Si OpenAI (qui a accusé DeepSeek de pratiques similaires dans un mémo adressé au congrès américain la semaine dernière) et Anthropic montent au créneau, ce n'est pas uniquement pour des questions de concurrence déloyale. Les deux géants américains pointent du doigt un risque pour la sécurité nationale. Les entreprises locales intègrent des garde-fous dans leurs modèles pour les empêcher de développer des armes biologiques ou d'être utilisés à des fins de surveillance massive. Lors du processus de distillation, ces barrières de sécurité sont souvent supprimées. Anthropic avertit que des gouvernements autoritaires pourraient exploiter ces modèles distillés et dépourvus de protection pour des cyberattaques offensives, de la désinformation à grande échelle ou de la surveillance.
Ce constat relance le débat politique sur l'exportation des puces électroniques. Le mois dernier, l'administration Trump a autorisé l'exportation de puces IA avancées (comme la H200 de Nvidia) vers la Chine. Pour Anthropic, l'échelle impressionnante de cette extraction prouve que ce pays dispose d'un accès à des puces avancées, ce qui renforce la nécessité de contrôles stricts à l'exportation. Le succès fulgurant des modèles chinois repose en grande partie sur ce vol technologique.
Le paradoxe d'Anthropic - Accusateur et accusé
Il convient toutefois de replacer ces accusations dans le contexte juridique global de l'IA. Alors qu'Anthropic, aujourd'hui valorisée à 380 milliards de dollars, s'érige en victime, l'entreprise est elle-même embourbée dans de vastes poursuites judiciaires. Le fonctionnement même de l'IA générative nécessite d'analyser la quasi-totalité des textes disponibles sur Internet. En septembre dernier, Anthropic a dû accepter un accord historique de 1,5 milliard de dollars versé à un groupe d'auteurs et d'éditeurs, un juge ayant statué que la firme avait téléchargé et stocké illégalement des millions de livres protégés pour entraîner ses systèmes. Il s'agit du plus gros versement de l'histoire des États-Unis en matière de droits d'auteur. Des éditeurs de musique poursuivent actuellement l'entreprise pour des raisons similaires, tandis qu'OpenAI fait face aux plaintes du New York Times.
L'industrie, bâtie sur la collecte massive de données en ligne et l'approche open source, se retrouve face à ses propres contradictions. D'un côté, DeepSeek bouscule le marché avec des modèles comme le R1 (et le futur V4 attendu prochainement) qui égalent les performances américaines avec beaucoup moins de ressources financières. De l'autre, Anthropic, tout en menaçant de rompre ses liens avec le Pentagone pour refuser l'usage militaire autonome de son IA, appelle la communauté technologique et les décideurs politiques à bloquer de toute urgence cette concurrence par distillation.

Commentaires