Le paysage mondial de l'intelligence artificielle traverse actuellement une phase de transformation accélérée, marquée par une compétition féroce entre les modèles propriétaires occidentaux et l'émergence fulgurante de solutions open-source venues d'Asie. C'est dans ce contexte effervescent que Moonshot AI, la startup chinoise soutenue par des investisseurs de premier plan tels qu'Alibaba et HongShan (anciennement Sequoia China), vient de frapper un grand coup. Elle a officiellement dévoilé aujourd'hui Kimi K2.5, un nouveau modèle open-source qui promet de changer les standards de la multimodalité et de l'assistance au développement informatique.
Ce qui distingue Kimi K2.5 de ses prédécesseurs et de nombre de ses concurrents, c'est son architecture intrinsèquement multimodale. Là où certains modèles traitent le texte et l'image via des modules séparés greffés les uns aux autres, Kimi K2.5 a été entraîné dès le départ sur un corpus immense de 15 000 milliards de tokens mixtes. Ces données d'entraînement fusionnent indistinctement le texte, l'image et la vidéo. Cette approche lui permet de posséder une compréhension native et fluide des différents médias. Moonshot AI affirme que cette capacité est essentielle non seulement pour la compréhension du monde, mais aussi pour l'orchestration complexe d'agents autonomes, ces "essaims" d'IA capables de collaborer pour résoudre des tâches multidimensionnelles.
Les performances annoncées par la startup ont de quoi faire trembler la Silicon Valley. Selon les benchmarks publiés, Kimi K2.5 ne se contente pas de jouer dans la cour des grands, il domine certaines des épreuves les plus exigeantes du secteur. Dans le domaine de la programmation, il surpasse Gemini 3 Pro de Google sur le benchmark SWE-Bench Verified. Plus impressionnant encore, sur SWE-Bench Multilingual, il affiche des scores supérieurs à ceux de poids lourds comme GPT 5.2 et Gemini 3 Pro. La compréhension vidéo n'est pas en reste, puisque le modèle chinois devance GPT 5.2 et Claude Opus 4.5 sur le test VideoMMMU, un standard mesurant la capacité d'une IA à raisonner sur des séquences vidéo complexes.
Pour concrétiser cette puissance théorique, Moonshot AI a lancé simultanément Kimi Code, un outil de développement open-source destiné à rivaliser directement avec Claude Code d'Anthropic ou le CLI de Gemini. L'innovation réside ici dans l'intégration de la multimodalité au cœur du processus de codage. Les développeurs ne sont plus limités aux invites textuelles. Ils peuvent désormais fournir au modèle des images ou des vidéos d'interfaces utilisateur et demander à Kimi Code de générer le code fonctionnel correspondant pour reproduire ce qu'il "voit".
Cette solution s'intègre parfaitement aux environnements de travail modernes. Les développeurs peuvent utiliser l'outil directement via leur terminal ou l'intégrer dans des éditeurs de code populaires tels que VSCode, Cursor et Zed. Cette stratégie vise à capturer une part du marché lucratif des assistants de codage, qui sont devenus des vecteurs de revenus importants pour les laboratoires d'IA. À titre d'exemple, Anthropic a récemment révélé que son outil Claude Code avait atteint un milliard de dollars de revenus récurrents annuels, un chiffre qui continue de croître à un rythme effréné.
La trajectoire financière de Moonshot AI reflète l'ambition de sa technologie. Fondée par Yang Zhilin, un ancien chercheur émérite de Google et Meta AI, l'entreprise attire les capitaux de manière massive. Après une levée de fonds en série B d'un milliard de dollars portant sa valorisation à 2,5 milliards, la startup a récemment sécurisé 500 millions supplémentaires, atteignant une valorisation de 4,3 milliards. Selon Bloomberg, elle cherche déjà à lever un nouveau tour de table sur la base d'une valorisation de 5 milliards de dollars.
Alors que Moonshot AI célèbre ce lancement, la concurrence nationale ne reste pas inactive. Deepseek, son rival direct sur le marché chinois, s'apprête à lancer le mois prochain un nouveau modèle particulièrement performant en codage. Avec Kimi K2.5, Moonshot AI rappelle toutefois que l'avenir de l'IA de pointe pourrait bien s'écrire en open-source.
