Les outils de codage pilotés par l'intelligence artificielle deviennent de plus en plus puissants et omniprésents. La création de logiciels est censée devenir extrêmement bon marché. C'est du moins la théorie dominante à l'heure actuelle. Cette dynamique laisserait peu de marge de manœuvre et de place aux entreprises de logiciels traditionnelles. Comme l'a souligné un récent rapport d'analystes, le concept de "vibe coding" (cette faculté à générer du code presque intuitivement par de simples requêtes textuelles) permettrait aux toutes jeunes startups de reproduire facilement les fonctionnalités des plateformes cloud les plus complexes.
Face à cette révolution annoncée, les cris d'alarme et les déclarations prophétiques sur la fin inévitable des ingénieurs se multiplient. En toute logique, les projets open source, qui sont limités historiquement par un manque cruel de ressources financières et humaines, devraient être les tout premiers à bénéficier de cette nouvelle période d'abondance algorithmique pour combler leurs lacunes. Pourtant, sur le terrain, cette équation simpliste ne fonctionne pas vraiment. L'impact réel de l'IA sur l'univers du logiciel libre s'avère beaucoup plus nuancé et épineux qu'il n'y paraît.
Selon de nombreux experts du secteur technologique, ces assistants virtuels ont causé tout autant de problèmes qu'ils n'en ont résolus. Leur nature particulièrement accessible a provoqué un véritable raz-de-marée de code de très mauvaise qualité qui menace aujourd'hui de submerger les communautés. S'il est devenu plus simple que jamais de développer et d'ajouter de nouvelles fonctionnalités, leur maintenance dans le temps reste un défi colossal qui risque de fragmenter encore davantage les écosystèmes logiciels existants.
De manière très générale, les projets dotés de bases de code ouvertes constatent une baisse particulièrement inquiétante de la qualité moyenne des soumissions externes, un effet direct de la baisse des barrières à l'entrée. Jean-Baptiste Kempf, le PDG de l'organisation VideoLan qui supervise le célèbre lecteur multimédia VLC, a récemment déclaré que, pour les contributeurs novices s'attaquant à leur base de code, la qualité des requêtes d'intégration était tout simplement catastrophique. Bien qu'il reste foncièrement optimiste quant au potentiel de l'IA sur le long terme, il précise avec insistance que ces outils ne sont réellement pertinents que lorsqu'ils sont manipulés par des développeurs très expérimentés. L'IA facilite par exemple le portage de VLC vers un nouveau système d'exploitation pour un profil senior, mais devient rapidement incontrôlable entre les mains d'une personne qui ne maîtrise pas l'architecture globale.
Des difficultés tout à fait similaires ont frappé Blender, le célèbre logiciel de modélisation 3D maintenu par une communauté active depuis 2002. Son PDG, Francesco Siddi, a remarqué que les contributions assistées par les grands modèles de langage faisaient surtout perdre un temps précieux aux relecteurs humains, affectant gravement leur motivation quotidienne. Bien que Blender élabore encore sa politique officielle sur le sujet, ces outils ne sont ni exigés ni recommandés. Face à ce déluge ingérable, les créateurs de logiciels libres doivent imaginer de nouvelles barrières de sécurité.
Le développeur Mitchell Hashimoto a par exemple lancé un système limitant les contributions sur la plateforme GitHub aux seuls utilisateurs parrainés, fermant de fait la politique historique de la porte ouverte. Comme il l'explique si bien, l'IA a tout simplement détruit la barrière naturelle à l'entrée qui permettait aux projets open source d'accorder leur confiance par défaut. Le programme open source de transfert de données cURL a même dû suspendre son système de chasse aux bugs de sécurité, son créateur Daniel Stenberg se disant totalement submergé par une bouillie générée par l'IA. Auparavant, signaler une faille demandait un effort intellectuel qui filtrait naturellement les requêtes, une friction salvatrice qui a aujourd'hui totalement disparu, laissant les vannes grandes ouvertes.
Au cœur de cette crise se trouve une divergence de priorités. Les grandes entreprises valorisent avant tout la production rapide de nouveaux produits pour obtenir des promotions, tandis que l'open source privilégie la résilience et la stabilité à long terme. L'IA percute une tendance de fond. Nous avons des bases de code dont la complexité et les interdépendances croissent de manière exponentielle, face à un nombre de mainteneurs qui peine lourdement à suivre le rythme. Avec cette technologie, ces deux variables se sont accélérées simultanément.
C'est une nouvelle façon d'envisager l'impact de l'IA sur l'ingénierie, avec des implications alarmantes pour l'industrie. Si l'ingénierie consistait uniquement à produire du code fonctionnel à la chaîne, l'intelligence artificielle rendrait la tâche redoutablement aisée. Mais si ce métier consiste avant tout à gérer la complexité logicielle au fil du temps, ces nouveaux outils pourraient bien empirer la situation globale en exigeant une planification immense. L'IA n'augmente pas le nombre de mainteneurs actifs et compétents. Elle décuple simplement les capacités des meilleurs, laissant les défis fondamentaux intacts. La mort programmée de l'ingénieur logiciel est donc, sans aucun doute, largement prématurée.

Commentaires