Le compte à rebours est lancé et il résonne comme un glas pour les géants de la Silicon Valley. Depuis des années, les grandes entreprises technologiques nous servent le même discours rassurant. Elles s’autorégulent, elles développent des outils et elles contrôlent la situation. Pourtant, la réalité est sur le point de rattraper la fiction marketing. L'Inde, marché numérique colossal et incontournable, vient de siffler la fin de la récréation avec une brutalité législative qui force l'admiration autant qu'elle inquiète. D'ici le 20 février, les plateformes devront se plier à des règles draconiennes pour détecter, étiqueter et supprimer les contenus générés par l'intelligence artificielle. C’est un crash test grandeur nature qui s’annonce et il risque de révéler l'amateurisme actuel des solutions de modération.
L’enjeu dépasse largement les frontières indiennes. Avec un milliard d'internautes, dont une majorité de jeunes, ce pays n'est pas seulement un marché de croissance critique, c'est le laboratoire du futur d'Internet. Si les mécanismes de contrôle échouent là-bas, ils échoueront partout. Les nouvelles règles locales exigent des mesures techniques raisonnables et appropriées pour empêcher la diffusion de deepfakes illégaux et imposent l'intégration de métadonnées permanentes pour tracer l'origine synthétique des fichiers. Sur le papier, c’est une exigence logique. Dans la pratique, c’est une demande techniquement irréalisable à ce jour.
Le problème réside dans l’immaturité flagrante des outils actuels. Le système C2PA, souvent présenté comme le messie de la certification numérique et soutenu par Adobe, Microsoft ou Google, est censé attacher des informations invisibles aux fichiers pour prouver leur origine. Mais soyons réalistes, ce système est une passoire. Les métadonnées sont d'une fragilité déconcertante, disparaissant souvent lors d'un simple téléchargement ou d'une conversion de fichier. Pire encore, les modèles d'IA open-source et les applications génératrices de fausse pornographie (les fameuses "nudify apps") n’ont aucune intention d’adopter ces standards volontaires. Demander aux plateformes de labelliser tout contenu synthétique alors que la source elle-même ne joue pas le jeu revient à essayer d'écoper l'océan avec une cuillère.
L'hypocrisie des plateformes est ici mise à nu. Des acteurs comme Meta et Google utilisent déjà le C2PA, mais l'efficacité est risible. Les étiquettes sont discrètes, voire invisibles et une quantité massive de contenus synthétiques passe entre les mailles du filet. Quant à X, qui compte l'Inde comme son troisième plus grand marché, l’absence quasi totale de système d'étiquetage sérieux à quelques jours de l'échéance relève de la négligence coupable. Ils ont neuf jours pour bâtir ce qu'ils ont refusé de construire pendant des années.
Mais le volet le plus alarmant de cette directive concerne la modération temporelle. L'Inde exige désormais le retrait des contenus illégaux sous trois heures, remplaçant un délai déjà court de 36 heures. C'est une exigence qui, selon l'Internet Freedom Foundation, signe l'arrêt de mort de la modération humaine. Aucun effectif humain ne peut traiter des volumes de signalements à l'échelle d'un demi-milliard d'utilisateurs en trois heures. La conséquence est inévitable, les plateformes vont basculer vers une censure automatisée, aveugle et paranoïaque. Pour éviter les amendes, les algorithmes supprimeront au moindre doute, sacrifiant la liberté d'expression sur l'autel de la conformité.
Les législateurs indiens savent probablement que la technologie n'est pas prête. En exigeant l'impossible, ils forcent les entreprises technologiques à admettre leur impuissance ou à accélérer brutalement leur développement. C'est un pari risqué où les utilisateurs serviront de cobayes. Les promesses de "l'IA responsable" ne suffisent plus. Il est temps de voir ce que ces algorithmes ont vraiment dans le ventre, quitte à casser Internet au passage.

Commentaires