La désinformation générée par intelligence artificielle dans les zones de conflit est devenue un problème suffisamment grave pour que X décide enfin de passer à l'action. Depuis le 3 mars, les créateurs de contenu qui publient des vidéos de conflits armés produites avec cette technologie sans le signaler de manière explicite risquent de perdre l'accès au programme de partage des revenus publicitaires de la plateforme.
C'est Nikita Bier, directeur produit de X, qui a annoncé la mesure directement sur le réseau social. Le principe est clair. Toute première infraction entraîne une suspension de 90 jours du programme de monétisation. En cas de récidive après la levée de celle-ci, l'exclusion devient définitive. « En temps de guerre, il est essentiel que les gens aient accès à des informations authentiques sur le terrain. Avec les technologies IA d'aujourd'hui, il est devenu trivial de créer des contenus qui peuvent tromper », a justifié l'intéressé. Pour détecter les contenus concernés, X s'appuiera sur deux mécanismes complémentaires: des outils automatiques capables d'identifier les métadonnées caractéristiques des générateurs d'IA, et le système de vérification participatif Community Notes, qui permet à la communauté de signaler les contenus trompeurs.
Le programme de partage des revenus permet aux créateurs de monétiser leur audience en percevant une part des recettes publicitaires générées par leurs publications populaires. Conçu pour stimuler la production de contenu engageant, il a cependant été régulièrement critiqué pour avoir encouragé les dérives: sensationnalisme, clickbait, publications conçues pour provoquer l'indignation. Sa condition d'accès (être abonné payant de X) a également été pointée du doigt.
La mesure annoncée, si elle va dans le bon sens, reste toutefois d'une portée volontairement limitée. Elle ne s'applique qu'aux vidéos de conflits armés, pas aux contenus IA trompeurs en général. La désinformation politique générée de la même manière, les publicités mensongères dans l'économie des influenceurs ou les deepfakes hors contexte guerrier ne sont donc pas concernés par cette nouvelle règle. De même, les comptes non monétisés peuvent continuer à publier ce type de contenu sans risquer la moindre sanction financière.
Il faut aussi relever une subtilité dans le cadrage rhétorique choisi par X. Nikita Bier a justifié la mesure en invoquant les « temps de guerre », une formule quelque peu ambiguë au regard de la situation internationale actuelle. Les États-Unis, engagés dans plusieurs théâtres d'opérations, n'ont formellement déclaré la guerre à aucune nation depuis 1942. La notion de « conflit armé » reste donc ouverte à interprétation, ce qui pourrait compliquer l'application concrète de la politique.
Sur le plan technologique, le défi est réel. La qualité des vidéos générées par IA a progressé à une vitesse fulgurante et les contenus synthétiques sont désormais quasi indiscernables de vraies images pour la grande majorité des spectateurs. X appose déjà des filigranes sur les visuels produits par Grok, son propre chatbot, mais n'avait jusqu'ici jamais imposé aux utilisateurs de signaler les contenus IA tiers. La plateforme teste par ailleurs, selon Social Media Today, un système d'étiquetage volontaire permettant aux créateurs de marquer eux-mêmes leurs publications comme contenant des éléments synthétiques, sans calendrier de déploiement annoncé pour l'heure.
En somme, cette nouvelle politique constitue un premier pas, symbolique autant que pratique, dans la lutte contre la manipulation de l'information en période de crise. Mais face à l'ampleur du phénomène et à la rapidité des avancées technologiques, la question reste entière: une suspension de revenus publicitaires sera-t-elle suffisante pour freiner des acteurs malveillants déterminés à exploiter la confusion des conflits à des fins de propagande ?

Commentaires