Alors que l'année 2025 touchait à sa fin, le patron d'Instagram, Adam Mosseri, clôturait l'exercice par un discours profondément alarmiste sur l'intelligence artificielle. Il se lamentait du fait que l'authenticité devenait infiniment reproductible. Tout ce qui donnait de l'importance aux créateurs de contenu, cette capacité à être vrai, à tisser des liens et à posséder une voix impossible à falsifier, est désormais à la portée de n'importe qui disposant des bons outils de génération. Pourtant, il insistait sur un point important. Le public réclame toujours un contenu qui semble authentique. Sa grande solution face à cette crise existentielle ? Trouver un moyen d'étiqueter techniquement les médias réels. Il imaginait un monde où les fabricants d'appareils photo signeraient cryptographiquement les images dès leur capture, créant ainsi une chaîne de traçabilité infaillible. Le résultat serait, selon lui, un système digne de confiance pour déterminer avec certitude ce qui n'a pas été généré par une machine.
La bonne nouvelle, c'est que cette solution miracle existe déjà dans la réalité. Elle s'appelle la C2PA. La mauvaise nouvelle, c'est qu'Instagram l'utilise déjà depuis un certain temps et que cela ne sert absolument à rien pour résoudre le problème de fond. Pire encore, cette initiative ressemble de plus en plus à un simple écran de fumée censé remplacer de véritables actions courageuses, pendant que le réseau social de Meta et ses concurrents appuient sur l'accélérateur pour développer et imposer leurs propres outils d'IA générative.
L'intelligence artificielle est devenue redoutablement efficace pour imiter la réalité, menaçant la culture même et les modèles économiques que les plateformes sociales ont mis des années à construire autour de leurs influenceurs. Les algorithmes peuvent reproduire des tendances virales, générer des séances photo entières, inventer des personnalités de toutes pièces, et dupliquer à l'infini ce contenu formaté et insipide qui inonde déjà nos écrans. Face à cette déferlante, les créateurs humains tentent de riposter en adoptant des esthétiques plus brutes et imparfaites pour prouver leur humanité. Le problème, c'est que l'IA sait très bien imiter le grain et l'imperfection, elle aussi. Plus inquiétant encore, cette technologie est de plus en plus utilisée pour propager à une vitesse fulgurante de la désinformation sur des événements majeurs, qu'il s'agisse de manifestations politiques tendues ou de tragédies humaines dramatiques.
Depuis quelques années, certains des plus grands noms de l'industrie font semblant de combattre ce fléau en adoptant un système appelé Content Credentials, soutenu par la C2PA. Il s'agit d'un standard fondé en 2021 par un consortium comprenant notamment Adobe, Intel, Microsoft et la BBC. Comme l'a suggéré Mosseri, la C2PA s'attaque aux deepfakes non pas en étiquetant directement ce qui est faux, mais en authentifiant ce qui ne l'est pas. Le système attache des métadonnées invisibles aux fichiers lors de leur création ou de leur modification, permettant théoriquement de vérifier qui a fait quoi, quand, et si une intelligence artificielle est intervenue. Meta a même rejoint ce comité directeur avec fracas en septembre 2024, affirmant avec emphase qu'il était vital de maintenir la santé de l'écosystème numérique.
La réalité du terrain est pourtant bien plus sombre. Bien que la norme bénéficie du soutien de mastodontes comme Google, OpenAI et TikTok, son application pratique est un échec qui ne protège personne contre la bouillie numérique ou les deepfakes trompeurs. Même si un contenu synthétique intègre ces fameuses métadonnées, on s'attend encore à ce que l'internaute moyen parte lui-même à la chasse aux indices visuels, alors qu'une écrasante majorité du public ignore jusqu'à l'existence de cette norme. En fin de compte, les fournisseurs d'IA utilisent ce standard de transparence pour se dédouaner du chaos social qu'ils créent, tout en continuant à faire tourner à plein régime leurs propres usines à fausses images.
Les solutions basées sur la provenance des fichiers comportent des failles techniques béantes. Pour que cela fonctionne, il faudrait que chaque maillon de la chaîne de création et de diffusion joue le jeu de manière stricte, une utopie absolue. Les fabricants d'appareils photo n'adoptent cette norme que très lentement, et uniquement sur leurs modèles de pointe les plus récents. De plus, les métadonnées de provenance sont d'une fragilité déconcertante. OpenAI lui-même a admis qu'elles pouvaient être facilement supprimées, que ce soit par accident ou de manière totalement intentionnelle. Sur des plateformes comme LinkedIn ou TikTok, le marquage automatisé des contenus échoue régulièrement. Sur YouTube ou Instagram, les étiquettes signalant l'usage de l'IA sont souvent minuscules, incohérentes, voire totalement absentes lorsque l'on passe de l'application mobile à la version web classique.
L'absence flagrante du réseau X dans cette initiative démontre parfaitement pourquoi l'industrie ne résoudra pas la crise de l'authenticité de sitôt. Bien que l'ancien Twitter ait été un membre fondateur, l'entreprise s'est retirée après son rachat par Elon Musk. Aujourd'hui, X est un espace gigantesque où l'information circule à la vitesse de l'éclair, mais qui n'affiche aucune volonté concrète de protéger ses millions d'utilisateurs quotidiens contre les images falsifiées. Cette plateforme reste une source d'information de premier plan pour les journalistes et le public, ce qui facilite grandement la propagation de la désinformation vers le reste d'internet, sans aucune garantie sur la véracité de ce qui est partagé.
L'hypocrisie des fournisseurs d'intelligence artificielle est donc totale. Ils veulent le beurre et l'argent du beurre. D'un côté, ils dirigent de prestigieux comités pour l'authenticité numérique, de l'autre, ils fuient toute responsabilité face à leurs machines à désinformation, tout simplement parce que ces algorithmes sont extrêmement lucratifs. OpenAI génère d'énormes revenus en vendant des abonnements pour contourner les limites de génération de ses modèles. Meta prépare des fonctionnalités premium basées sur l'IA et inonde ses propres réseaux de contenus entièrement synthétiques. Google promet publiquement de nettoyer YouTube de la bouillie générée par ordinateur tout en incitant agressivement les vidéastes à utiliser ses propres modèles algorithmiques durant le montage.
Comme le soulignent plusieurs experts en cybersécurité, les réseaux sociaux ont en réalité adopté les deepfakes avec un enthousiasme non dissimulé. Pourquoi un tel paradoxe ? Parce que ce contenu artificiel, souvent bizarre, clivant ou provocateur, génère un engagement massif. Il retient l'attention des utilisateurs, suscite la controverse et permet in fine de vendre beaucoup plus d'espaces publicitaires. Les mesures préventives claironnées dans les communiqués de presse ne sont qu'une façade sophistiquée destinée à rassurer le grand public et à éloigner les législateurs.
Les efforts actuels pour prouver de manière irréfutable l'authenticité de ce que nous voyons en ligne semblent voués à l'échec. Le système actuel s'apparente à un code d'honneur glorifié qui n'a jamais eu la moindre chance de vaincre l'industrie de la falsification à grande échelle. Face à ce constat d'échec cuisant, les réseaux sociaux commencent à changer de narration, affirmant qu'il faudra désormais juger non plus le contenu en lui-même, mais la réputation de la personne qui le publie. Pourtant, si naviguer dans un océan infini de faussetés générées par des machines était aussi simple, les systèmes de modération communautaire nous auraient sauvés depuis bien longtemps. La triste vérité, c'est que tout ce qui permettrait d'identifier clairement et systématiquement les contenus synthétiques va directement à l'encontre des intérêts financiers vitaux des entreprises qui parient aujourd'hui des milliards sur l'intelligence artificielle.

Commentaires