La promesse de départ de l'intelligence artificielle générative était celle d'un accès rapide, synthétique et relativement fiable à la connaissance humaine. Pourtant, les récents développements autour du modèle GPT-5.2 révèlent une fissure béante dans cette utopie technologique. Loin d'être l'arbitre neutre que ses créateurs prétendent vendre, ChatGPT semble avoir franchi une ligne rouge inquiétante en intégrant dans ses sources Grokipedia, l'encyclopédie générée par l'IA d'Elon Musk. Ce glissement n'est pas anodin, il marque une dérive dangereuse où la machine ne se contente plus d'halluciner par elle-même, mais valide et blanchit la désinformation produite par d'autres algorithmes biaisés.
L'enquête menée par le Guardian est accablante pour OpenAI. Lors de tests rigoureux, le modèle le plus avancé de l'entreprise a cité Grokipedia à neuf reprises sur une douzaine de requêtes. Ce qui est particulièrement insidieux, c'est la nature des sujets touchés. ChatGPT ne s'est pas fait piéger sur les gros titres évidents comme l'insurrection du 6 janvier ou le VIH, pour lesquels des garde-fous semblent exister. Au contraire, la contamination s'opère dans les zones grises, sur des sujets plus obscurs où l'utilisateur moyen manque de repères pour vérifier l'information. Qu'il s'agisse des structures paramilitaires iraniennes ou des détails biographiques de l'historien Sir Richard Evans (expert clé contre le négationniste David Irving) le chatbot a recraché les données de l'IA d'Elon Musk, y compris des affirmations douteuses ou déjà démystifiées.
Il est nécessaire de comprendre pourquoi l'utilisation de Grokipedia comme source fiable est une aberration éditoriale et technique. Lancé en octobre, ce projet se veut un concurrent de Wikipedia, mais sans la rigueur de la vérification humaine. C'est une encyclopédie écrite par une IA, pour des IA, connue pour propager des narratifs d'extrême droite. En traitant cette source sur un pied d'égalité avec des institutions journalistiques ou académiques, ChatGPT se rend complice d'une pollution informationnelle. C'est une négligence coupable de la part d'OpenAI, dont les filtres de sécurité se révèlent ici d'une inefficacité flagrante.
Le phénomène démontré ici porte un nom technique effrayant, le "LLM grooming" ou le toilettage des modèles de langage. Des experts en désinformation comme Nina Jankowicz tirent la sonnette d'alarme. Le danger réside dans le cycle de légitimation. Si ChatGPT, perçu par le grand public comme une autorité technologique, cite Grokipedia, il confère une aura de respectabilité à une plateforme qui héberge des contrevérités. L'utilisateur final, voyant la citation, pourrait être amené à penser que le contenu a été vérifié et validé. C'est un blanchiment d'information toxique. Le mensonge part d'une source biaisée, passe par le filtre "neutre" de ChatGPT, et atterrit chez le lecteur comme une vérité établie.
La défense d'OpenAI face à ce scandale est d'une faiblesse désarmante. Invoquer l'utilisation d'un large éventail de sources publiques et l'application de filtres de sécurité sonne creux quand le résultat final est la promotion de théories conspirationnistes ou d'inexactitudes factuelles sur des sujets sensibles. De son côté, xAI se contente de répondre par des invectives infantiles contre les médias traditionnels, prouvant le peu de cas qu'ils font de la vérité factuelle.
Nous assistons peut-être au début de la fin de la crédibilité des grands modèles de langage comme outils de recherche fiables. Si des acteurs comme OpenAI sont incapables d'empêcher leurs modèles de boire à des sources empoisonnées, la valeur de l'outil s'effondre. Une fois qu'une fausse information infiltre ces réseaux de neurones, elle devient extrêmement difficile à extirper, continuant de hanter les réponses bien après avoir été démentie, comme l'a vécu Nina Jankowicz elle-même. En citant Grokipedia, ChatGPT ne fait pas que commettre une erreur technique mais trahit la confiance de ses utilisateurs et accélère l'entrée dans une période de confusion généralisée où la vérité n'est plus qu'une option parmi d'autres.
