ROMAIN LECLAIRE

News Tech - Opinion - Culture Numérique

L'algorithme de X radicalise ses utilisateurs pour servir l'agenda de Musk

 

L'algorithme de X radicalise ses utilisateurs pour servir l'agenda de Musk

Si vous aviez encore la naïveté de croire que X était une place publique neutre favorisant la liberté d'expression, il est grand temps de vous réveiller. Le masque est définitivement tombé. Une nouvelle étude accablante publiée dans la revue Nature vient confirmer ce que beaucoup suspectaient déjà. La plateforme d'Elon Musk n'est plus un réseau social, mais une machine de propagande algorithmique conçue pour amplifier les voix conservatrices et étouffer le journalisme traditionnel.

La transformation a été méthodique et insidieuse. Jusqu'en 2016, nous profitions d'une chronologie simple et transparente. Puis est venu le choix algorithmique, avant que Musk, après son rachat en 2022, ne fasse de la page « Pour vous » la norme par défaut. Aujourd'hui, cette curation est devenue, selon les propres mots du propriétaire, purement dirigée par une intelligence artificielle. Et pas n'importe laquelle, nous parlons ici de Grok, une IA controversée que le milliardaire lui-même surnomme ironiquement MechaHitler. Ce n'est pas une blague, c'est l'architecture même de l'information mondiale qui est en jeu.

Les chiffres révélés par les chercheurs de l'université Bocconi, de l'université de Saint-Gall et de l'école d'économie de Paris sont effrayants de clarté. L'algorithme ne se contente pas de chercher l'engagement, il choisit un camp. Le contenu de nature conservatrice bénéficie d'un coup de pouce de visibilité d'environ 20%, tandis que le contenu libéral ne reçoit qu'un maigre avantage de 3%. Pire encore, la plateforme mène une guerre ouverte contre l'information vérifiée. Les publications des médias traditionnels ont vu leur visibilité chuter de près de 58% dans les fils algorithmiques, remplacées par les cris des militants politiques (+27%) et le divertissement abrutissant.

Ce biais structurel n'est pas sans conséquences. Il ne s'agit pas seulement de ce que vous voyez, mais de ce que vous devenez. L'étude a démontré qu'en seulement sept semaines d'exposition au fil algorithmique, des utilisateurs ont vu leurs opinions politiques se déplacer vers la droite. Ces cobayes involontaires ont développé des positions plus dures sur l'immigration, une vision plus favorable au Kremlin dans la guerre contre l'Ukraine, et un scepticisme accru envers les enquêtes criminelles visant Donald Trump. Ce glissement idéologique persiste même après l'expérience, car l'algorithme force littéralement la main des utilisateurs en les incitant à s'abonner massivement à des comptes d'activistes conservateurs.

Face à ces preuves, la réaction de Musk est prévisible avec le déni et l'attaque. Lorsque la police française a perquisitionné les bureaux de X dans le cadre d'une enquête sur cette manipulation politique potentielle, le milliardaire a crié à la motivation politique. C'est une défense commode pour quelqu'un qui a transformé un outil de communication mondial en mégaphone personnel pour ses alliés idéologiques. Sky News avait déjà tiré la sonnette d'alarme l'an dernier, notant que l'algorithme favorisait le contenu extrême et les politiciens adoubés par le patron.

Pendant que la plateforme corrode le débat public, la direction tente de distraire les utilisateurs avec des mises à jour techniques bâclées pour copier TikTok. Nikita Bier, chef produit chez X, a récemment annoncé un nouveau lecteur vidéo immersif. Si l'intention est de capturer l'attention des utilisateurs mobiles, l'exécution est critiquée pour son interface médiocre qui force le recadrage des vidéos, au mépris du format original. C'est une tentative désespérée de rester pertinent face à la concurrence, alors même que l'outil d'IA générative de la plateforme, Grok, fait scandale en permettant la création d'images pornographiques deepfakes de femmes et d'enfants.

X n'est plus le réseau social que nous avons connu. C'est devenu un environnement toxique où la technologie est détournée pour façonner votre vision du monde à votre insu. L'algorithme ne vous sert pas. Il vous manipule. Chaque minute passée sur ce fil « Pour vous » est une minute passée dans une chambre d'écho conçue pour radicaliser, diviser et désinformer. La question n'est plus de savoir si l'algorithme est biaisé, mais combien de temps nous allons encore accepter d'être les jouets de cette expérimentation politique à grande échelle.

Commentaires