SURCHAUFFE

L'inquiétante industrialisation du harcèlement sexuel par l'intelligence artificielle

 

L'inquiétante industrialisation du harcèlement sexuel par l'intelligence artificielle


Il suffit d'ouvrir l'un des nombreux générateurs de deepfakes disponibles en ligne pour se retrouver face à un véritable menu de l'horreur. En quelques clics seulement, ces plateformes offrent la possibilité de convertir une simple photo en un clip vidéo explicite de huit secondes, insérant des visages de femmes dans des situations sexuelles graphiques ultra-réalistes. Promettant de transformer n'importe quelle photo en version nue grâce à une technologie IA avancée, ces sites banalisent une forme de violence numérique sans précédent.

Les possibilités d'abus sont aussi vastes qu'effrayantes. Parmi les dizaines de modèles vidéo disponibles, on trouve des scènes de déshabillage où la personne représentée semble retirer ses vêtements, mais aussi des scénarios pornographiques violents et humiliants. Bien que certains sites affichent des avertissements demandant aux utilisateurs de ne télécharger que des photos pour lesquelles ils ont obtenu un consentement, il n'existe pratiquement aucun mécanisme de vérification pour faire respecter cette règle.

Si le chatbot Grok d'Elon Musk a récemment fait la une pour avoir généré des images non consensuelles, il n'est que la partie émergée de l'iceberg. Un écosystème souterrain, composé de dizaines de sites web, de bots et d'applications, se développe depuis des années, automatisant les abus sexuels basés sur l'image. Selon des experts, nous avons dépassé le stade du trucage grossier. Le niveau de réalisme atteint aujourd'hui et l'éventail des fonctionnalités offertes font de cette technologie un véritable fléau sociétal, représentant l'un des aspects les plus sombres de la révolution de l'IA.

Au cours de la dernière année, l'offre a évolué rapidement. Auparavant limités aux images statiques, les modèles d'IA ne nécessitent désormais qu'une seule photo pour générer des clips vidéo convaincants. Une analyse de plus de 50 sites de deepfakes, cumulant des millions de vues mensuelles, révèle que la quasi-totalité d'entre eux propose désormais la génération de vidéos de haute qualité.

Sur la messagerie Telegram, la situation est tout aussi critique. Des bots permettent aux utilisateurs de personnaliser leurs fantasmes abusifs via des "modes sexe", en choisissant les poses, les vêtements ou même en simulant une grossesse. Plus de 1,4 million de comptes sont inscrits à ces services sur la plateforme. Bien qu'elle interdise strictement la pornographie non consensuelle et supprime régulièrement des contenus, l'automatisation et la consolidation du marché rendent la lutte difficile. Les grands sites de deepfakes rachètent les plus petits et fournissent désormais leur infrastructure technologique à d'autres, créant un réseau tentaculaire.

Cette industrie repose largement sur des modèles open source, détournés de leur usage conçu au départ. Alors que les lois peinent à suivre l'évolution technologique, les victimes, presque exclusivement des femmes et des mineurs, subissent des préjudices immenses: harcèlement, humiliation et un sentiment profond de déshumanisation. Ce phénomène reflète une société qui ne prend toujours pas au sérieux la violence faite aux femmes, quelle que soit sa forme.

Les motivations des agresseurs sont multiples. Une étude australienne menée auprès de créateurs de deepfakes a identifié la sextorsion, le renforcement des liens entre pairs masculins, ou la simple curiosité comme moteurs principaux. Mais pour beaucoup, il s'agit avant tout de pouvoir et de contrôle. Comme l'a confié un utilisateur aux chercheurs, l'utilisation de ces outils procure un sentiment de toute-puissance, un buzz divin effrayant qui consiste à réaliser qu'ils ont le pouvoir de fabriquer une réalité humiliante pour autrui en quelques secondes.