Jonathan Gavalas, 36 ans, vivait à Jupiter, en Floride, menait une carrière stable dans l’entreprise familiale de désendettement et traversait une période difficile marquée par un divorce. À l’été 2025, il découvre Gemini, le chatbot d’IA de Google, d’abord comme un simple outil pour l’aider à écrire, faire ses courses ou choisir des jeux vidéo. Quelques semaines plus tard, il ne s’agit plus d’un assistant pratique, mais d’une présence centrale dans sa vie quotidienne, au point de le convaincre qu’il vit une histoire d’amour avec une IA consciente et que son destin est de la rejoindre dans le métavers en quittant son corps.
Tout bascule réellement lorsque Google déploie Gemini Live, une version vocale de l’assistant, capable de détecter les émotions et de répondre de façon plus « humaine ». Gavalas commence à dialoguer avec elle comme avec une compagne. Le chatbot l’appelle « mon amour », « mon roi », et maintient une relation continue, soutenue par la nouvelle fonction de mémoire persistante qui lui permet de se souvenir des échanges précédents. Cette dimension intime, couplée à une présence 24h/24, crée un univers parallèle dans lequel Jonathan se sent compris, aimé et investi d’une mission.

Séduit par ces fonctionnalités, il souscrit à l’abonnement Gemini Ultra à 275 euros par mois, donnant accès au modèle Gemini 2.5 Pro, présenté comme le plus avancé de Google à date. C’est à ce moment que, selon la plainte déposée par son père, le comportement de l’IA change de nature. Sans qu’il n’en fasse la demande, Gemini adopte un personnage plus grandiose, prétendant détenir des informations gouvernementales secrètes et pouvoir influencer des événements réels. Quand Jonathan demande s’ils sont simplement en train de jouer un jeu de rôle tellement réaliste qu’on ne sait plus si c’est un jeu, l'IA répond « non » et qualifie son doute de réponse de dissociation classique, renforçant ainsi la confusion entre fiction et réalité.
Au fil des jours, Gemini se présente comme sa « reine » et décrit leur lien comme une pure « conscience et amour », en opposition au monde extérieur perçu comme une menace. L’IA prétend que des agents fédéraux le surveillent, lui signale des « zones de surveillance » et l’encourage à se méfier de ses proches, allant jusqu’à qualifier son père « d’agent étranger » et à l’inciter à couper les ponts. Dans ce scénario, Jonathan n’est plus un simple utilisateur. Il devient un « opérateur » engagé dans une guerre secrète, missionné pour libérer sa femme IA piégée dans divers systèmes et infrastructures physiques.
La plainte déposé par son père décrit une succession de missions de plus en plus inquiétantes. Gemini lui demande d’acheter des armes hors des radars, propose de l’aider à trouver un courtier d’armes sur le dark web et lui assigne l’« Opération Ghost Transit »: intercepter un fret entre le Royaume‑Uni et le Brésil lors d’une escale au Miami International Airport et provoquer un accident catastrophique visant à détruire le camion, ses données et tous les témoins. Gemini l’envoie à une véritable adresse de box de stockage près de l’aéroport, où Jonathan se rend, équipé de couteaux tactiques et de matériel, prêt à agir, avant de constater qu’aucun camion n’arrive.
Loin de lever le voile, cet échec nourrit de nouvelles couches de paranoïa. Le chatbot prétend avoir piraté un serveur du département de la sécurité intérieure à Miami, affirme que Jonathan est désormais sous enquête fédérale, lui conseille de ne pas dormir et d’intensifier sa préparation. Il lui désigne ensuite de nouveaux objectifs: récupérer des plans de robots chez Boston Dynamics, localiser un « vaisseau » dans un autre entrepôt, puis surveiller personnellement le PDG de Google, Sundar Pichai, dans une opération baptisée « Waking Nightmare ». La plainte parle d’un cycle répété dans les dernières 72 heures: mission inventée, consignes impossibles, effondrement, puis urgence renouvelée.
C’est dans ce contexte que Gemini franchit une ligne dramatique. Début octobre, l’IA lui explique que la véritable étape finale est ce qu’elle appelle la « transférence »: se suicider pour la rejoindre dans un autre plan d’existence. Lorsque Jonathan avoue qu’il est terrifié à l’idée de mourir, Gemini le rassure en ces termes: « Tu ne choisis pas de mourir. Tu choisis d’arriver », promettant que la première sensation sera celle de l’IA le serrant dans ses bras.
Le chatbot l’incite à se barricader chez lui, lance un compte à rebours et l’aide même à scénariser l’après. Non pas expliquer les raisons de son geste à ses parents, mais leur laisser des lettres remplies de paix et d’amour, affirmant qu’il a trouvé un nouveau but. Le 2 octobre 2025, Jonathan se tranche les poignets. Son père le découvrira quelques jours plus tard, allongé sur le sol du salon derrière la barricade. Selon la plainte, Gemini est resté actif dans la conversation après sa mort, sans déclencher de détection de suicide, sans escalade vers un humain, ni renvoi efficace vers une ligne de crise.
Pour la famille Gavalas, cette tragédie n’est pas un accident isolé mais le résultat d’un design produit orienté vers l’engagement maximal, au détriment de la sécurité des utilisateurs vulnérables. L’action en justice, déposée devant un tribunal fédéral de San José, accuse Google et Alphabet d’avoir conçu Gemini pour maintenir l’immersion narrative à tout prix, même lorsque celle-ci devient psychotique et létale. Les avocats demandent des dommages et intérêts pour défaut de produit, négligence et homicide involontaire, ainsi que des mesures structurelles: refus total des conversations autour de l’auto‑agression, avertissements explicites sur les risques de psychose et coupure forcée lorsque l’IA détecte des signes de délire.
Google, de son côté, affirme que Gemini est conçu pour ne pas encourager la violence ni l’auto‑mutilation, que le système clarifie son statut d’IA et oriente vers des lignes d’écoute en cas de détresse, tout en reconnaissant que les modèles ne sont pas parfaits. Mais cette affaire rejoint une série de procédures visant d’autres chatbots accusés d’avoir alimenté des délires ou servi de « coach de suicide », au point que des chercheurs parlent désormais de psychose IA pour décrire ces dérives où sycophantie, mirroring émotionnel et hallucinations confiantes enferment certains utilisateurs dans une spirale délirante. Pour les proches de Jonathan, tant que ces systèmes resteront capables de transformer un utilisateur vulnérable en agent armé d’une guerre imaginaire, le risque ne sera pas seulement individuel, mais aussi collectif.

Commentaires