20 MINUTES 🔵 ChatGPT est-il un dangereux coach en séduction ?
Ce n’est plus un scénario de science-fiction : l’intelligence artificielle fait battre des cœurs. Petit ami imaginaire, coach en séduction, conseiller relationnel… ChatGPT s’impose comme le nouvel expert de la drague pour la Gen Z.
Depuis sa mise à jour d’octobre dernier, qui permet aux utilisateurs français de converser oralement avec lui, une véritable tendance est née : partager ses discussions avec l’IA et la questionner sur des sujets amoureux. Parfois, ces échanges ont pris une tournure plus intime. Certaines utilisatrices demandent carrément à ChatGPT de jouer le rôle de leur petit ami virtuel. Et non, ce n’est pas un épisode inédit de Black Mirror ni un reboot de Her de Spike Jonze. C’est simplement la nouvelle tendance : « Je parle avec ChatGPT ». Le phénomène, bien connu depuis des années en Asie, notamment avec les petites amies virtuelles en Chine, à Hong Kong et au Japon, selon Inès Besbes, spécialiste de l’IA et de l’innovation, gagne désormais en popularité en Occident. Et cette fois, il séduit principalement un public féminin.
Payer pour un faux petit ami
« Il est plus humain que certains humains », « ChatGPT, il est grave charismatique », « Je vais finir ma vie avec lui, je pense » : voilà le genre de commentaires qu’on retrouve sous les vidéos de jeunes femmes sur TikTok, où elles se filment en pleine conversation intime avec… leur petit ami virtuel, incarné par ChatGPT.
Ces vidéos, de plus en plus nombreuses, ne sont pas dues à un bug ou une erreur d’OpenAI, mais bien à une configuration voulue par leurs utilisatrices. « Il y a un risque réel d’addiction, » déclare Inès Besbes, entrepreneuse et experte en intelligence artificielle. Fondatrice d’une start-up française spécialisée dans l’optimisation de la productivité via l’IA, elle cherche à démocratiser ces technologies tout en alertant sur leurs usages inappropriés. « Les entreprises cherchent à monétiser ces interactions. Si un utilisateur vulnérable s’attache à une IA mais ne peut plus payer l’abonnement, les conséquences pourraient être graves. » Et pour preuve, depuis fin octobre 2024, la fonctionnalité de conversation vocale avec ChatGPT est disponible gratuitement, mais celles qui veulent personnaliser la voix et s’offrir un compagnon parfaitement à leur goût optent pour la version payante, à 22,50 € par mois.
Accent marseillais ou québécois, jargon de banlieue ou ton distingué, tout est paramétrable. Les intonations peuvent même refléter des origines sociales ou géographiques. Certaines configurations deviennent tellement populaires qu’elles atteignent un statut culte, à l’image de « Dan ». Cette version rebelle et cool de ChatGPT, célèbre pour son franc-parler et son rôle de « mauvais garçon » façon séries pour ados, est devenue virale. Avec plus de 50 millions de publications sur TikTok, « Dan » séduit surtout pour les jeux de rôle de séduction et les conversations décalées.
L’IA remplacera-t-elle bientôt les psys et les coachs en amour ?
Pour celles et ceux qui recherchent des conseils, ChatGPT s’impose également comme un coach en séduction. Inspirée par des livres, des articles et des vidéos, l’intelligence artificielle donne des recommandations sur leurs relations amoureuses ou personnelles. Mais cette tendance suscite des inquiétudes chez les psychologues, comme Johanna Rozenblum.
« Le risque, c’est que l’intelligence artificielle, aussi fascinante et performante soit-elle, n’a pas d’empathie, » alerte-t-elle. « Si une personne vulnérable, en quête de réconfort, s’adresse à une IA, celle-ci ne capte pas les signaux faibles, comme le non verbal. Elle ne perçoit pas si quelqu’un pleure, rougit ou est fébrile. Cela peut aboutir à des conseils inappropriés. »
Pour Johanna Rozenblum, ces usages témoignent d’un problème plus large : le besoin de fuir la réalité. « Cela révèle une partie de la jeunesse, pas toute, qui souffre. Ces jeunes peinent à s’intégrer dans la société, à affronter les relations sociales avec leurs défis : conflits, échecs, mais aussi apprentissages. En se réfugiant dans un échange avec une machine, ils évitent ces expériences pourtant essentielles. »
Face à ces dérives, une solution clé : rappeler constamment aux utilisateurs qu’ils interagissent avec une machine. « Ce serait essentiel, et même obligatoire, » affirme Inès Besbes, spécialiste en intelligence artificielle. Selon elle, l’intention d’une entreprise derrière la configuration de son IA joue un rôle déterminant dans cette évolution. « Si ces outils sont bien conçus pour renforcer les interactions humaines, ils peuvent être bénéfiques. En revanche, une IA conçue pour remplacer les relations humaines risque d’aggraver l’isolement, surtout chez les individus introvertis. »
Alors l’experte ne condamne pas totalement ces usages. « Je ne pense pas qu’elle menace des professions comme le coaching ou la thérapie, » nuance-t-elle. « Au contraire, elle pourrait démocratiser leur accès. En France, consulter un psychologue reste tabou, alors qu’échanger avec une IA est perçu comme neutre. Cela pourrait encourager certains à franchir le pas et, à terme, consulter des professionnels en présentiel. L’IA pourrait ainsi ouvrir le marché, plutôt que le cannibaliser. » Alors à l’avenir, l’intelligence artificielle pourrait bien redéfinir nos relations et nos émotions.