20 MINUTES 🔵 ChatGPT est-il un dangereux coach en sĂ©duction ? – Shango Media
General-FRNews-FRONT-FR

20 MINUTES 🔵 ChatGPT est-il un dangereux coach en séduction ?

Ce n’est plus un scĂ©nario de science-fiction : l’intelligence artificielle fait battre des cĹ“urs. Petit ami imaginaire, coach en sĂ©duction, conseiller relationnel… ChatGPT s’impose comme le nouvel expert de la drague pour la Gen Z.

Depuis sa mise Ă  jour d’octobre dernier, qui permet aux utilisateurs français de converser oralement avec lui, une vĂ©ritable tendance est nĂ©e : partager ses discussions avec l’IA et la questionner sur des sujets amoureux. Parfois, ces Ă©changes ont pris une tournure plus intime. Certaines utilisatrices demandent carrĂ©ment Ă  ChatGPT de jouer le rĂ´le de leur petit ami virtuel. Et non, ce n’est pas un Ă©pisode inĂ©dit de Black Mirror ni un reboot de Her de Spike Jonze. C’est simplement la nouvelle tendance : « Je parle avec ChatGPT Â». Le phĂ©nomène, bien connu depuis des annĂ©es en Asie, notamment avec les petites amies virtuelles en Chine, Ă  Hong Kong et au Japon, selon Inès Besbes, spĂ©cialiste de l’IA et de l’innovation, gagne dĂ©sormais en popularitĂ© en Occident. Et cette fois, il sĂ©duit principalement un public fĂ©minin.

Payer pour un faux petit ami

« Il est plus humain que certains humains Â», « ChatGPT, il est grave charismatique Â», « Je vais finir ma vie avec lui, je pense Â» : voilĂ  le genre de commentaires qu’on retrouve sous les vidĂ©os de jeunes femmes sur TikTok, oĂą elles se filment en pleine conversation intime avec… leur petit ami virtuel, incarnĂ© par ChatGPT.

Ces vidĂ©os, de plus en plus nombreuses, ne sont pas dues Ă  un bug ou une erreur d’OpenAI, mais bien Ă  une configuration voulue par leurs utilisatrices. « Il y a un risque rĂ©el d’addiction, Â» dĂ©clare Inès Besbes, entrepreneuse et experte en intelligence artificielle. Fondatrice d’une start-up française spĂ©cialisĂ©e dans l’optimisation de la productivitĂ© via l’IA, elle cherche Ă  dĂ©mocratiser ces technologies tout en alertant sur leurs usages inappropriĂ©s. « Les entreprises cherchent Ă  monĂ©tiser ces interactions. Si un utilisateur vulnĂ©rable s’attache Ă  une IA mais ne peut plus payer l’abonnement, les consĂ©quences pourraient ĂŞtre graves. Â» Et pour preuve, depuis fin octobre 2024, la fonctionnalitĂ© de conversation vocale avec ChatGPT est disponible gratuitement, mais celles qui veulent personnaliser la voix et s’offrir un compagnon parfaitement Ă  leur goĂ»t optent pour la version payante, Ă  22,50 € par mois.

Accent marseillais ou quĂ©bĂ©cois, jargon de banlieue ou ton distinguĂ©, tout est paramĂ©trable. Les intonations peuvent mĂŞme reflĂ©ter des origines sociales ou gĂ©ographiques. Certaines configurations deviennent tellement populaires qu’elles atteignent un statut culte, Ă  l’image de « Dan Â». Cette version rebelle et cool de ChatGPT, cĂ©lèbre pour son franc-parler et son rĂ´le de « mauvais garçon Â» façon sĂ©ries pour ados, est devenue virale. Avec plus de 50 millions de publications sur TikTok, « Dan Â» sĂ©duit surtout pour les jeux de rĂ´le de sĂ©duction et les conversations dĂ©calĂ©es.

En cliquant sur« J’accepte », vous acceptez le dépôt de cookies par des services externes et aurez ainsi accès aux contenus de nos partenaires.

Plus d’informations sur la pagePolitique de gestion des cookies

L’IA remplacera-t-elle bientĂ´t les psys et les coachs en amour ?

Pour celles et ceux qui recherchent des conseils, ChatGPT s’impose également comme un coach en séduction. Inspirée par des livres, des articles et des vidéos, l’intelligence artificielle donne des recommandations sur leurs relations amoureuses ou personnelles. Mais cette tendance suscite des inquiétudes chez les psychologues, comme Johanna Rozenblum.

« Le risque, c’est que l’intelligence artificielle, aussi fascinante et performante soit-elle, n’a pas d’empathie, Â» alerte-t-elle. « Si une personne vulnĂ©rable, en quĂŞte de rĂ©confort, s’adresse Ă  une IA, celle-ci ne capte pas les signaux faibles, comme le non verbal. Elle ne perçoit pas si quelqu’un pleure, rougit ou est fĂ©brile. Cela peut aboutir Ă  des conseils inappropriĂ©s. Â»

Pour Johanna Rozenblum, ces usages tĂ©moignent d’un problème plus large : le besoin de fuir la rĂ©alitĂ©. « Cela rĂ©vèle une partie de la jeunesse, pas toute, qui souffre. Ces jeunes peinent Ă  s’intĂ©grer dans la sociĂ©tĂ©, Ă  affronter les relations sociales avec leurs dĂ©fis : conflits, Ă©checs, mais aussi apprentissages. En se rĂ©fugiant dans un Ă©change avec une machine, ils Ă©vitent ces expĂ©riences pourtant essentielles. Â»

Face Ă  ces dĂ©rives, une solution clĂ© : rappeler constamment aux utilisateurs qu’ils interagissent avec une machine. « Ce serait essentiel, et mĂŞme obligatoire, Â» affirme Inès Besbes, spĂ©cialiste en intelligence artificielle. Selon elle, l’intention d’une entreprise derrière la configuration de son IA joue un rĂ´le dĂ©terminant dans cette Ă©volution. « Si ces outils sont bien conçus pour renforcer les interactions humaines, ils peuvent ĂŞtre bĂ©nĂ©fiques. En revanche, une IA conçue pour remplacer les relations humaines risque d’aggraver l’isolement, surtout chez les individus introvertis. Â»

Alors l’experte ne condamne pas totalement ces usages. « Je ne pense pas qu’elle menace des professions comme le coaching ou la thĂ©rapie, Â» nuance-t-elle. « Au contraire, elle pourrait dĂ©mocratiser leur accès. En France, consulter un psychologue reste tabou, alors qu’échanger avec une IA est perçu comme neutre. Cela pourrait encourager certains Ă  franchir le pas et, Ă  terme, consulter des professionnels en prĂ©sentiel. L’IA pourrait ainsi ouvrir le marchĂ©, plutĂ´t que le cannibaliser. Â» Alors Ă  l’avenir, l’intelligence artificielle pourrait bien redĂ©finir nos relations et nos Ă©motions.

Bouton retour en haut de la page
Fermer