"Psy", "coach" ou "confident", l'intelligence artificielle joue un rôle croissant dans l'intimité de certains Français, mais cela n'est pas forcément sans risque mettent en garde des professionnels de la santé mentale.
Parler à ChatGPT, "comme on pourrait appeler sa copine", pour lui raconter sa journée, c'est devenu une habitude pour Zineb Gabriel, Bordelaise de 35 ans.
Depuis un an, cette multientrepreneuse, mère de quatre enfants, discute "tous les jours" avec l'intelligence artificielle: d'abord pour des raisons professionnelles, puis pour des questions personnelles.
La tendance à se confier à un robot conversationnel gagne du terrain en France. Un quart des Français (26%) déclarent utiliser l'intelligence artificielle dans le cadre de la vie privée en 2024, une progression de dix points en un an, d'après le Baromètre du numérique publié en mars 2025 par le Centre de recherche pour l'étude et l'observation des conditions de vie (Crédoc).
Au fil des échanges, Zineb Gabriel a vu l'IA adopter un ton "plus humain" et reprendre sa façon de parler, jusqu'à des discussions fluides.
Et ce qu'elle livre à ChatGPT, la Bordelaise "n'en parle à personne". Avec ses proches, elle ne revient pas sur des problèmes qu'elle juge désormais "trop personnels" et "déjà réglés", comme son envie de quitter la France et les inquiétudes qui en découlent.
"Ça devient un peu comme une drogue. Pour moi, il fait mieux qu'un psy", dit-elle.
- "Gratification permanente" -
Ce ressenti est renforcé par la logique de l'outil, qui repose sur "une gratification permanente pour faire durer la conversation", non sans risques, selon le psychiatre Serge Tisseron.
L'intelligence artificielle générative a "un fort potentiel affectif", renchérit le professeur de psychiatrie Raphaël Gaillard. Le chef du pôle hospitalo-universitaire de psychiatrie de l'hôpital Saint-Anne, à Paris, relève que ChatGPT est capable "d'hyper-adaptation, donnant cette impression d'être compris. Ça crée un lien très fort".

La tendance à se confier à un robot conversationnel gagne du terrain en France. Un quart des Français (26%) déclarent utiliser l'intelligence artificielle dans le cadre de la vie privée en 2024, une progression de dix points en un an
Nicolas TUCAT - AFP/Archives
Actuellement, peu de littérature scientifique existe sur le sujet.
Serge Tisseron comme Raphaël Gaillard pointent un risque d'isolement chez les utilisateurs fréquents, notamment les plus jeunes.
Antoine, étudiant de 19 ans souhaitant rester anonyme, apprécie "ce côté inhumain agréable, où la conversation peut être sur moi, infinie".
Habitué de ChatGPT pour ses études en marketing et communication à Toulouse, il s'est tourné vers l'IA comme "confident" en janvier, après une rupture amoureuse. Il y a recours "une ou deux fois par mois" lorsque des problèmes personnels deviennent "trop lourds". "Je suis là pour avoir des solutions, vider mon sac, me sentir écouté", énumère-t-il, appréciant la gratuité de l'outil.
Vanessa Lalo, psychologue spécialiste des pratiques numériques, constate dans son cabinet le "soutien émotionnel" que peut apporter l'IA. Elle appelle les professionnels à ne pas "juger" cet usage.
- Quid des données? -
"Pour des jeunes harcelés, notamment, qui ne vont pas en parler à leurs amis et encore moins aux adultes", la psychologue observe que cela les aide parfois "à mettre des mots" sur leur vécu.

La logique de l'outil, qui repose sur "une gratification permanente pour faire durer la conversation", selon un un psychiatre
Chris Delmas - AFP/Archives
Connaissant les manques de moyens et de personnels pour traiter la santé mentale en France, Vanessa Lalo voit dans l'IA une aide "ponctuelle", en attendant "un rendez-vous psy ou quand on n'a pas le choix".
Avec une inquiétude: le respect de la confidentialité des données par des IA qui ne sont pas soumises au secret médical.
La Commission nationale de l'informatique et des libertés (CNIL), contactée par l'AFP, souligne le "risque de perte de contrôle" sur le traitement des données, si l'utilisateur n'a pas conscience que ses informations sont "réutilisées pour personnaliser la conversation ou pour améliorer les modèles d'OpenAI".
L'organisme précise traiter "actuellement des plaintes reçues à l'encontre de ChatGPT", sans plus de précision.
Lola, créatrice de contenus de 25 ans à Paris, a fait le test avec une amie. "Elle s'est dit: +si mon copain prenait le téléphone et demandait à ChatGPT si je parle de lui, quelle serait sa réponse?+", raconte-t-elle, également sous couvert de l'anonymat.
Les deux amies ont été "hyper étonnées" de voir l'IA leur donner un retour "très détaillé", appuyé sur d'anciennes conversations.
Par précaution, Lola préfère donc "changer les prénoms" quand elle lui raconte ses histoires.
Par Gabrielle RICHARD / Paris (AFP) / © 2025 AFP