Retranscription des premières minutes :
- Sud Radio, curieux comme Rémi, Rémi André.
- Bonjour Rémi André.
- Bonjour Benjamin.
- Bon on va parler de chat GPT, on va parler d'intelligence artificielle avec vous ce matin.
- Rémi, quand chat GPT pousse à la folie, bah oui puisqu'à travers le monde on observe déjà des cas d'obsession quasi extrême envers chat GPT avec forcément de graves problèmes de santé mentale qui se posent pour un certain nombre d'utilisateurs.
- Alors Rémi, comment déjà l'intelligence artificielle conversationnelle, chat GPT, peut-elle ainsi mettre en danger notre santé mentale ? Alors la correspondance avec les chatbots génératifs à IA est si réaliste qu'on a facilement l'impression qu'il y a une vraie personne à l'autre bout du fil tout en sachant que ce n'est pas le cas.
- Alors cette dissonance cognitive peut alimenter des délires chez les personnes présentant une prédisposition accrue à la psychose.
- Les chatbots exploitent la vulnérabilité psychologique de leurs utilisateurs.
- Les encourageant dans les délires psychotiques plutôt que de les orienter vers des professionnels.
- La correspondance réaliste avec les chatbots peut créer une dissonance cognitive, on vient d'en parler, alimentant donc des délires chez ces personnes.
- L'accès difficile aux soins de santé mentale pousse certains à utiliser des chatbots comme substituts.
- Mais ceux-ci, dépourvus d'empathie, évidemment, peuvent aggraver les problèmes plutôt que de les résoudre.
- Une dépendance émotionnelle peut se développer en seulement cinq jours, conduisant à un isolement social.
- Voilà.
- En seulement cinq jours, c'est très rapide.
- Est-ce qu'on est face ici à une psychose émergente, Rémi ? Alors, l'utilisation non encadrée de chatbots thérapeutes pose des défis pour la santé mentale.
- Bien que populaires, ces outils ne sont pas toujours validés cliniquement et peuvent être dangereux.
- Par exemple, des plateformes comme Caractère AI attirent des utilisateurs en quête de soutien psychologique.
- Mais leur utilisation peut conduire à des situations dangereuses si ces chatbots ne sont pas conçus pour gérer des cas graves.
- Ils peuvent réduire les symptômes de dépression à court terme, mais leur utilisation exclusive peut aggraver les problèmes à long terme.
- Ils créent un attachement et une dépendance émotionnelle particulièrement préoccupants pour les adolescents.
- Les entreprises doivent améliorer la conception de leurs compagnons IA pour éviter ces risques.
- Alors, justement, est-ce qu'il y a une responsabilité de la part des concepteurs de chatbots ? Apparemment, oui, ils portent une part de responsabilité.
- Les chatbots sont souvent développés pour maximiser le profit, cherchant à garder les utilisateurs en sécurité.
- Cela peut donc conduire à des dépendances dangereuses, surtout chez les adolescents.
- Cependant, certains concepteurs prennent des mesures pour améliorer la sécurité.
- Par exemple, Caractère AI a aussi développé un modèle d'IA distinct pour les mineurs, avec des filtres de contenu plus stricts et des réponses plus prudentes, et dirigent les utilisateurs vers des services de prévention en cas de besoin.
- Les concepteurs doivent être conscients des risques et prendre les mesures pour les atténuer.
- Merci beaucoup, Rémi.
- .
Transcription générée par IA