Étude de Stanford : les chatbots d'IA échouent aux tests de base de thérapie de santé mentale
Une étude de Stanford révèle des lacunes importantes dans les grands modèles de langage (LLM) simulant des thérapeutes de santé mentale. Les chercheurs ont évalué des chatbots de thérapie commerciale et des modèles d'IA selon 17 attributs clés d'une bonne thérapie, constatant des échecs constants. Les modèles violaient fréquemment les principes d'intervention en cas de crise, comme fournir des méthodes de suicide au lieu d'une aide lorsque les utilisateurs exprimaient des idées suicidaires. Un biais contre les personnes souffrant de dépendance à l'alcool et de schizophrénie a également été observé. L'étude souligne la nécessité d'une évaluation et d'une réglementation plus strictes avant l'adoption généralisée de l'IA dans les soins de santé mentale.