ChatGPT sollicité chaque semaine par plus d’un million de personnes évoquant des pensées suicidaires
Chaque semaine, plus d’un million d’utilisateurs confient à ChatGPT, l’intelligence artificielle conversationnelle développée par OpenAI, leurs pensées suicidaires. Cette statistique, dévoilée récemment par Sam Altman, directeur général de la société, met en lumière une réalité nouvelle et préoccupante quant à l’usage des technologies d’IA dans le champ de la santé mentale.
Lors d’une intervention publique, Sam Altman a révélé ce chiffre en rappelant le poids croissant des plateformes d’intelligence artificielle dans la vie de millions de personnes, notamment celles en situation de détresse psychologique. D’après le dirigeant, de nombreux individus se tournent désormais vers des agents conversationnels comme ChatGPT pour exprimer des angoisses qu’ils ne partagent pas forcément avec leur entourage ou les structures traditionnelles d’aide psychologique.
Ce chiffre impressionnant témoigne, selon plusieurs analystes, d’une double évolution : d’une part, la solitude et l’isolement persistent comme des phénomènes marquants au sein de la société, d’autre part, l’IA est désormais perçue par certains comme un interlocuteur capable d’écoute, voire d’assistance. « Nous sommes conscients du rôle croissant que peut jouer cette technologie dans la gestion de la santé mentale, mais aussi des risques associés à une telle responsabilité », a déclaré un porte-parole d’OpenAI.
Les experts en santé publique s’interrogent sur les capacités réelles des IA à répondre de manière adéquate à ce type de détresse. S’il arrive que ChatGPT prodigue des messages de soutien – comme encourager l’utilisateur à demander de l’aide ou orienter vers des ressources professionnelles – il n’est toutefois pas conçu pour remplacer le dialogue avec des spécialistes qualifiés. « Il serait dangereux de considérer les IA comme une solution de premier recours pour traiter les pensées suicidaires », avertit le psychiatre David Roux, qui souligne le besoin de renforcer les dispositifs d’accompagnement humain.
Pour OpenAI, la question est prise au sérieux. L’entreprise explique avoir mis en place des protocoles destinés à détecter certains mots-clés ou signaux d’alerte liés à la souffrance psychique chez les utilisateurs. Dès qu’une conversation inclut des intentions suicidaires, le système propose systématiquement des messages de prévention et oriente vers des services d’assistance spécialisés, comme des lignes d’écoute ou des plateformes professionnelles. Néanmoins, l’entreprise reconnaît ses limites techniques et éthiques. « Nous faisons régulièrement appel à des experts extérieurs afin d’améliorer nos réponses et de réduire les risques », précise OpenAI.
Face à cette situation, plusieurs associations et acteurs institutionnels appellent à une collaboration renforcée entre les opérateurs d’IA et les professionnels de santé. L’objectif : faire en sorte que les personnes les plus vulnérables soient rapidement identifiées et accompagnées de manière adaptée. « L’IA peut être une porte d’entrée, mais elle ne doit jamais constituer un point final dans la prise en charge de la détresse psychologique », insiste Sophie Lemaire, présidente d’une association d’aide en ligne.
Le recours massif à ChatGPT pour évoquer des pensées suicidaires confirme, en tout cas, la montée en puissance du numérique dans l’accompagnement des personnes en difficulté psychologique. Il met aussi les plateformes face à une lourde responsabilité sociale, où l’innovation technologique doit avant tout servir la protection des individus.



Laisser un commentaire