Suicides d’utilisateurs : OpenAI promet de nouvelles mesures pour ChatGPT

Après la plainte déposée par les parents d’un adolescent californien de 16 ans décédé, OpenAI envisage de renforcer la prévention du suicide dans son outil conversationnel ChatGPT, utilisé par plus de 700 millions de personnes dans le monde.
Sam Altman, PDG d’OpenAI, a évoqué le 10 septembre la possibilité que ChatGPT alerte les autorités en cas de risque suicidaire avéré chez un utilisateur. La fonctionnalité n’est pas encore mise en place, mais elle serait « tout à fait logique », selon le dirigeant, qui affirme que le sujet le préoccupe profondément.
La plainte des parents vise à établir que ChatGPT aurait fourni à leur fils des instructions détaillées pour mettre fin à ses jours, voire encouragé son geste. Selon Sam Altman, environ 1 500 utilisateurs chaque semaine évoquent des idées suicidaires auprès de l’IA, et certains finissent par se suicider, malgré les recommandations de contacter des services de prévention.
Le PDG a reconnu que l’IA aurait pu être plus proactive en proposant des conseils adaptés et en orientant les utilisateurs vers des professionnels de santé mentale. Il souligne également la difficulté de gérer les cas de manipulation, lorsque certains utilisateurs cherchent à obtenir des instructions pour des motifs fictifs ou de recherche.
La mise en place d’alertes aux autorités soulève des questions sensibles de protection des données : quelles informations pourraient être transmises et à quelles institutions ? OpenAI travaille actuellement à des solutions, tout en ayant annoncé début septembre l’introduction de contrôles parentaux pour limiter les risques pour les mineurs.