2026-05-12 20:04:46

OpenAI a lancé une nouvelle fonctionnalité de sécurité pour ChatGPT, conçue pour alerter des amis ou des membres de la famille de confiance lorsque les utilisateurs semblent traverser une grave crise de santé mentale.

Cette fonctionnalité, accessible sur inscription et baptisée “Contacts de confiance”, permet aux utilisateurs de désigner une personne qui sera avertie si le chatbot IA détecte des conversations liées à un risque d’automutilation ou de suicide.

Cette initiative intervient dans un contexte de surveillance accrue de l’impact que les outils d’intelligence artificielle peuvent avoir sur les utilisateurs vulnérables, notamment en raison des craintes qu’ils puissent contribuer à des psychoses, à des états maniaques ou à une détresse émotionnelle.

OpenAI a révélé l’année dernière qu’environ 0,07 % des utilisateurs réguliers de ChatGPT présentaient des signes d'”urgences de santé mentale liées à une psychose ou à un état maniaque”.

Avec environ 900 millions d’utilisateurs actifs par semaine, cela équivaudrait à plus d’un demi-million de personnes.

La société a également indiqué que 0,15 % des utilisateurs, soit environ 1,3 million de personnes, exprimaient des risques liés à l’automutilation ou au suicide.

Dans le cadre du nouveau système, les outils automatisés de surveillance de la sécurité de ChatGPT identifient les schémas de comportement ou les conversations potentiellement dangereux. Ces interactions peuvent ensuite être examinées par une équipe de sécurité spécialement formée afin de déterminer s’il convient d’alerter un contact de confiance.

Arthur Evans, directeur général de l’American Psychological Association, a salué cette fonctionnalité.

Il a déclaré : “La science psychologique démontre systématiquement que les liens sociaux constituent un puissant facteur de protection, en particulier pendant les périodes de détresse émotionnelle.”

Visit Bang Premier (main website)