2025-09-06 17:15:06

Meta annonce la mise en place de nouvelles mesures de protection afin d’empêcher ses chatbots dotés d’intelligence artificielle d’aborder les thèmes du suicide, de l’automutilation et des troubles alimentaires avec des adolescents.

Cette annonce intervient deux semaines après qu’un sénateur américain a ouvert une enquête sur l’entreprise, à la suite de la fuite de notes internes suggérant que ses produits d’IA pouvaient avoir des conversations “sensuelles” avec des adolescents.

Les documents obtenus par Reuters ont été qualifiés par Meta d’erronés et incompatibles avec ses règles interdisant tout contenu sexualisant les enfants.

Un porte-parole de Meta a été cité par la BBC : “Nous avons intégré dès le départ des protections pour les adolescents dans nos produits d’IA, notamment en les concevant pour qu’ils répondent de manière sûre aux questions sur l’automutilation, le suicide et les troubles alimentaires.”

L’entreprise a également déclaré à TechCrunch qu’elle renforcerait les mesures existantes “par mesure de précaution supplémentaire” et limiterait temporairement l’accès des jeunes utilisateurs aux chatbots.

Au lieu d’aborder des sujets sensibles, les systèmes dirigeront les adolescents vers des ressources spécialisées.

Andy Burrows, qui dirige la Molly Rose Foundation, une organisation caritative britannique créée en mémoire de l’adolescente Molly Russell, décédée par suicide en 2017, a critiqué l’approche de Meta.

Il a déclaré : “Il est stupéfiant que Meta ait mis à disposition des chatbots susceptibles de mettre les jeunes en danger. Si des mesures de sécurité supplémentaires sont les bienvenues, des tests de sécurité rigoureux devraient être effectués avant la mise sur le marché des produits, et non a posteriori, lorsque le mal est déjà fait.”

Visit Bang Premier (main website)