2026-05-01 17:19:05

OpenAI a dû demander à ChatGPT de cesser de parler de gobelins. Dans un article de blog publié jeudi 30 avril 2026, l’entreprise technologique a indiqué avoir constaté une augmentation des références à ces créatures mythologiques – ainsi qu’aux gremlins – dans les métaphores utilisées par ChatGPT et d’autres outils fonctionnant avec son dernier modèle, GPT-5.

Après que des utilisateurs et des employés ont signalé des problèmes décrits comme des “petits gobelins”, OpenAI a révélé qu’elle prendrait des mesures pour atténuer le problème, notamment en demandant à son agent de codage Codex de ne pas y faire référence sauf en cas de nécessité.

Il s’est avéré qu’une “personnalité geek” qu’elle avait développée pour ChatGPT avait été involontairement incitée à récompenser les mentions de gobelins.

Cet incident met en évidence les défis auxquels sont confrontées les entreprises d’IA lorsqu’elles doivent faire face à la possibilité que les systèmes et leur apprentissage récompensent et renforcent des erreurs telles que des bizarreries linguistiques.

OpenAI a expliqué avoir d’abord remarqué une augmentation des mentions de gobelins, de gremlins et d’autres créatures fantastiques après le lancement de GPT-5.1 en novembre dernier.

L’entreprise a écrit : “Les utilisateurs se sont plaints du fait que le modèle se montrait étrangement trop familier dans les conversations, ce qui a conduit à une enquête sur des tics verbaux spécifiques.”

Elle a expliqué qu’après qu’un chercheur ayant remarqué des mentions de gobelin ait demandé à ce que cela soit vérifié, les développeurs ont découvert que l’apparition de ce terme dans les réponses de ChatGPT avait augmenté de 175 % depuis le lancement de GPT-5.1.

Selon OpenAI, “un seul petit gobelin pourrait être inoffensif, voire charmant”, mais la multiplication de leur présence dans les résultats générés par l’entreprise a nécessité une enquête plus approfondie.

Visit Bang Premier (main website)