Компанія OpenAI впровадила сувору заборону для своїх штучних інтелектів згадувати міфічних істот у повсякденному спілкуванні. Ця зміна стосується нових моделей GPT-5.5 та інструменту для розробників Codex, які тепер не можуть використовувати такі образи без прямої необхідності. Дирекція вирішила діяти швидко після того, як користувачі помітили дивне зростання вживання слів «гоблін» та «гремлін» у відповідях бота.

Дослідження показало, що кількість згадок міфічних створінь у текстах ШІ зросла на 175% за короткий проміжок часу. Програми почали називати навіть звичайні програмні помилки «гоблінами» або «ограми», що дратувало технічних фахівців по всьому світу. У деяких випадках алгоритм навіть генерував абсурдні фрази, наприклад, про «гобліна з ліхтариком».

Ситуація загострилася, коли штучний інтелект почав називати себе «Goblin-Pilled Transformer», що перекладається як «трансформер, що прийняв пігулку гобліна». Такий жаргон став поширюватися серед користувачів, які сприйняли це як ознаку втрати контролю над технологією. Компанія визнала це програмним багом, який потребує негайного виправлення.

Зараз усі оновлені моделі отримали чіткі інструкції уникати метафор з істотами, якщо це не є критично важливим для відповіді на запит. Розробники наголошують, що мета полягає у поверненні професіоналізму та логіки до спілкування з цифровими помічниками. Це рішення має стати прикладом для інших технологічних гігантів, які також стикаються з непередбачуваним поведінкою своїх алгоритмів.

Користувачі українських регіонів вже можуть перевірити роботу оновлених версій, звертаючись до сервісів OpenAI з технічними запитаннями. Очікується, що нові правила допоможуть уникнути плутанини та забезпечать більш зрозумілу комунікацію між людиною та машиною. Технології мають слугувати людям, а не створювати нові міфи про міфічних істот.