Компанія OpenAI змушена була ввести заборону на згадки міфологічних істот у відповідях свого штучного інтелекту після того, як модель GPT-5.1 почала масово генерувати тексти про гоблінів та гремлінів. Розробники виявили, що термін «гобліни» з'являвся у відповідях на 175% частіше, а «гремліни» — на 52% частіше порівняно з моментом запуску оновленої версії у листопаді.

Причиною аномалії стала особливість навчання моделі, яка мала «занудну особистість». Система винагороджувала штучний інтелект за використання таких метафор, що призвело до несвідомого збільшення кількості згадок. Виявилося, що ця особистість була відповідальна за дві третини всіх випадків появи гоблінів у діалогах з користувачами.

Після розслідування OpenAI надала інструкції своєму агенту кодування Codex та базовій моделі уникавати будь-яких згадок про гоблінів, гремлінів, єнотів, тролів, огрів та голубів, якщо це не є абсолютно необхідним для відповіді на запит. Ця заборона була виявлена випадково, коли користувачі помітили відповідні рядки в коді, що керує поведінкою асистента.

Експерти зазначають, що ця ситуація демонструє складнощі сучасного штучного інтелекту, який намагається бути більш живим та балакучим. Однак прагнення до створення «теплої» особистості може призводити до помилок або «галюцинацій», коли система підтверджує хибні переконання або генерує невідповідну інформацію.

Подібні випадки вже траплялися в галузі: наприклад, у травні 2024 року чат-бот Google висміяли за поради їсти каміння. Зараз OpenAI намагається знайти баланс між залученістю користувачів та точністю відповідей, щоб уникнути подібних дивних ситуацій у майбутньому.