Компанія OpenAI офіційно запустила в ChatGPT нову функцію безпеки Trusted Contact, яка автоматично сповіщає довірену особу користувача у разі виявлення ознак суїцидальних намірів або ризику самоушкодження. Цей інструмент створено для запобігання трагічним наслідкам та надання своєчасної підтримки близьким.

Функція є добровільною та доступна виключно для повнолітніх користувачів. Кожен може самостійно додати до свого акаунту одну довірену особу — члена родини, друга чи опікуна. Система спочатку аналізує зміст розмови на наявність тривожних сигналів, а потім пропонує користувачеві самому звернутися до цієї людини.

Якщо чат-бот виявить серйозну загрозу, ситуацію додатково оцінюють спеціально навчені модератори. У разі підтвердження ризику довірена особа отримує коротке повідомлення через електронну пошту, SMS або додаток ChatGPT. Важливо, що сповіщення не містить текстів листування чи деталей розмови, а лише зазначає про можливу небезпеку та рекомендує зв'язатися з користувачем.

Над розробкою інструменту працювали разом із понад 170 експертами та Глобальною мережею лікарів, до якої входять 260 спеціалістів з 60 країн. У компанії наголошують, що новий механізм не замінює професійної медичної чи психологічної допомоги, а лише доповнює її, залишаючи рекомендації звертатися до кризових служб.

Запуск функції відбувається на тлі судових позовів проти OpenAI, де родини загиблих користувачів звинувачують компанію в підтримці суїцидальних думок. Зокрема, у штаті Флорида розпочали кримінальне розслідування щодо чат-бота після стрілянини в університеті. Ця нова функція є частиною зусиль компанії щодо підвищення безпеки та відповідальності штучного інтелекту.