Компанія OpenAI представила нову функцію безпеки в ChatGPT, яка дозволяє попереджати близьких людей про можливі ознаки суїцидальних намірів користувача. Цей крок став відповіддю на хвилю судових позовів від родин, чиї родичі вчинили самогубство після спілкування з чат-ботом.

Новий механізм, який отримав назву Trusted Contact, дозволяє повнолітнім користувачам додати до свого акаунту одну довірену особу — родича, друга або опікуна. У разі виявлення потенційної загрози ця людина отримає сповіщення, щоб вчасно втрутитися.

Процес спрацьовування системи складається з кількох етапів. Спочатку алгоритми аналізують текст розмови на наявність тривожних сигналів. Якщо ризик виявлено, користувачеві пропонують самостійно звернутися до довіреної особи. Після цього діалог перевіряють спеціально підготовлені модератори, які приймають остаточне рішення про відправку повідомлення.

У разі підтвердження серйозної загрози довірена особа отримає коротке сповіщення через SMS, електронну пошту або додаток ChatGPT. Важливо, що повідомлення не міститиме жодних деталей приватного листування чи тексту чату. У ньому лише зазначатиметься, що система зафіксувала небезпечні ознаки, і рекомендуватиметься зв'язатися з користувачем.

Над створенням інструменту працювали понад 170 експертів у сфері психічного здоров'я, а також Глобальна мережа лікарів OpenAI, яка об'єднує понад 260 спеціалістів із 60 країн. Компанія наголошує, що ця функція не замінює професійну медичну допомогу, а лише доповнює її.

ChatGPT і надалі рекомендуватиме користувачам звертатися до кризових служб та гарячих ліній у разі небезпечних станів. Новий функціонал спрямований на те, щоб надати додатковий рівень підтримки та запобігти трагічним наслідкам.