Компанія OpenAI офіційно запустила функцію «Довірена особа» для свого чат-бота ChatGPT, спрямовану на захист життя користувачів. Ця нова система призначена для екстреного сповіщення близьких людей, якщо алгоритм виявить у діалогах ознаки потенційного самоушкодження або загрози життю.

Функція є добровільною: дорослий користувач сам обирає довірену особу, якою може бути друг або член родини. Коли система фіксує небезпечні сигнали, вона автоматично надсилає сповіщення обраному контакту через електронну пошту, SMS або спеціальний застосунок. Важливо, що повідомлення не містять деталей розмови, а лише закликають звернути увагу на ситуацію.

Для забезпечення надійності кожен випадок, який фіксує штучний інтелект, перевіряється людиною протягом приблизно години. OpenAI поєднує автоматичні системи моніторингу з ручною перевіркою, щоб уникнути хибних тривог та гарантувати своєчасну реакцію на реальні загрози.

Запуск цієї функції відбувається на тлі серйозних судових позовів до компанії. Родина жертв самогубства та сім'ї потерпілих у стрілянці в канадській школі звинувачують OpenAI у тому, що система не повідомила поліцію про підозрілу активність підлітків, а лише заблокувала їхній акаунт. Позивачі стверджують, що це дозволило зловмиснику створити новий профіль і продовжити дії.

Варто зазначити, що OpenAI вже впроваджувала інші заходи безпеки, зокрема батьківський контроль для підлітків та автоматичні рекомендації звернутися до професійної допомоги при небезпечних розмовах. Новий крок підкреслює зусилля компанії щодо балансу між інноваціями та етикою у відповідь на зростаючу стурбованість суспільства щодо впливу ШІ на психічне здоров'я.

Ця ініціатива є важливим етапом у формуванні довіри до технологій штучного інтелекту. Створення механізмів підтримки та безпеки дозволяє компанії демонструвати відповідальність перед користувачами та їхніми близькими в умовах нових викликів цифрової епохи.