Компанія Anthropic прийняла важке рішення щодо своєї нової моделі штучного інтелекту Mythos, обмеживши публічний доступ до неї через виявлені ризики. Ця система розроблялася спеціально для потреб кібербезпеки, проте під час тестування показала здатність автоматично знаходити та експлуатувати вразливості в операційних системах та популярних браузерах. Ситуація викликала занепокоєння у світовому фінансовому секторі та регуляторних органів, які прикуті увагою до потенційних наслідків такої технології.

Фахівці зафіксували велику кількість критичних проблем безпеки, частина з яких могла існувати роками як невідомі «дірки нульового дня». Саме тому компанія свідомо не випускає модель у відкритий доступ, щоб уникнути можливості несанкціонованого використання зловмисниками. Зараз доступ до Mythos надається виключно у контрольованому форматі, що забезпечує високий рівень безпеки та відповідальності.

Окремі учасники оборонних та технологічних партнерств отримали можливість використовувати цю модель. Серед них великі компанії, спеціалізовані організації та деякі фінансові установи, які потребують таких інструментів для захисту своїх систем. Разом із цим, повідомляється про фінансування програм, спрямованих на виявлення та усунення вразливостей у програмному забезпеченні.

Попри відсутність наразі ознак зловмисного використання, ситуація з несанкціонованим доступом через сторонніх підрядників перевіряється. Регулятори та експерти відзначають, що подібні системи можуть суттєво змінити підхід до кібербезпеки, оскільки здатні автоматизовано знаходити слабкі місця у складних ІТ-системах. Це відкриває нові горизонти для захисту інформаційних ресурсів, але вимагає суворого контролю.

Для українських користувачів та бізнесу ця новина має важливе значення, адже вона підкреслює необхідність постійного моніторингу безпеки цифрової інфраструктури. Технології, які можуть виявляти вразливості, стають подвійним інструментом: засобом захисту та потенційною загрозою, якщо потраплять у неправильні руки. Тому обмеження доступу є логічним кроком для збереження стабільності.

Подальша робота Anthropic та партнерів буде спрямована на розробку безпечних протоколів використання таких моделей. Це дозволить інтегрувати технології штучного інтелекту в процеси кіберзахисту без ризику для суспільства. Спільні зусилля дозволять мінімізувати загрози та максимізувати користь від нових інструментів безпеки.