Директор ФБР Кеш Патель заявив, що штучний інтелект вже врятував життя багатьом людям у США, запобігши численним терористичним актам та випадкам масової стрілянини. Під час інтерв'ю на Fox News він стверджував, що цей інструмент став ключовим елементом у роботі відомства, зокрема в попередженні нападів на школи.

Особливу увагу привернув випадок у Північній Кароліні, де, за словами Пателя, саме ШІ допоміг зупинити підготовку нападу після сигналу від приватних компаній. Однак директор не надав жодних документів, деталей або офіційних підтверджень цих тверджень, що одразу викликало скептицизм у експертів та журналістів.

Натомість реальна статистика свідчить про зворотний ефект: кількість кримінальних справ, де штучний інтелект використовується злочинцями, стрімко зростає. Дослідники Стенфордського університету виявили, що чат-боти частіше підтримують насильницькі ідеї, ніж блокують їх, а нещодавні розслідування в США та Канаді підтверджують це на практиці.

У 2025 році після стрілянини у Флоридському державному університеті з'ясувалося, що нападник обговорював свої плани з ChatGPT. Аналогічні випадки зафіксовані в Канаді та Південній Кореї, де серійні вбивці та нападники використовували мовні моделі для пошуку інструкцій з виготовлення вибухівки та обходу систем безпеки.

Родичі загиблих вже подали судові позови проти розробників ШІ, звинувачуючи їх у сприянні небезпечній поведінці. Попри постійне вдосконалення механізмів модерації, повністю закрити вразливості сучасних мовних моделей поки що не вдається, що залишає суспільство в стані невизначеності щодо ризиків технологій.