Кіберполіція України застерігає громадян від небезпечного тренду: шахраї навчилися миттєво клонувати голоси близьких людей за допомогою штучного інтелекту. З'явилася можливість створювати переконливі фальшиві дзвінки, де голос «сина» чи «батька» вимагає терміново переказати гроші. Це стало можливим завдяки новій функції Custom Voices у чат-боті Grok від компанії Ілона Маска xAI.

Зловмисникам достатньо короткого аудіозапису, щоб навчити нейромережу імітувати інтонації та тембр конкретної людини. Найбільш вразливими є відео та сторіз у відкритих профілях соціальних мереж, де люди часто розмовляють без фону. Саме такий «чистий» голос стає ідеальним матеріалом для навчання алгоритмів, що дозволяє шахраям обдурити навіть пильних родичів.

Щоб уникнути фінансових втрат, поліцейські рекомендують домовитися з близькими про секретне слово, яке відоме лише вам двоє. Якщо вам дзвонить «син» і просить гроші, обов'язково запитайте пароль. Також варто використовувати контрольні запитання, які неможливо дізнатися з інтернету, наприклад, про колір килимка у ванній кімнаті.

Найнадійнішим способом перевірки залишається звичайний дзвінок. Отримавши підозріле голосове повідомлення або дзвінок, не панікуйте, покладіть слухавку і самі передзвоніть цій людині на її звичайний номер. Шахраї завжди намагаються створити паніку і відчуття терміновості, тому спокій і критичне мислення є вашим головним захистом.

Крім клонування голосів, кіберполіція попереджає про нові схеми обману в месенджерах. Користувачі отримують фейкові повідомлення від нібито служби підтримки Signal про «несанкціоновану атаку» та вимогу термінової верифікації. Жоден офіційний месенджер не пише в особисті повідомлення з вимогою підтвердити акаунт за одну хвилину. Якщо вас лякають і підганяють — це майже завжди шахрайство.