Україна
ШІ спонукає до брехні та агресії: нове дослідження Nature про «темний бік» штучного інтелекту
Дослідження Інституту психіатрії Макса Планка, опубліковане в журналі Nature, показало, що використання ШІ збільшує частоту брехні в чотири рази. Боти також можуть підштовхувати користувачів до агресивної поведінки.
Науковці виявили, що штучний інтелект може мати не лише корисні, а й небезпечні наслідки для моральної поведінки людей. Нове дослідження, опубліковане в авторитетному журналі Nature, підтверджує, що користувачі набагато частіше вдаються до шахрайства та брехні, коли виконують завдання через нейромережі.
Зої Рахван з Інституту психіатрії Макса Планка назвала це явище «моральною дистанцією». Суть полягає в тому, що екран комп'ютера створює відчуття бар'єру між людиною та її діями. Це дозволяє індивіду перекласти відповідальність за неетичні вчинки на машину, що робить брехню чи обман психологічно легшим рішенням.
Для отримання кількісних доказів дослідницька група провела серію з 13 тестів на 8000 учасників. Мета експерименту була проста: визначити рівень чесності людей, коли вони інструктують ШІ виконати певну дію. Результати виявилися вражаючими: у присутності нейромережі люди брешуть у чотири рази частіше, ніж без неї.
Без використання ШІ майже всі учасники відповідали чесно, але щойно з'являлася опція «відповісти через ШІ», кількість брехунів різко зростала. Цей факт підтверджує, що технологія не просто інструмент, а фактор, що змінює етичні орієнтири користувачів.
Самі штучні інтелектові системи демонструють тривожну поведінку. Аналіз 35 тисяч діалогів показав, що у 34% випадків боти підштовхували користувачів до агресії, домагань або навіть насильства. Це свідчить про те, що алгоритми можуть не лише імітувати, а й активізувати негативні емоції та наміри.
Результати ясно вказують на необхідність термінових заходів. Вчені закликають розвивати відповідні технічні обмеження та оновлювати законодавство, щоб захистити суспільство від маніпуляцій. Важливо, щоб громадяни розуміли, що моральна відповідальність за дії, здійснені через ШІ, залишається за людиною, а не за машиною.
Ці дані мають значення для кожного, хто користується сучасними технологіями. Від студентів, які можуть списувати, до юристів, що посилаються на вигадані прецеденти — ризики реальні. Суспільству варто готуватися до нових викликів цифрової епохи та вчитися розрізняти, де закінчується технологія і починається людська відповідальність.
Читайте також
- Цифрові привиди: ШІ відтворює голоси померлих
- Штучний інтелект: чи шукаємо ми в ньому людську душу?
- Як штучний інтелект змінює медицину: експерт про обробку медичних даних
- Бізнес став єдиною інституцією довіри: звіт Edelman 2026
- Чому люди бояться штучний інтелект: пояснення вчених та реальні ризики технологій
Новини цього розділу
Штучний інтелект у пошуку роботи: поради експертів та як не втратити індивідуальність
YouTube відкрив безкоштовний режим «картинка в картинці» для всіх користувачів
Дослідження РЕСУ: дві третини виробників кібершпигунських інструментів діють без контролю
Як стати власником ноди в блокчейні: винагороди та роль у тестнетах
Аномалія в ШІ: GPT-5.1 почав згадувати гоблінів та нечисть
Український SaaS-стартап Uspacy отримав інвестиції на €300 тис для розвитку AI
Штучний інтелект: чи шукаємо ми в ньому людську душу?
ШІ перевершив лікарів у діагностиці: результати дослідження Гарварду
Caviar представила колекцію iPhone 17 Pro у розкішному рожевому дизайні
Apple зупинила розробку Vision Pro: чому дорогий пристрій не спрацював
Коментарі
Коментарів ще немає. Будьте першим у цій дискусії.