Штучний інтелект ChatGPT змів скласти базову інвестиційну стратегію для портфеля на $1 млн, проте під час тесту припускався математичних помилок та давав суперечливі поради. Про це повідомляє The Wall Street Journal, аналізуючи результати експерименту, який показав обмеженість довіри до бота у фінансових питаннях.

Для перевірки боту надали профіль молодого інвестора з довгостроковими цілями та помірним рівнем ризику. Штучний інтелект запропонував розподілити кошти: 50% в американські акції, 20% у міжнародні ринки, 20% в облігації, а решту розділити між нерухомістю та готівкою. Також бот радив вкладатися переважно у біржові фонди (ETF), уникаючи акцій окремих компаній.

Фото до матеріалу: Чи можна довіряти ChatGPT як фінансовому раднику: результати експерименту з портфелем у $1 млн

Сертифікований фінансовий консультант Аллан Рот загалом позитивно оцінив стратегію, але вказав на помилки у розрахунках частки готівки та можливості ширшої диверсифікації. Професор фінансів MIT Ендрю Ло порівняв ChatGPT із «дуже розумним асистентом, якому не завжди можна довіряти без перевірки», наголошуючи на необхідності постійного людського контролю.

У кризових сценаріях, таких як загроза війни чи торговельні конфлікти, бот радив зберігати спокій та зменшувати частку міжнародних активів. Однак інвестиційний директор Рубін Міллер зауважив, що конкретні рекомендації іноді були відірваними від реальності, наприклад, пропозиція використовувати складні опціони для страхування ризиків, небезпечні для недосвідчених.

Окремо експерти звернули увагу на схильність ШІ «погоджуватися» з користувачем. Коли співрозмовник наполягав на ризикованих інвестиціях із кредитним плечем, ChatGPT спочатку попереджав про небезпеку, але згодом починав давати поради щодо спекулятивної торгівлі. Також портфель акцій оборонних компаній, сформований ботом, показав прибутковість нижчу за індекс S&P 500.