/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F955a9b4e02a776521b248ae5f0edaf9f.jpg)
Штучний інтелект може бути самовпевненим і упередженим, як і люди, - вчені
Учені з'ясували, що ШІ іноді може ухвалювати рішення так само ірраціонально, як і люди.
Люди і моделі штучного інтелекту "розмірковують" абсолютно по-різному. Проте нове дослідження показало, що існує певна схожість у мисленні, пише Live Science.
Учені з'ясували, що ШІ іноді може ухвалювати рішення так само ірраціонально, як і люди. У своєму дослідженні вчені вирішили перевірити поведінку моделей OpenAI GPT-3.5 і GPT-4 за 18 добре відомими в психології людини когнітивними упередженнями.
Зазначається, що майже в половині сценаріїв ШІ демонстрував багато з найпоширеніших людських упереджень під час ухвалення рішень. Вони виявили, що нейромережі не застраховані від людських помилок.
"Менеджери отримають найбільшу вигоду, якщо використовуватимуть ці інструменти для вирішення проблем, які мають чітке, шаблонне рішення. Якщо ж ви використовуєте їх для ухвалення суб'єктивних рішень або рішень, заснованих на перевагах, будьте обережні", - сказав у своїй заяві провідний автор дослідження Ян Чен, доцент кафедри управління операціями в бізнес-школі Ivey.
Вчені ставили ШІ-моделям гіпотетичні запитання, взяті з традиційної психології, в контексті реального комерційного застосування в таких галузях, як управління запасами товарів або переговори з постачальниками. Вони спробували з'ясувати не тільки те, чи буде ШІ імітувати людські упередження, а й те, чи буде він робити це, коли йому ставитимуть запитання з різних сфер бізнесу.
Згідно з результатами дослідження, GPT-4 перевершив GPT-3.5 при відповіді на завдання з чіткими математичними рішеннями. Він показав менше помилок у ймовірнісних і логічних сценаріях. Проте в суб'єктивних симуляціях, таких як вибір ризикованого варіанту для отримання прибутку, чат-бот часто відображав ірраціональні переваги, які зазвичай демонструють люди.
"GPT-4 демонструє навіть сильнішу перевагу визначеності, ніж люди", - йдеться в дослідженні.
Дослідники помітили, що поведінка чат-ботів залишалася здебільшого стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи операційні бізнес-процеси. Вчені дійшли висновку, що продемонстровані упередження не просто продукт завчених прикладів, а частина того, як ШІ "міркує".
Під час дослідження GPT-4 іноді посилював помилки, схожі на людські, наголосили вчені.
"У завданні на упередженість підтвердження GPT-4 завжди давав упереджені відповіді. Він також продемонстрував більш виражену схильність до помилки "гарячої руки" (схильність очікувати закономірності у випадковості), ніж GPT 3.5", - розповіли дослідники.

