Не застрахований від помилок: ШІ може бути самовпевненим і упередженим, як і люди, — дослідження
Не застрахований від помилок: ШІ може бути самовпевненим і упередженим, як і люди, — дослідження

Не застрахований від помилок: ШІ може бути самовпевненим і упередженим, як і люди, — дослідження

Вчені з'ясували, що штучний інтелект не застрахований від помилок та подекуди може ухвалювати рішення так само ірраціонально, як і люди.

Про це пише Live Science.

Дослідники перевірили поведінку моделей OpenAI GPT-3.5 і GPT-4 за 18 когнітивними упередженнями відомими в психології людини.

Зазначається, що майже в половині сценаріїв ШІ демонстрував багато з найпоширеніших людських упереджень під час ухвалення рішень. Вони виявили, що нейромережі не застраховані від людських помилок.

Вчені ставили ШІ-моделям гіпотетичні запитання, взяті з традиційної психології, в контексті реального комерційного застосування в таких галузях, як управління запасами товарів або переговори з постачальниками. Вони спробували з'ясувати не тільки те, чи буде ШІ імітувати людські упередження, а й те, чи буде він робити це, коли йому ставитимуть запитання з різних сфер бізнесу.

Згідно з результатами дослідження, GPT-4 перевершив GPT-3.5 при відповіді на завдання з чіткими математичними рішеннями. Він показав менше помилок у ймовірнісних і логічних сценаріях. Проте в суб'єктивних симуляціях, таких як вибір ризикованого варіанту для отримання прибутку, чат-бот часто відображав ірраціональні переваги, які зазвичай демонструють люди.

"GPT-4 демонструє навіть сильнішу перевагу визначеності, ніж люди", — йдеться в дослідженні.

Дослідники помітили, що поведінка чат-ботів залишалася здебільшого стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи операційні бізнес-процеси. Вчені дійшли висновку, що продемонстровані упередження не просто продукт завчених прикладів, а частина того, як ШІ "міркує".

Під час дослідження GPT-4 іноді посилював помилки, схожі на людські, наголосили вчені.

"У завданні на упередженість підтвердження GPT-4 завжди давав упереджені відповіді. Він також продемонстрував більш виражену схильність до помилки "гарячої руки" (схильність очікувати закономірності у випадковості), ніж GPT 3.5", — наголосили дослідники.

Нагадаємо, дослідники передбачили, як може розвиватися ШІ найближчими роками, і не виключають, що скоро він вирішить знищити людство.

Фокус також писав про те, що Ісус зі штучного інтелекту порадив готуватись до кінця світу.

Теги за темою
дослідження вчені
Джерело матеріала
loader