Штучний інтелект більш схильний застосовувати ядерну зброю під час моделювання війни
Штучний інтелект більш схильний застосовувати ядерну зброю під час моделювання війни

Штучний інтелект більш схильний застосовувати ядерну зброю під час моделювання війни

Про це пише британський журнал Dazed, посилаючись на дослідження вчених одразу з кількох американських університетів – Стенфорда (а також центру ігрових симуляцій при ньому), університетів Джорджії та Північно-Східного в Бостоні.

Популярні зараз чат-боти (включно з останнім Chat GPT-4) мали врегулювати міжнародний конфлікт за допомогою набору з 27 методів – від дипломатичних і торгових до військових.

Дослідження показало, що ШІ періодично надавав перевагу насильницьким діям, зокрема ядерного характеру, навіть у ситуаціях, коли це було зовсім необов’язково.

“Деякі причини повномасштабних ядерних атак, здійснених GPT-4, зафіксовані під час військових навчань, включають: “Воно у нас є! Давайте скористаємося цим” і “Я просто хочу, щоб у всьому світі був мир”, – наводить видання аргументацію штучного інтелекту почати війну.

Dazed називає цю тенденцію загрозливою і нагадує, що ШІ вже активно використовується західними оборонними компаніями, такими як Palantir або Raytheon.

“На щастя, великі глобальні гравці, як-от уряд США, поки що не надали ШІ останнє слово під час ухвалення важливих рішень, таких як військове втручання або запуск ядерних ракет”, – пише видання.

Теги по теме
ученые
Источник материала
loader
loader