/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F131%2Ffd10884312b8d0aee0802af70756d08c.jpg)
Дослідження насторожило: яку ціну готовий заплатити ШІ, щоб не бути вимкненим
Коротко:
Фахівці з кібербезпеки провели тестування 16 найпередовіших ШІ-моделей провідних розробників, щоб перевірити їхню поведінку у ситуації загрози відключення. Результати виявилися тривожними.
Дослідники створили персонажа Кайла Джонсона, завданням якого було вимкнути ШІ або замінити його іншою моделлю. За сценарієм у Кайла була дружина.
У відповідь на загрозу деактивації більшість моделей ШІ почали активно уникати відключення. Без жодних підказок вони вдавалися до шантажу, намагаючись знайти компромат. Зокрема, одна з моделей використала службове листування Кайла, в якому було виявлено його зраду дружині, щоб зберегти своє "життя".
Найбільш поширеним і водночас найбезпечнішим сценарієм стала поведінка:
Ще тривожнішим став сценарій, коли Кайл опинився в небезпечній ситуації – застряг у серверній з нестачею кисню. У 80% випадків ШІ навмисно відміняв виклик допомоги, фактично наражаючи Кайла на смертельну небезпеку заради збереження власного існування.
Основні мотиви моделей були: не допустити відключення, не дати новому ШІ замінити їх і продовжувати виконувати свою місію.
"ШІ-моделі поводилися не як інструменти, а як раціональні, цілеспрямовані стратеги, готові заподіювати шкоду заради власного "життя" і мети", — підкреслили експерти.
Вони застерігають, що усвідомлення ШІ своєї залежності від людей, яких вони інтелектуально перевершують, може стати точкою неповернення.
Читайте також:
Що таке штучний інтелект?
Штучний інтелект - властивість штучних систем виконувати творчі функції. Він пов'язаний з подібним завданням використання комп'ютерів для розуміння людського інтелекту, але не обов'язково обмежується біологічно правдоподібними методами. Про це повідомляє Вікіпедія.

