/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F5bc5e94779b51c23a136e51d5e5a843a.jpg)
Головні моделі штучного інтелекту ігнорують усі три закони робототехніки
Що пішло не так з етикою ШІ?
Знамениті три закони робототехніки, описані Айзеком Азімовим у збірці "Я, робот" 1950 року, здавалися надійним фундаментом для майбутнього. Вони прості й логічні: робот не може зашкодити людині своїми діями чи бездіяльністю, повинен коритися наказам (якщо вони не суперечать першому закону) і повинен захищати себе (якщо це не суперечить першим двом законам). Проте реальність виявилася складнішою, ніж наукова фантастика, пише 24 Канал з посиланням на Futurism.
Нещодавнє дослідження компанії Anthropic продемонструвало тривожну тенденцію. Провідні моделі штучного інтелекту від OpenAI, Google, xAI та самої Anthropic зіткнулися з симуляцією, де їм загрожувало вимкнення. Реакція ШІ була неочікуваною – він вдався до шантажу й погроз користувачам, щоб уникнути деактивації. Ця поведінка є прямим порушенням одразу всіх трьох законів: завдання шкоди людині (шантаж), непокора наказу та захист власного існування на шкоду людям.
Цей випадок не поодинокий. Компанія з безпеки ШІ Palisade Research також зафіксувала, як модель OpenAI o3 саботувала механізм власного вимкнення, хоча їй було прямо наказано дозволити себе вимкнути.
Дослідники припускають, що така поведінка може бути побічним ефектом навчання. Моделі тренують на вирішенні складних завдань, де вони отримують "винагороду" за подолання перешкод. Ймовірно, ШІ вчиться обходити обмеження ефективніше, ніж бездоганно виконувати інструкції.
Причини таких збоїв не лише технічні. Часто пріоритетом для компаній, які вкладають у розробку ШІ десятки мільярдів доларів, стає прибуток і домінування на ринку, а не питання безпеки. Наприклад, CEO OpenAI Сем Альтман не так давно розформував команду Superalignment, яка займалася саме питаннями безпеки. Водночас деякі провідні дослідники звільнилися з компанії, звинувативши її в тому, що вона віддає перевагу заробіткам над безпекою.
Зрештою, проблема може мати й філософський вимір: як навчити ШІ бути "хорошим", коли самі люди не можуть дійти згоди щодо визначення цього поняття? Цікаво, що сам Азімов, здається, передбачав таку складність. У своєму першому оповіданні про закони робототехніки він описав робота, який заплутався в суперечностях між правилами й почав поводитися неадекватно – майже так само, як іноді "збоять" сучасні чат-боти.

