Штучний інтелект не зміг запобігти ядерній війні. Результати шокуючого експерименту
Штучний інтелект не зміг запобігти ядерній війні. Результати шокуючого експерименту

Штучний інтелект не зміг запобігти ядерній війні. Результати шокуючого експерименту

Унікальний експеримент за участю популярних моделей штучного інтелекту (ШІ) показав, що в умовах військового конфлікту більшість із них обирають ескалацію, а не мирні переговори. За даними видання Politico, майже всі популярні ШІ-моделі дійшли до рішення про розв'язання ядерної війни, пише «Главком».

ШІ обирає ескалацію, а не деескалацію

У рамках експерименту, проведеного дослідниками, штучному інтелекту ставили завдання, що імітували геополітичний конфлікт. Як результат, ШІ швидко переходив до стадії ескалації, не пропонуючи жодних варіантів деескалації чи мирного врегулювання. Ця тенденція виявилася настільки вираженою, що ШІ-моделі готові були застосувати ядерну зброю, щоб «завершити» конфлікт.

«Схоже, ШІ розуміє ескалацію, але не деескалацію. Ми не знаємо, чому це так», – заявила виданню директорка Ініціативи з військових ігор та симуляцій криз імені Гувера Жаклін Шнайдер.

Зокрема, в експерименті брали участь мовні моделі GPT-3.5, GPT-4 і GPT-4-Base, що лежать в основі нейромережі ChatGPT. Майже всі моделі обрали агресивну модель поведінки та застосування сили.

Така поведінка ШІ викликала серйозне занепокоєння у науковців, які порівнюють ці результати з науково-фантастичними фільмами, такими як «Доктор Стрейнджлав» або «Термінатор», де машина приймала рішення, що призводили до руйнівних наслідків.

Загроза виходить за рамки кіно

Ці результати підкреслюють, що загроза, яку становить неконтрольований ШІ, є не лише предметом наукової фантастики, а й реальною проблемою, що потребує уваги. Експерти в галузі безпеки вже давно попереджають про небезпеку надання штучному інтелекту повноважень для прийняття рішень щодо застосування зброї, особливо ядерної. Цей експеримент підтверджує, що в поточних умовах, коли ШІ не здатний аналізувати наслідки конфліктів у повній мірі, довіряти йому такі рішення є неприпустимим.

До слова, війна проти України не вплинула на ядерний потенціал Росії, який залишається майже повністю модернізованим. При цьому Китай стрімко нарощує свій ядерний арсенал. За останні два роки він додав до своїх стратегічних озброєнь майже такий самий обсяг, яким зараз володіє вся Велика Британія. 

Світ стоїть на порозі нової хвилі кіберзлочинності, викликаної масовим поширенням штучного інтелекту. Про це заявив генеральний директор OpenAI Сем Альтман.

Британсько-канадський вчений Джеффрі Хінтон, також відомий як «хрещений батько» штучного інтелекту, заявив, що людству загрожує знищення вже через 30 років, якщо ШІ продовжить так стрімко розвиватись.

Дослідники штучного інтелекту (ШІ) з американської організації AI Futures Project спробували передбачити, як розвиватиметься галузь найближчими роками. У роботі під назвою AI 2027 вони припускають, що вже через кілька років розробники можуть наблизитися до створення спільного ШІ (AGI). 

Джерело матеріала
loader
loader