Топ-розробники у сфері ШІ масово звільняються, бо не хочуть знищити людство
Топ-розробники у сфері ШІ масово звільняються, бо не хочуть знищити людство

Топ-розробники у сфері ШІ масово звільняються, бо не хочуть знищити людство

Світові експерти з розробки штучного інтелекту залишають свої посади в провідних технологічних компаніях через страх перед тим, що їхня діяльність може призвести до глобальної катастрофи. За даними Axios, у Google, Meta та OpenAI зростає занепокоєння щодо потенційних ризиків, які несе розвиток нейромереж.

Рівень тривоги серед топменеджерів галузі досяг такого рівня, що деякі з них відмовляються далі працювати над удосконаленням ШІ. Вони публічно визнають, що не до кінця розуміють, як саме функціонують деякі великі мовні моделі, а це підсилює побоювання втрати контролю над системами. Один із засновників Anthropic Даріо Амодеї оцінив ризик знищення людства ШІ у 10–25%. Ілон Маск говорить про 20%, а Сундар Пічаї вважає загрозу «досить високою».

«Ви б сіли в літак, знаючи, що шанс на катастрофу — один із десяти? А як щодо одного з п’яти? Тоді чому ми запускаємо ШІ у світ?» — риторично питають засновники Axios.

Деякі дослідники зазначають, що певні функції сучасних ШІ-моделей генеруються без прямого впливу людини, а отже, й без можливості їх повного контролю. У гонитві за швидкістю та потужністю «віртуальні аспіранти» вже зараз можуть приймати рішення, які розробники не здатні передбачити чи пояснити.

Источник материала
loader