/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F894f2c68f3af41d0c1d5bbf479ae5970.jpg)
Топ-розробники у сфері ШІ масово звільняються, бо не хочуть знищити людство
Світові експерти з розробки штучного інтелекту залишають свої посади в провідних технологічних компаніях через страх перед тим, що їхня діяльність може призвести до глобальної катастрофи. За даними Axios, у Google, Meta та OpenAI зростає занепокоєння щодо потенційних ризиків, які несе розвиток нейромереж.
Рівень тривоги серед топменеджерів галузі досяг такого рівня, що деякі з них відмовляються далі працювати над удосконаленням ШІ. Вони публічно визнають, що не до кінця розуміють, як саме функціонують деякі великі мовні моделі, а це підсилює побоювання втрати контролю над системами. Один із засновників Anthropic Даріо Амодеї оцінив ризик знищення людства ШІ у 10–25%. Ілон Маск говорить про 20%, а Сундар Пічаї вважає загрозу «досить високою».
«Ви б сіли в літак, знаючи, що шанс на катастрофу — один із десяти? А як щодо одного з п’яти? Тоді чому ми запускаємо ШІ у світ?» — риторично питають засновники Axios.
Деякі дослідники зазначають, що певні функції сучасних ШІ-моделей генеруються без прямого впливу людини, а отже, й без можливості їх повного контролю. У гонитві за швидкістю та потужністю «віртуальні аспіранти» вже зараз можуть приймати рішення, які розробники не здатні передбачити чи пояснити.

