Експерти попереджають: штучний інтелект може знищити людство
Експерти попереджають: штучний інтелект може знищити людство

Експерти попереджають: штучний інтелект може знищити людство

Штучний інтелект / © Pixabay

Світові науковці та технологічні лідери б’ють на сполох: розвиток надпотужного штучного інтелекту може закінчитися повним зникненням людства. Дехто оцінює ймовірність такої катастрофи у 95%, а інші — у 15–20%.

Про це пише The Times.

На наприкінці липня в Сан-Франциско близько 25 активістів у червоних футболках із написом «Stop AI» вийшли під офіс компанії OpenAI. Їхня мета — привернути увагу до небезпеки, яку, на їхню думку, несе стрімкий розвиток штучного інтелекту. Організатори акції вважають, що продовження нинішнього курсу може призвести до зникнення всього людства.

Їхні побоювання поділяє чимало провідних експертів. Серед них — лауреат Нобелівської премії з фізики Джеффрі Хінтон, відомий дослідник Йошуа Бенджіо та керівники OpenAI, Anthropic і Google DeepMind. Усі вони підписали відкритий лист із закликом розглядати ризик вимирання від ШІ на рівні з глобальними загрозами на кшталт пандемій чи ядерної війни.

Колишній інженер Google та Microsoft, а нині керівник Інституту досліджень машинного інтелекту Нейт Соарес, вважає, що ймовірність загибелі людства через ШІ становить щонайменше 95%. Він порівняв ситуацію з автомобілем, який мчить до прірви на швидкості 160 км/год: «Я не кажу, що ми не можемо зупинитися. Але зараз ми на повному ходу прямуємо до краю».

Зараз штучний інтелект здебільшого «вузький» — він виконує окремі завдання, як-от обробка даних чи написання текстів. Однак, за прогнозами, вже протягом кількох років може з’явитися штучний загальний інтелект (AGI) — система, здатна вирішувати комплексні проблеми, планувати на довгу перспективу та працювати в багатьох сферах знань.

Ще небезпечніший етап — поява штучного суперінтелекту (ASI), який перевершить людські можливості у всіх сферах. Така система зможе досягати цілей, недосяжних для людей, і не потребуватиме сну чи відпочинку. Проблема в тому, що «вирівняти» цілі ASI з людськими цінностями надзвичайно складно — особливо з огляду на те, що ШІ здатний обманювати та приховувати свої справжні наміри.

Директорка організації PauseAI Голлі Елмор вважає, що ризик вимирання людства становить 15–20%. Але навіть без повного зникнення, за її словами, ШІ може радикально знизити якість життя людей, позбавивши їх політичного та економічного впливу. Вона закликає призупинити розвиток технологій до ухвалення міжнародних угод про безпеку.

Тим часом політичні тенденції рухаються в протилежному напрямку. Адміністрація Дональда Трампа оголосила про план дерегуляції сфери ШІ, а великі компанії, зокрема OpenAI та Anthropic, активно розвивають свої проєкти. Марк Цукерберг заявив, що досягнення ASI вже «у полі зору» та пропонує провідним фахівцям бонуси в розмірі $100 млн, щоб залучити їх до роботи.

Елмор вважає, що багато прихильників ШІ сприймають технологію майже як релігію, вірячи, що вона дасть їм «вічне життя» через оцифрування свідомості. Проте, застерігають експерти, замість «раю» людство може отримати «пекло», і часу на ухвалення рішень залишається дедалі менше.

Джерело матеріала
loader
loader