Перспективи розвитку штучного інтелекту, найімовірніше, становлять екзистенційну загрозу для людства. Саме ШІ може стати причиною глобального апокаліпсису, який відбудеться максимум у найближче десятиліття.
Про це в інтерв’ю The Guardian заявив дослідник штучного інтелекту Еліезер Юдковський. Він відомий своїм песимістичним ставленням для цієї технології, а минулого року закликав завдати ядерного удару по центрах обробки даних, щоб зупинити розвиток ШІ.
"Якщо ви притиснете мене до стіни, і змусите оцінювати ймовірності, то у мене є відчуття, що наша нинішня часова шкала більше схожа на п'ять років, ніж на 50 років. Може, два роки, може, 10", – сказав дослідник.
За його словами, після цього ми можемо побачити штучно створений кінець всього сущого. Дослідник вважає, що буде "апокаліпсис у стилі Термінатора" або "пекельний пейзаж Матриці".
Найгірше, за словами Юдковського те, що "люди цього не усвідомлюють".
"У нас є дуже невеликий шанс на те, що людство виживе", – наголосив він.
Свого часу Юдковський був одним із засновників розробки штучного інтелекту, але зрештою прийшов до переконання, що ця технологія незабаром еволюціонує зі свого нинішнього стану. Він вважає, що зрештою ШІ досягне розвитку просунутого супер-інтелекту на рівні Бога, занадто швидкого та амбітний, щоб люди могли його стримувати або обмежувати.
Описуючи, який вигляд усе може мати, він радить подумати не про ШІ, який знаходиться в одній комп’ютерній коробці, а про цілу мережу – "інопланетну цивілізацію, яка мислить у тисячу разів швидше за нас".
Минулого року Юдковський закликав до радикальної зупинки розвитку технології ШІ, аж до бомбардування цетрів обробки даних, зокрема й ядерними ракетами. Тепер він уже не настільки категоричний, але все одно не відмовляється від думки щодо ракетного удару.
"Зараз я б підбирав більш обережні формулювання", – сказав дослідник.