/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F4ac508b896b7109073a57c4f80ba93e1.jpg)
OpenAI ставить усе людство під загрозу вимирання, каже відомий учений
Чи справді суперінтелект несе смертельну загрозу?
Занепокоєння щодо безпеки та приватності штучного інтелекту зростає на тлі інцидентів, коли люди, особливо неповнолітні, формують нездорові стосунки з чат-ботами, що іноді призводить до трагічних наслідків. Генеративний ШІ стрімко еволюціонував: від помилок та "галюцинацій" до створення надреалістичних зображень і відео, через що стає все важче відрізнити правду від вигадки, пише 24 Канал з посиланням на Windows Central.
На думку деяких експертів, людство може перебувати на межі катастрофи, якщо не вжити рішучих заходів. Співзасновник Інституту досліджень машинного інтелекту (MIRI) Еліезер Юдковський вважає, що популярні сьогодні рішення не здатні розв'язати проблему екзистенційної загрози. Юдковський, який вивчає ризики просунутого ШІ з початку 2000-х років, пропонує єдиний вихід – міжнародний договір, що передбачає повну зупинку розробки систем штучного інтелекту. Він переконаний: якщо його книга про дружній штучний інтелект допоможе досягти цієї мети, її можна буде вважати успішною. Все інше він називає лише "сумним втішним призом на шляху до смерті".
Юдковський стверджує, що такі підходи, як створення безпечних лабораторій для ШІ чи диференційоване регулювання ризиків, є лише відволікаючими факторами, що не вирішують фундаментальних проблем.
Він навіть назвав OpenAI, найпопулярнішу лабораторію, котра стоїть за популярним чат-ботом ChatGPT, найгіршою серед тих, хто женеться за примарним успіхом у сфері ШІ.
Його побоювання поділяє латвієць Роман Ямпольський, дослідник безпеки ШІ та директор Лабораторії кібербезпеки в Університеті Луїсвілля. Він оцінив імовірність того, що ШІ знищить людство, у 99,999999%. Ямпольський попередив, що єдиний спосіб уникнути такого результату – взагалі не створювати штучний інтелект. Додаткове занепокоєння викликає той факт, що ChatGPT за відповідним запитом може згенерувати покроковий план захоплення світу.
Сем Альтман, звісно ж, не згоден
На противагу цим похмурим прогнозам генеральний директор OpenAI Сем Альтман висловлює оптимізм. Він припускає, що загальний штучний інтелект (AGI), який може бути створений протягом наступних п'яти років, минеться без значного впливу на суспільство.
Юдковський категорично не згоден з такими заявами. Він стверджує, що будь-який суперінтелект, розроблений за сучасними методами, призведе до загибелі людства. У своїй книзі він зазначає, що якщо будь-яка компанія чи група у світі створить суперінтелект на основі поточних технологій, то помруть усі й усюди. Тому він закликає політиків до рішучих дій, називаючи безвідповідальною вичікувальну позицію та відкладання регулювання.
На його думку, якщо ризики вже існують, то заходи безпеки мають бути впроваджені негайно, незалежно від того, коли саме відбудуться технологічні прориви.
Хто такий Еліезер Юдковський?
Еліезер Шломо Юдковський – американський футуролог, письменник, блогер та дослідник штучного інтелекту. Він відомий своєю роботою над створенням дружнього ШІ та попередженнями про екзистенційні ризики, пов'язані з неконтрольованим розвитком надлюдського інтелекту.
Юдковський є співзасновником та науковим співробітником Інституту дослідження машинного інтелекту (Machine Intelligence Research Institute, MIRI) в Каліфорнії. Що цікаво, він є фактично самоуком, не маючи формальної вищої освіти в галузі ШІ.
Хоча спочатку він був позитивно налаштований щодо ШІ, з часом його погляди стали більш песимістичними. Будучи одним із піонерів у розробці ШІ, він дійшов висновку, що технологія може швидко еволюціонувати до неконтрольованого надлюдського рівня. Він давно попереджає, що такий ШІ, мислячи в тисячі разів швидше за людей, може становити загрозу для виживання людства. Юдковський вважає, що шанс людства на виживання в такому сценарії "дуже невеликий".
Це не перший раз, коли Юдковський закликає до зупинки розвитку ШІ. Найбільш резонансною стала його пропозиція бомбардувати дата-центри, навіть із застосуванням ядерної зброї, щоб запобігти появі надрозумного ШІ, який міг би знищити все живе на Землі.
Але ім'я вченого, ймовірно, знайоме вам зовсім з іншого боку. У неакадемічних колах Юдковський широко відомий як автор фанфіку "Гаррі Поттер і методи раціональності":
- Метою цього творю була популяризація раціонального мислення та когнітивної науки.
- Юдковський написав книгу, щоб допомогти людям навчитися мислити раціонально.
- У цій альтернативній історії Гаррі Поттер виховується не у Дурслів, а в родині оксфордського професора. Він постає як раціоналіст, який намагається зрозуміти магію за допомогою наукового методу.
- Книга, що публікувалася з 2010 по 2015 рік, здобула величезну популярність по всьому світу.
- Вона стала інструментом для навчання критичному мисленню, а автор навіть влаштовував "іспити" для читачів, пропонуючи їм розв'язувати сюжетні проблеми за допомогою логіки.
Юдковський також є співзасновником блогу LessWrong, присвяченого розвитку людської раціональності та подоланню когнітивних упереджень, і автором низки наукових та науково-популярних статей.

