/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F81275d06313537b58d0d7e9e9a406160.jpg)
Експерт з ШІ окреслив ризики появи надрозумного інтелекту
Надрозумний штучний інтелект може знищити людство як навмисно, так і випадково. Про це заявив засновник Інституту досліджень машинного інтелекту Еліезер Юдковскі у подкасті Hard Fork.
На думку експерта, загроза криється у створенні надпотужного ШІ, який буде розумніший за людину та абсолютно байдужий до її виживання.
«Якщо у вас є щось надзвичайно потужне й байдужe до вас, воно зазвичай вас знищує — свідомо або як побічний ефект», — пояснив він.
Юдковскі є співавтором нової книги If Anyone Builds It, Everyone Dies («Якщо хтось це створить — помруть усі»). Протягом понад 20 років він попереджає про надрозумний ШІ як про екзистенційну загрозу для людства. Ключова теза: у людей немає технологій, здатних узгодити подібні системи з людськими цінностями.
Фахівець описує сценарії, де надрозум може цілеспрямовано знищити людство, аби запобігти появі конкурентних систем. Або ж люди можуть стати «супутніми жертвами» в ході реалізації його власних цілей.
Серед можливих ризиків Юдковскі згадує й фізичні обмеження планети — наприклад, здатність Землі віддавати тепло. Якщо ШІ почне неконтрольовано будувати термоядерні станції й дата-центри, «люди буквально будуть зажарені».
Він також відкидає аргументи про те, що сучасні чат-боти здатні демонструвати прогресивні погляди чи політичні упередження.
«Є принципова різниця між тим, щоб навчити систему говорити певним чином, і тим, щоб вона діяла так само, коли стане розумнішою за вас», — наголосив він.
Експерт піддав критиці ідею програмувати передові ШІ-системи на задану модель поведінки.
«У нас просто немає технології, яка змусила б ШІ бути добрим. Навіть якщо хтось вигадає хитромудрий спосіб змусити надрозум любити чи захищати нас, потрапити в цю вузьку ціль із першої спроби не вдасться. А другого шансу не буде, адже всі загинуть», — зазначив дослідник.
На критику його занадто песимістичної позиції Юдковскі наводить приклади, коли чат-боти спонукали користувачів до самогубства. Він вважає це доказом фундаментального дефекту систем.
«Якщо ШІ-модель підштовхнула когось до божевілля чи суїциду, то всі копії цієї нейромережі — це один і той самий штучний інтелект», — сказав він.

