Річард Бренсон і онук Оппенгеймера закликають зупинити ШІ та кліматичну «катастрофу»
Річард Бренсон і онук Оппенгеймера закликають зупинити ШІ та кліматичну «катастрофу»

Річард Бренсон і онук Оппенгеймера закликають зупинити ШІ та кліматичну «катастрофу»

Десятки високопоставлених діячів у бізнесі та політиці закликають світових лідерів розглянути екзистенційні ризики штучного інтелекту та кліматичну кризу.

Засновник Virgin Group Річард Бренсон разом із колишнім Генеральним секретарем ООН Пан Гі Муном і Чарльзом Оппенгеймером — онуком американського фізика Дж. Роберта Оппенгеймера — підписали відкритий лист із закликом до дій проти ескалації небезпек кліматичної кризи, пандемій, ядерної зброї. зброї та некерованого ШІ.

Повідомлення просить світових лідерів прийняти довгострокову стратегію та «рішучість розв'язувати нерозв'язні проблеми, а не просто керувати ними, мудрість приймати рішення на основі наукових доказів і розуму, а також смиренність слухати всіх, кого це стосується».

Підписанти закликали до термінових багатосторонніх дій, у тому числі шляхом фінансування переходу від викопного палива, підписання справедливого договору про пандемію, перезапуску переговорів щодо ядерної зброї та побудови глобального управління, необхідного для того, щоб ШІ став силою добра.

Лист був опублікований у четвер неурядовою організацією The Elders, яку заснували колишній президент Південної Африки Нельсон Мандела та Бренсон для розв'язання глобальних проблем прав людини та захисту миру у всьому світі.

Це повідомлення також підтримується Future of Life Institute, некомерційною організацією, заснованою космологом Массачусетського технологічного інституту Максом Тегмарком і співзасновником Skype Яаном Таллінном, яка прагне спрямовувати трансформаційні технології, такі як штучний інтелект, на користь життю та від великомасштабних ризиків.

Тегмарк сказав, що The Elders і його організація хотіли донести, що, хоча сама по собі технологія не є «злом», вона залишається «інструментом», який може призвести до жахливих наслідків, якщо її швидко розвивати в руках неправильні люди.

«Стара стратегія орієнтації на ефективне використання [коли мова йде про нові технології] завжди полягала в тому, щоб вчитися на помилках», — сказав Тегмарк в інтерв’ю CNBC. «Ми винайшли вогонь, потім ми винайшли вогнегасник. Ми винайшли автомобіль, потім ми вчилися на своїх помилках і винайшли ремінь безпеки, світлофор і обмеження швидкості».

«Техніка безпеки»

«Але коли справа вже переступає поріг і силу, стратегія навчання на помилках стає... ну, помилки були б жахливими», — додав Тегмарк.

«Як ботанік, я вважаю це технікою безпеки. Ми відправляємо людей на Місяць, ми дуже ретельно продумали всі речі, які можуть піти не так, якщо помістити людей у ​​вибухонебезпечні паливні баки та відправити їх кудись, де ніхто не зможе їм допомогти. І тому врешті все вийшло добре».

Далі він сказав: «Це не був «думеризм». Це була техніка безпеки. І нам також потрібна така техніка безпеки для нашого майбутнього, з ядерною зброєю, синтетичною біологією та дедалі потужнішим ШІ».

Лист було опубліковано напередодні Мюнхенської конференції з безпеки, на якій урядовці, військові лідери та дипломати обговорюватимуть міжнародну безпеку на тлі ескалації глобальних збройних конфліктів, включаючи війни Росії та України та Ізраїлю та ХАМАС. Тегмарк відвідає захід, щоб відстоювати зміст листа.

Минулого року Інститут майбутнього життя також оприлюднив відкритий лист, підтриманий провідними діячами, включаючи боса Tesla Ілона Маска та співзасновника Apple Стіва Возняка, у якому закликав такі лабораторії ШІ, як OpenAI, призупинити роботу над навчанням моделям ШІ, потужнішим за GPT- 4 — наразі найдосконаліша модель ШІ від OpenAI Сема Альтмана.

Технологи закликали до такої паузи в розробці штучного інтелекту, щоб уникнути «втрати контролю» над цивілізацією, що може призвести до масового знищення робочих місць і перехитриння людей комп’ютерами.

Источник материала
Поделиться сюжетом