Развитие многоликого ИИ: где опасность во время "идеального шторма"
Развитие многоликого ИИ: где опасность во время "идеального шторма"

Развитие многоликого ИИ: где опасность во время "идеального шторма"

Оправдан ли оптимизм Гейтса?.

Благодаря развитию искусственного интеллекта (ИИ) человечество придет к трехдневной рабочей неделе - считает миллиардер Билл Гейтс, один из основателей Microsoft.

Правда, некоторых работников при этом придется переучивать.

И этим уже должны заниматься правительства и частные компании.

В общем, Гейтс считает, что влияние ИИ на человечество не окажется таким драматичным, как промышленная революция.

Однако точно должно быть таким же выдающимся и революционным, как появление в свое время персональных компьютеров.

Впрочем, он осознает и риски ИИ, включая "дезинформацию и дипфейки, угрозы безопасности, изменения на рынке труда и влияние на образование", как отметил ранее в личном блоге.

"Но в чем точно можно быть уверенным, так это в том, что будущее искусственного интеллекта не такое мрачное, как думают некоторые, и не такое радужное, как думают другие.

Риски реальны, но я оптимистичен, что ими можно управлять", - заметил миллиардер.

Однако идея по сокращению времени труда Гейтсу не принадлежит.

О возможности перехода на трехдневную рабочую неделю с развитием ИИ говорит и глава JPMorgan Джейми Даймон.

Впрочем, не все полны такого же оптимизма.

Как сообщило издание The Guardian, группа старших экспертов в преддверии первого саммита по безопасности ИИ в ноябре предупредила: мощные системы искусственного интеллекта угрожают социальной стабильности.

Компании, занимающиеся искусственным интеллектом, должны нести ответственность за ущерб, причиненный их продуктами.

Кстати, на саммит безопасности по ИИ собирались пригласить, в частности, Джеффри Гинтона и Йошуа Бенгио, двух из трех "крестных родителей искусственного интеллекта".

А профессор информатики Монреальского университета Бенджио присоединился к нему и тысячам других экспертов, подписав письмо и призывая к мораторию на гигантские эксперименты по развитию ИИ.

Они предупреждают: небрежно разработанные системы искусственного интеллекта угрожают "усилить социальную несправедливость, подорвать наши профессии, взорвать социальную стабильность, способствовать широкомасштабной преступной или террористической деятельности и ослабить наше общее понимание реальности, которая является основой общества".

Переход ИИ "на сторону зла".

Участники первого в истории AI Safety Summit по безопасности в Великобритании выделили два основных риска ИИ: потенциальное умышленное неправильное использование (например, когда системы ИИ применяют для мошеннических действий); непреднамеренные проблемы контроля (например, проблемы в работе системы ИИ, модерирующей комментарии на веб-сайте).

Особое внимание этим рискам уделяется в сфере кибербезопасности и борьбы с дезинформацией.

Как пояснила системный аналитик Наталья Глоба, для оценки рисков ИИ и его возможного влияния на войну в Украине и гипотетическую Третью мировую нужно вспомнить понятие "идеального шторма".

"Мы должны оценивать весь контекст событий вокруг нас.

Представим себе, что Украина - некий кораблик, движущийся сам по себе.

И вот он попадает в сильный шторм, на кораблик нападают пираты.

А те, на кого мы надеялись - где-то недалеко авианосец Америка, далеко авианосец Китай и руководитель пиратской флотилии Россия - тоже попадают в шторм, когда нужно заботиться о собственной безопасности.

У нас старенькое судно, дырявое снаряжение, но оказалась отчаянная команда.

Но какова наша основная проблема? Это идеальный шторм.

Задача, стоящая перед нами - отбиться от пиратов и выстоять в идеальном шторе.

Для этого нужно понимать, что это за шторм, а не строить стратегию только поборьбе с пиратами", - отметила она в интервью для UKRLIFE с Людмилой Немырей.

По словам аналитика, первый из супетрендов ныне - это переход к цифровой эпохе.

Второй - изменение климатических и биологических условий существования человечества.

Третий - эпидемия ревизионизма.

Однако остановимся на первом пункте.

В меньшей степени от информационного цунами страдают автократические режимы и диктатуры, продолжила она.

И в очень большой - демократические, ибо в последнее время здесь плохо работает "защита от дурака",то есть политика, основанная на доказательствах, а не на чьем-то представлении (Трамп - тому яркий пример).

И вот здесь, в частности, включается опасность ИИ.

"Во всей красе" возникла история с израильской войной, это разрушение права: каждый верит в то, во что ему хочется верить.

Вываливается куча разных фактов, но они преимущественно игнорируются сторонами.

Сейчас это просто тотальное явление.

Кто поддерживает Палестину в США? Профессора-леваки, люди, способные отличить факт от представления.

Но для них больше значит собственное представление.

Политика, не основанная на доказательствах, очень опасна", - сказала ученый.

На этом фоне более угрожающим выглядит создание с помощью ИИ дипфейков высокого качества (пока таких нет) - которые будут очень похожи на реальность и будут использоваться нечистыми на руку людьми.

"В этом году мы уже имеем генеративно-лингвистические модели ИИ.

К гадалке не ходи, что в следующем избирательном году они позволят людям изменить реальность до неузнаваемости: эти модели могут создавать видеоряд, который сейчас еще легко отличается от оригинала.

Но большой вопрос: это еще намеренно и могут ли эти модели создать видеоряд с человеком, который практически не отличается от реальности", - предупредила она.

Какие меры будут принимать.

Для преодоления негативных последствий развития ИИ участники AI Safety Summit предлагают миру осуществлять ряд мер.

Это, в частности, сотрудничество для преодоления рисков ИИ и содействие тому, чтобы его проектировали, разрабатывали, запускали и использовали безопасным способом (когда ИИ ориентирован на человека, надежный и ответственный).

Это касается и государственных услуг, таких как здравоохранение и образование, продовольственная безопасность, наука, энергетика, биоразнообразие и климат.

Разработчики мощных и потенциально вредных систем ИИ должны обеспечить прозрачность и подотчетность планов мониторинга, разрешить измерения и смягчение вредных последствий.

Рекомендуются и некоторые политические решения: повышение прозрачности игроков рынка систем ИИ, установление показателей оценки, формирование инструментов для проверки безопасности, содействие развитию возможностей государственного сектора и научных исследований в этой сфере.

Чтобы реализовать задачи, определенные в Декларации саммита, государства-члены будут сотрудничать для содействия научным исследованиям безопасности ИИ - проводить международные форумы, посвященные вопросам безопасности.

Такое сотрудничество не только улучшит контроль, но и должно быть направлено на формирование политики укрепления развития ИИ в помощь развивающимся странам.

Государства могут классифицировать риски ИИ на основе национальных обстоятельств и применимой правовой базы.

Однако участники саммита отметили необходимость общих принципов и кодексов поведения.

"Мы должны следовать мировым трендам развития инноваций.

Когда речь идет о кибербезопасности, ИИ может как значительно повышать защищенность систем, так и упрощать процесс проведения кибератак и делать их более успешными.

Важно найти баланс между регулированием этой технологии, при этом не останавливая ее развитие", - отметил заместитель главы Минцифры Георгий Дубинский.

Ирина Носальская.

Источник материала
loader
loader