Оправдан ли оптимизм Гейтса?.
Благодаря развитию искусственного интеллекта (ИИ) человечество придет к трехдневной рабочей неделе - считает миллиардер Билл Гейтс, один из основателей Microsoft.
Правда, некоторых работников при этом придется переучивать.
И этим уже должны заниматься правительства и частные компании.
В общем, Гейтс считает, что влияние ИИ на человечество не окажется таким драматичным, как промышленная революция.
Однако точно должно быть таким же выдающимся и революционным, как появление в свое время персональных компьютеров.
Впрочем, он осознает и риски ИИ, включая "дезинформацию и дипфейки, угрозы безопасности, изменения на рынке труда и влияние на образование", как отметил ранее в личном блоге.
"Но в чем точно можно быть уверенным, так это в том, что будущее искусственного интеллекта не такое мрачное, как думают некоторые, и не такое радужное, как думают другие.
Риски реальны, но я оптимистичен, что ими можно управлять", - заметил миллиардер.
Однако идея по сокращению времени труда Гейтсу не принадлежит.
О возможности перехода на трехдневную рабочую неделю с развитием ИИ говорит и глава JPMorgan Джейми Даймон.
Впрочем, не все полны такого же оптимизма.
Как сообщило издание The Guardian, группа старших экспертов в преддверии первого саммита по безопасности ИИ в ноябре предупредила: мощные системы искусственного интеллекта угрожают социальной стабильности.
Компании, занимающиеся искусственным интеллектом, должны нести ответственность за ущерб, причиненный их продуктами.
Кстати, на саммит безопасности по ИИ собирались пригласить, в частности, Джеффри Гинтона и Йошуа Бенгио, двух из трех "крестных родителей искусственного интеллекта".
А профессор информатики Монреальского университета Бенджио присоединился к нему и тысячам других экспертов, подписав письмо и призывая к мораторию на гигантские эксперименты по развитию ИИ.
Они предупреждают: небрежно разработанные системы искусственного интеллекта угрожают "усилить социальную несправедливость, подорвать наши профессии, взорвать социальную стабильность, способствовать широкомасштабной преступной или террористической деятельности и ослабить наше общее понимание реальности, которая является основой общества".
Переход ИИ "на сторону зла".
Участники первого в истории AI Safety Summit по безопасности в Великобритании выделили два основных риска ИИ: потенциальное умышленное неправильное использование (например, когда системы ИИ применяют для мошеннических действий); непреднамеренные проблемы контроля (например, проблемы в работе системы ИИ, модерирующей комментарии на веб-сайте).
Особое внимание этим рискам уделяется в сфере кибербезопасности и борьбы с дезинформацией.
Как пояснила системный аналитик Наталья Глоба, для оценки рисков ИИ и его возможного влияния на войну в Украине и гипотетическую Третью мировую нужно вспомнить понятие "идеального шторма".
"Мы должны оценивать весь контекст событий вокруг нас.
Представим себе, что Украина - некий кораблик, движущийся сам по себе.
И вот он попадает в сильный шторм, на кораблик нападают пираты.
А те, на кого мы надеялись - где-то недалеко авианосец Америка, далеко авианосец Китай и руководитель пиратской флотилии Россия - тоже попадают в шторм, когда нужно заботиться о собственной безопасности.
У нас старенькое судно, дырявое снаряжение, но оказалась отчаянная команда.
Но какова наша основная проблема? Это идеальный шторм.
Задача, стоящая перед нами - отбиться от пиратов и выстоять в идеальном шторе.
Для этого нужно понимать, что это за шторм, а не строить стратегию только поборьбе с пиратами", - отметила она в интервью для UKRLIFE с Людмилой Немырей.
По словам аналитика, первый из супетрендов ныне - это переход к цифровой эпохе.
Второй - изменение климатических и биологических условий существования человечества.
Третий - эпидемия ревизионизма.
Однако остановимся на первом пункте.
В меньшей степени от информационного цунами страдают автократические режимы и диктатуры, продолжила она.
И в очень большой - демократические, ибо в последнее время здесь плохо работает "защита от дурака",то есть политика, основанная на доказательствах, а не на чьем-то представлении (Трамп - тому яркий пример).
И вот здесь, в частности, включается опасность ИИ.
"Во всей красе" возникла история с израильской войной, это разрушение права: каждый верит в то, во что ему хочется верить.
Вываливается куча разных фактов, но они преимущественно игнорируются сторонами.
Сейчас это просто тотальное явление.
Кто поддерживает Палестину в США? Профессора-леваки, люди, способные отличить факт от представления.
Но для них больше значит собственное представление.
Политика, не основанная на доказательствах, очень опасна", - сказала ученый.
На этом фоне более угрожающим выглядит создание с помощью ИИ дипфейков высокого качества (пока таких нет) - которые будут очень похожи на реальность и будут использоваться нечистыми на руку людьми.
"В этом году мы уже имеем генеративно-лингвистические модели ИИ.
К гадалке не ходи, что в следующем избирательном году они позволят людям изменить реальность до неузнаваемости: эти модели могут создавать видеоряд, который сейчас еще легко отличается от оригинала.
Но большой вопрос: это еще намеренно и могут ли эти модели создать видеоряд с человеком, который практически не отличается от реальности", - предупредила она.
Какие меры будут принимать.
Для преодоления негативных последствий развития ИИ участники AI Safety Summit предлагают миру осуществлять ряд мер.
Это, в частности, сотрудничество для преодоления рисков ИИ и содействие тому, чтобы его проектировали, разрабатывали, запускали и использовали безопасным способом (когда ИИ ориентирован на человека, надежный и ответственный).
Это касается и государственных услуг, таких как здравоохранение и образование, продовольственная безопасность, наука, энергетика, биоразнообразие и климат.
Разработчики мощных и потенциально вредных систем ИИ должны обеспечить прозрачность и подотчетность планов мониторинга, разрешить измерения и смягчение вредных последствий.
Рекомендуются и некоторые политические решения: повышение прозрачности игроков рынка систем ИИ, установление показателей оценки, формирование инструментов для проверки безопасности, содействие развитию возможностей государственного сектора и научных исследований в этой сфере.
Чтобы реализовать задачи, определенные в Декларации саммита, государства-члены будут сотрудничать для содействия научным исследованиям безопасности ИИ - проводить международные форумы, посвященные вопросам безопасности.
Такое сотрудничество не только улучшит контроль, но и должно быть направлено на формирование политики укрепления развития ИИ в помощь развивающимся странам.
Государства могут классифицировать риски ИИ на основе национальных обстоятельств и применимой правовой базы.
Однако участники саммита отметили необходимость общих принципов и кодексов поведения.
"Мы должны следовать мировым трендам развития инноваций.
Когда речь идет о кибербезопасности, ИИ может как значительно повышать защищенность систем, так и упрощать процесс проведения кибератак и делать их более успешными.
Важно найти баланс между регулированием этой технологии, при этом не останавливая ее развитие", - отметил заместитель главы Минцифры Георгий Дубинский.
Ирина Носальская.