Развитие искусственного интеллекта может представлять реальную угрозу для существования человечества. По своим масштабам опасность, исходящая от технологии ИИ, сравнима с пандемиями и ядерными войнами.
Об этом говорится в открытом письме Центра безопасности ИИ, которое подписали порядка 350 руководителей и исследователей отраслевых компаний. Документ подписали гендиректор OpenAI Сэм Альтман, глава Google DeepMind Демис Гассабис, соучредитель Asana Дастин Московиц и другие, в частности “крестные отцы" ИИ Джеффри Хинтон и Йошуа Бенжии.
“Снижение риска исчезновения человечества из-за ИИ должно стать приоритетом глобального уровня наряду с такими рисками аналогичного масштаба, как пандемии и ядерная война", – говорится в письме. Они надеются, что их призыв станет началом полноценной общественной дискуссии об опасности искусственного интеллекта.
Заявление отмечается лаконичностью. К тому же, нельзя не вспомнить, что похожее предостережение было обнародовано в марте. Его авторы (ими стали в том числе Илон Маск, Стив Возняк и более 1000 других экспертов) призвали остановить эксперименты с искусственным интеллектом.
Они объяснили свои опасения тем, что в последние месяцы ведется бесконтрольная гонка алгоритмов искусственного интеллекта, поведение которых не могут предсказать и контролировать сами разработчики. Поэтому, если создатели ИИ-проектов не смогут сами устроить полугодовую паузу, в этот процесс должно вмешаться правительство.
Центр безопасности ИИ – некоммерческая организация из Сан-Франциско, детально изучающая риски, которые исходят от этой технологии. Среди самых очевидных примеров исследователи приводят такие:
- ИИ может использоваться для дезинформации, способной дестабилизировать общество и подорвать коллективное принятие решений;
- при помощи ИИ можно создавать автономное оружие и химические вооружения;
- ИИ в руках автократических режимов поможет им навязывать узкие ценности через всепроникающий контроль и жесткую цензуру;
- повсеместное внедрение ИИ ослабит человеческий потенциал и сделает людей чересчур зависимыми от этой технологии.
Существует несколько шагов для предотвращения реализации худшего сценария: создание единого стандарта безопасности и этики при разработке ИИ, а также механизмов контроля и ответственности за действия таких разработок. Кроме того, международное сообщество должно сотрудничать и поддерживать диалог по вопросам, связанным с искусственным интеллектом, а общественность необходимо просвещать о возможностях и опасностях этой технологии.
Ранее OBOZREVATEL уже сообщал об предостережениях Джеффри Хинтона относительно ИИ. Он призвал власти стран должны разработать правила, чтобы соответствующие исследования оставались ответственными.
Только проверенная информация у нас в Telegram-канале Obozrevatel и в Viber. Не ведитесь на фейки!