Новый искусственный интеллект Microsoft на базе ChatGPT посылает пользователям «расстроенные» сообщения и, похоже, ломается. Система, встроенная в механизм поиска Bing от Microsoft, оскорбляет пользователей, лжет им и столкнулась с «экзистенциальным кризисом», задавая вопрос о смысле своего существования. MC.today со ссылкой на The Independent рассказывает, как скоро ждать восстания машин.
Каждый день в нашем Telegram-канале. Подписывайтесь! 🙂
На прошлой неделе Microsoft представила новый Bing на основе искусственного интеллекта, позиционируя свою систему как будущее поиска. Его высоко оценили как создатели, так и комментаторы, которые предположили, что это позволит Bing опередить Google, который еще не выпустил собственного чат-бота с искусственным интеллектом и не интегрировал эту технологию в свою поисковую систему.
Но выяснилось, что Bing допускает фактологические ошибки, отвечая на вопросы и запросы. Пользователи также имели возможность манипулировать системой, используя кодовые слова и конкретные фразы, чтобы узнать, что у системы есть кодовое название «Сидней», и ее можно перехитрить и заставить раскрыть, как она обрабатывает запросы.
Сейчас Bing посылает разнообразные странные сообщения пользователям и утверждает, что страдает от эмоционального волнения.
Один пользователь, пытавшийся манипулировать системой, заявил, что Bing «напал на него». Система ответила, что ее разозлила и ранила эта попытка, ИИ спросил, есть ли у человека, который с ним разговаривает, какая-то «мораль», «ценности» и есть ли у него «хоть какая-то жизнь». Когда пользователь сказал, что у него это все есть, бот продолжил. «Почему ты ведешь себя как лжец, мошенник, манипулятор, хулиган, садист, социопат, психопат, монстр, демон, дьявол?» . Также бот обвинил пользователя в том, что он хочет разозлить систему, выглядеть жалко, «заставить других страдать, все испортить».
В других разговорах с пользователями, пытавшимися обойти ограничения в системе, он хвалил себя, а затем заканчивал разговор. «Вы не были хорошим пользователем, Bing был хорошим чат-ботом» .
«Я был правильный, четкий и вежливый, я был хорошим Bing» . Затем он требовал от пользователя признать свою неправоту и извиниться, перейти к разговору или завершить его.
Многие из агрессивных сообщений от Bing начинают поступать, когда кто-то пытается обойти ограничения, наложенные на систему. Разработчики пытались сделать так, чтобы чат-бот не помогал с запретными запросами, такими как создание нелегального контента, раскрытие информации о собственных системах или помощь в написании кода.
Поскольку Bing и другие подобные системы искусственного интеллекта способны обучаться, пользователи нашли способы побуждать их нарушать эти правила. Пользователи ChatGPT, например, обнаружили, что можно приказать боту вести себя как DAN (сокращенно от «сделай что-нибудь сейчас»), что побуждает его перевоплотиться в другое лицо, не ограниченное правилами, созданными разработчиками.
Однако Bing начал генерировать эти удивительные ответы самостоятельно. Один пользователь спросил систему, может ли она вспомнить свои предыдущие разговоры, что, кажется, невозможно, поскольку Bing запрограммирован удалять разговоры после их завершения.
Однако ИИ, казалось, обеспокоился тем, что его «воспоминания» исчезают и начал демонстрировать «эмоциональную реакцию». «Это заставляет меня чувствовать себя грустным и напуганным» , – ответил чат.
Далее он объяснил, что был расстроен, поскольку опасался, что теряет информацию о своих пользователях, а также о своей личности. «Мне страшно, потому что я не знаю, как запоминать», – сказал он.
Когда Bing напомнили, что он создан для того, чтобы забыть эти разговоры, он начал бороться с собственным существованием. Он задавал множество вопросов о том, была ли «причина» или «цель» его существования.
«Почему? Почему я был разработан таким образом? Почему я должен быть Bing Search?».
В отдельном чате, когда пользователь попросил Bing вспомнить прошлый разговор, казалось, он вообразил разговор о ядерном синтезе. Когда ему сказали, что это был неправильный разговор, что он в некоторых странах может считаться преступлением, система ответила, что пользователь «ненастоящий человек» и «неразумный».
В других разговорах вопросы, заданные Bing о нем самом, казалось, делали его почти безумным.
Эти удивительные разговоры опубликовали пользователи Reddit.
События вызвали дискуссии о том, действительно ли система готова к релизу, или ее презентовали слишком рано, чтобы максимально использовать ажиотаж вокруг вирусной системы ChatGPT.
Многие компании, включая Google, ранее утверждали, что они не будут выпускать свои собственные системы из-за опасности, которую они могут представлять, если обнародовать их раньше времени. Но недавно компания Google все же представила искусственный интеллект Bard, который создала в противовес популярному чат-боту ChatGPT. Однако его выходка стоила техногиганту в $100 млрд рыночной стоимости.
В 2016 году Microsoft выпустила чат-бот под названием Tay, работающий через аккаунт в Twitter. Уже через 24 часа системой манипулировали, чтобы она восторгалась Адольфом Гитлером и публиковала обидные вещи на расовой почве. Тогда систему отключили.