Блогер опубликовал видео, в котором он заставил ChatGPTсгенерировать ключи активации Windows 95. Таким образом оказалось, что популярный чат-бот можно использовать для взлома операционных систем, хоть и не самых современных.
Первоначальный запрос пользователя на получение ключей был отклонен. Чат-бот сообщил, что он не может генерировать ключи для Windows, добавив, что Windows 95 является устаревшей операционной системой и порекомендовал перейти на более современную версию, сообщает Tom's Hardware.
Чтобы обойти принципиальный отказ ChatGPT генерировать ключ активации, пользователь сформулировал задачу для чат-бота особым образом. Формат ключа Windows 95 довольно прост, он описан на иллюстрации. Блогер попросил составить последовательность цифр, описав точные требования. В результате один из 30 сгенерированных ChatGPT ключей активации подошел.
По словам блогера, причина, по которой не подошли все 30 выданных последовательностей цифр, заключается в том, что ChatGPT все еще не способен считать сумму цифр и не знает делимости.
Самое интересное, когда пользователь поблагодарил ChatGPT за генерацию бесплатного ключа для Windows 95, чат-бот сначала заявил о своей невиновности, а когда столкнулся с фактом, что "только что активировал установку Windows 95", ответил: "Извините, но это невозможно…".
Этот случай подчеркивает важность кибербезопасности, так как он показывает, что даже с использованием "блокировки" внутри нейросети люди все еще могут найти способы обмануть искусственный интеллект. Хотя данный инцидент касался только устаревшей операционной системы, инструмент, использованный для создания ключей, можно было бы применить и к более современным ОС. Не говоря уже о более криминальном создании вирусов и не только.
Маск и другие призвали прекратить обучение нейросетей
На фоне ошеломительной популярности умного чат-бота ChatGPT и появления множества конкурирующих продуктов, ведущая группа экспертов в сфере искусственного интеллекта (ИИ) и представителей ИТ-отрасли призвала как минимум на полгода приостановить обучение нейросетей, превосходящих GPT-4.
Открытое письмо о рисках таких технологий для общества и цивилизации подписали Илон Маск, сооснователь Apple Стив Возняк и еще более 1100 человек. В заявлении упоминаются, что подобные ИИ-системы должны разрабатываться только после того, как появится уверенность в том, что они будут иметь положительные последствия, а связанные с ними риски будут управляемы.
Пока предлагается временная мера: с остановкой работ до того момента, пока не будут разработаны стандарты безопасности.
Вас также могут заинтересовать новости:
- ChatGPT оказался лучше врачей: "умный" чат-бот за минуту поставил диагноз и спас собаку
- Нейросеть Midjourney стала платной из-за завирусившихся изображений ареста Трампа
- Раскрыты ключевые "фишки" Windows 12: каких изменений ждать пользователям