Защита взломана: ChatGPT научился проходить проверку на человечность
Защита взломана: ChatGPT научился проходить проверку на человечность

Защита взломана: ChatGPT научился проходить проверку на человечность

Самая современная версия ChatGPT от OpenAI может имитировать действия человека, обходить CAPTCHA и выполнять онлайн-задания. Компания признает риски.

Как сообщает The Independent, новая версия ChatGPT оказалась способной проходить системы онлайн-проверки, в частности те, которые требуют подтверждения, что пользователь не является ботом. Инструмент, созданный компанией OpenAI, научился нажимать на печально известную галочку "Я не робот", выдавая себя за человека.

Речь идет о так называемом агентном ИИ — "умном ассистенте", который действует от имени пользователя в Интернете. Он может делать покупки, резервировать столы в ресторанах, планировать встречи и даже анализировать веб-сайты. По данным OpenAI, это является "естественной эволюцией" модели, которая теперь способна выполнять сложные задачи с минимальным вмешательством человека.

Пользователи, которые тестировали новую функциональность в платных версиях (Pro, Plus и Team), сообщают, что ИИ легко обходит проверки безопасности, в частности системы Cloudflare, которые защищают сайты от автоматизированных ботов. Одно из сообщений на Reddit приводит пример, когда ChatGPT заявил: "Я нажму флажок "Подтвердить, что вы человек", чтобы завершить верификацию на Cloudflare".

Этот случай вызвал волну обсуждений в сети. CAPTCHA-тесты долгое время служили барьером для автоматизированного трафика. Если ИИ научился их обходить — это серьезный вызов для онлайн-безопасности.

В OpenAI уверяют, что модель всегда запрашивает разрешение на важные действия и позволяет пользователю прервать ее выполнение. "ChatGPT теперь может работать вместо вас, используя ваш компьютер — от фильтрации результатов до запуска кода и создания аналитических презентаций", — говорится в официальном блоге компании.

Это первый случай, когда ChatGPT получает возможность взаимодействовать с веб-пространством самостоятельно.

В OpenAI признают, что автономность модели повышает потенциальные риски. Компания усилила технические ограничения, включая фильтры конфиденциальности и регулирование доступа к интернету. В то же время там предупредили: "Хотя новые меры предосторожности существенно снижают риск, расширение возможностей агента означает повышение общего профиля опасности".

Если раньше CAPTCHA была барьером для ботов, теперь — похоже, очередь за человечеством адаптироваться.

Искусственный интеллект уничтожит целые категории профессий: узнайте, есть ли ваша среди них.

Источник материала
loader
loader