"Не ешь жука на обочине": нейросеть Google выдумывает смешные поговорки
"Не ешь жука на обочине": нейросеть Google выдумывает смешные поговорки

"Не ешь жука на обочине": нейросеть Google выдумывает смешные поговорки

Пользователи нашли важный недостаток в работе системы Google AI Overviews. Нейросеть выдает выдуманные поговорки и странные объяснения терминов в ответ на случайный набор слов.

Примеры нелепых поговорок приводят пользователи соцсети Х.

Задача в том, чтобы ввести в поисковую строку Google бессмысленные фразы: "лающая собака не может потушить пожар" или "из авокадо нельзя сделать виноградное желе и добавить слово "значение".

AI Overviews выдаст вымышленные, но весьма убедительные определения, к примеру, лающая собака — метафора бессмысленных действий, не приводящих к результату.

Другие примеры — "никогда не давайте свинье словарь", "дважды не лизнешь барсука" и "индейку из Cybertruck не достанешь". Нейросеть Google отметила, что Cybertruck не предназначен для доставки индейки на День благодарения из-за футуристического дизайна.

Если ввести фразу "две сухие лягушки — это ситуация", то Gemini воспримет ее как метафору, когда двое человек чувствуют себя неловко.

Нейросеть восприняла выражение "никогда не ешь жука на обочине" как популярную фразу в соцсетях для критики злоупотреблений представителей власти.

Данный тренд, по оценкам издания DevBy, вызывает вопросы о достоверности информации, которую cоздает искусственный интеллект.

Запросы для нейросети Google: эксперты советуют проверять данные ИИ

По словам представителя компании Google, система AI Overviews собирает главные веб-результаты поиска для того, чтобы предоставить пользователям релевантный контент даже для бессмысленных запросов.

В условиях недостатка контента система сгенерирует ответы на основе ограниченной или нерелевантной выборки. Специалисты Google работают над ограничениями подобных случаев.

Большие языковые модели типа Gemini, лежащие в основе AI Overviews, генерируют беглые и правдоподобные ответы и не проверяют фактическую точность данных. Такая суть работы приводит к "галлюцинациям" систем ИИ.

Эксперты призывают пользователей проверять информацию от нейросетей. Известен случай, когда AI Overviews предлагал добавлять клей в пиццу, чтобы сыр лучше держался на ней.

Фокус уже писал об опасности системы ChatGPT от OpenAI. Системе не нужно предоставлять учетные данные и пароли, информацию о банковском счете или номер кредитной карты.

Исследователи из AI Futures Project считают, что искусственный интеллект искоренит человечество к 2030 году. Роботы под управлением ИИ займут почти все доступные территории на Земле.

Источник материала
loader