Квинтэссенция лженауки: ИИ ошибается с ответами в 60% случаев, выяснили ученые
Квинтэссенция лженауки: ИИ ошибается с ответами в 60% случаев, выяснили ученые

Квинтэссенция лженауки: ИИ ошибается с ответами в 60% случаев, выяснили ученые

В современном мире многие профессии полагаются на точные и проверенные данные, которые порой не так просто найти. Однако ученые выяснили, что полагаться на искусственный интеллект в этом деле, это последнее, что стоит делать людям.

В эпоху, когда искусственный интеллект обещает совершить революцию во многих областях, последние данные свидетельствуют о необходимости более осторожного подхода к доверию этой технологии. Новое исследование, проведенное учеными, показало, что инструменты поиска, управляемые искусственным интеллектом, часто предоставляют неточную информацию, доходя до абсурдных 94%, что вызывает опасения по поводу их надежности, пишет Futurism.

У Фокус.Технологии появился свой Telegram-канал. Подписывайтесь, чтобы не пропускать самые свежие и увлекательные новости из мира науки!

Исследователи оценили восемь моделей ИИ, включая ChatGPT от OpenAI и Gemini от Google, представив им отрывки из статей и попросив определить такие детали, как заголовок, издатель, дата публикации и ссылку.

Важно Восстание машин отменяется. Искусственный интеллект не готов заменить врачей

Результаты такой проверки, опубликованные в журнале Columbia Journalism Review, оказались весьма показательными: в совокупности эти модели ответили неверно более чем на 60% запросов. Примечательно, что модель Perplexity AI, показавшая наилучшие результаты среди всех протестированных, все равно имела 37% ошибок, в то время как распиаренная модель Grok 3 от Илона Маска ошибалась в 94% случаев, что делает ее полной противоположностью достоверной информации.

Существенной проблемой стала склонность моделей давать неправильные ответы с необоснованной уверенностью. Вместо того чтобы признать свои ограничения или отказаться от ответа, эти инструменты ИИ часто представляли умозрительные или сфабрикованные ответы.

Еще одна проблема — неспособность этих инструментов ИИ правильно ссылаться на первоисточники. Например, ChatGPT почти в 40% случаев ссылался на неправильные статьи и в 21% случаев не указал источник. Отсутствие надлежащего указания источника не только затрудняет работу по проверке фактов в различных сферах, но и лишает оригинальных авторов потенциального веб-трафика, что негативно сказывается на экономике онлайн-медиа, заявили ученые.

Эти выводы подчеркивают современные проблемы, связанные с использованием искусственного интеллекта для точного поиска информации. По мере развития этих технологий решение вопросов точности, калибровки доверия и правильного указания источника будет развиваться, однако на сегодняшний день полагаться на подобные инструменты в важных и точных сферах деятельности может стать очень плохой идеей как для человека пользующегося ими, так и для конечного потребителя.

Также Фокус писал об опасении специалистов по поводу того, что ИИ может стать умнее человека всего за пять лет. Архитекторы искусственного интеллекта предупреждают, что он сможет превзойти людей практически в любой задаче.

Теги по теме
Технологии наука
Источник материала
loader