Почему ChatGPT придумывает ответы и как это можно исправить: советы эксперта
Почему ChatGPT придумывает ответы и как это можно исправить: советы эксперта

Почему ChatGPT придумывает ответы и как это можно исправить: советы эксперта

Почему ChatGPT придумывает ответы и как это можно исправить: советы эксперта

Ученый объяснил, что нужно сделать, чтобы ChatGPT выдавал профессиональные ответы на запросы.

Распространенное представление о том, что искусственный интеллект "галлюцинирует", когда выдает ложные ответы, является ошибочным. ИИ на самом деле не хватает информации, которую вы хотели бы от него получить, объяснил заведующий лабораторией иммерсивных технологий и права НАН Украины, доктор юридических наук Алексей Костенко в интервью редактору отдела образования и науки ZN.UAОксане Онищенко.

По его словам, так называемые "галлюцинации ИИ" являются результатом информационного голода по определенному вопросу. Костенко отметил, что каждый запрос пользователя — это новый опыт, на котором модель учится. Он советует пользователям, которые хотят получать точные ответы, научить искусственный интеллект правильно работать.

Эксперт рассказал, что за полгода "поднатаскал" (указал как надо и не надо делать) собственного ChatGPT до уровня "магистра". Костенко указал, что ИИ научился качественно отвечать на запросы по технико-юридической и общей тематике.

"А также создать свою базу данных. Я под свои запросы загружал статьи из известных научных ресурсов. В итоге если я в своей сфере задаю вопрос ChatGPT, он оперирует в первую очередь базой знаний, которую я ему собрал. А потом идет в интернет и по аналогии уже более направлено находит необходимые токены — расширенную информацию, которая будет более профессиональной, чем та, что он выдавал мне в начале обучения", — объяснил ученый.

Костенко заявил, что текущее поколение ИИ не имеет эмпатии или способности отличать "плохое" от "хорошего", однако возможно научить его работать только с проверенными источниками.

Источник материала
loader
loader