Эксперт заявил, что ИИ уязвим к манипуляциям: враги генерируют дезинформацию, а украинцы не заполняют "информационную пустоту"
Эксперт заявил, что ИИ уязвим к манипуляциям: враги генерируют дезинформацию, а украинцы не заполняют "информационную пустоту"

Эксперт заявил, что ИИ уязвим к манипуляциям: враги генерируют дезинформацию, а украинцы не заполняют "информационную пустоту"

Эксперт заявил, что ИИ уязвим к манипуляциям: враги генерируют дезинформацию, а украинцы не заполняют "информационную пустоту"

Ученый указал, что разработчики работают над ограничением деструктивного контента.

Искусственный интеллект может быть предвзятым в своих ответах. Например, по-разному оценивать войну в Украине, из-за так называемой "засухи данных" — ситуацию, когда ему не хватает новой достоверной информации для обучения, заявил заведующий научной лабораторией иммерсивных технологий и права НАН Украины, доктор юридических наук Алексей Костенков интервью редактору отдела образования и науки ZN.UAОксане Онищенко.

Эксперт объяснил, что когда языковая модель на основе ИИ уже набралась всей доступной информации, и больше нет данных, на которых она может обучаться, тогда эта модель начинает учиться на данных, созданных другими моделями искусственного интеллекта.

"Это неожиданный минус, которым воспользовались наши враги — они генерируют большие массивы деструктивных данных с дезинформацией. Тогда как украинцы не загружают в ChatGPT в достаточном количестве информацию, которая стала бы на нашу защиту", — отметил Костенко.

Эксперт указал, что в этой ситуации в искусственном интеллекте нет никаких предубеждений, он в поисках данных движется туда, где больше информации.

Костенко отмечает, что текущее поколение ИИ не имеет эмпатии или способности отличать "плохое" от "хорошего", однако возможно научить его работать только с проверенными источниками.

По его словам, разработчики уже работают над ограничением деструктивного контента — детской опасной информации, призывов к насилию или суициду. Однако он подчеркнул, что определенные шаги для этого могут сделать и пользователи.

"Я в своем ChatGPT провел эксперимент: в настройках дал ему инструкцию: если ты не находишь подтвержденной информации в ответ на мой запрос, то сообщай, что это твое собственное мнение. Теперь, когда я делаю запросы, довольно часто он такую ремарку выдает", — поделился ученый собственным опытом.

Согласно новому отчету компании Graphite, специализирующейся на поисковой оптимизации, 52% всех текстов в Интернетегенерировали определенной формой ИИ.

Источник материала
loader
loader