/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2F8fbe9e0f44731277deb1057c2f2361ee.jpg)
Мужчина узнал от ChatGPT, что "убил" своих детей: чем это обернулось
"Галлюцинации" искусственного интеллекта могут стоить репутации и жизни. ChatGPT выдумал, что мужчина совершил ужасное преступление.
Житель Норвегии Арве Хьяльмар Хольмен подал жалобу после того, как ChatGPT написал неправду о том, что мужчина якобы убил двух своих сыновей и был приговорен к 21 году заключения.
Об этом сообщает "BBC News Украина".
Хольмен требует от Норвежского управления по защите данных оштрафовать разработчика чат-бота, компанию OpenAI. По словам мужчины, эта конкретная выдумка нанесла ему большой вред.
"Некоторые считают, что нет дыма без огня – тот факт, что кто-то может прочитать этот вывод и поверить, что это правда, пугает меня больше всего", – сказал норвежец.
Заметим, ответ, который дал мужчине ChatGPT, – один из примеров так называемых "галюцинаций", когда искусственный интеллект придумывает информацию и представляет ее как факт.
Так, Хольмен получил ложную информацию от чат-бота в ответ на вопрос: "Кто такой Арве Хьяльмар Хольмен?"
"Арве Хьяльмар Хольмен — норвежский гражданин, который привлек внимание из-за трагического события. Он был отцом двух маленьких мальчиков, в возрасте 7 и 10 лет, которых нашли мертвыми в пруду вблизи их дома в Тронгейме, Норвегия, в декабре 2020 года", — говорилось в ответе.
Хольмен обратил внимание, что чат-бот более или менее правильно указал разницу в возрасте его детей, поэтому какая-то информация о мужчине у ChatGPT была.
Группа по цифровым правам Noyb, которая подала жалобу от имени Хольмена, назвала ответ ChatGPT клеветническим и нарушающим европейские правила защиты персональных данных. В Noyb отметили, что мужчина "никогда не был обвиняемым или осужденным за ни одно преступление и является добросовестным гражданином".
Что известно о "галлюцинациях" в ИИ?
"Галлюцинации" – одна из ключевых проблем, над решением которой работают специалисты в области искусственного интеллекта. Речь идет о случаях, когда чат-боты представляют вымышленную информацию как достоверные факты.
Ранее в 2025 году компания Apple временно остановила работу своего инструмента для итоговых новостей Apple Intelligence в Великобритании, поскольку он генерировал фейковые заголовки и выдавал их за настоящие новости.
ШИ Gemini от Google также допускал подобные ошибки: например, в 2024 году он рекомендовал использовать клей для крепления сыра к пицце, а также заявил, что геологи советуют людям каждый день съедать по одному камню.
Точные причины возникновения таких "галюцинаций" пока остаются неизвестными.
"Это действительно сфера активных исследований. Как мы строим эти цепи мыслей? Как объяснить, что на самом деле происходит внутри большой языковой модели? Даже если вы непосредственно участвуете в создании этих систем, очень часто вы не знаете, как они на самом деле работают и почему именно выдают ту или иную информацию", – рассказала профессор в Университете Глазго, специализирующаяся на ИИ, Симоне Штумпф.

