/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2F3324d3d3ded31177e5778d11d3cc5089.jpg)
Чоловік дізнався від ChatGPT, що "вбив" своїх дітей: чим це обернулося
"Галюцинації" штучного інтелекту можуть коштувати репутації та життя. ChatGPT вигадав, що чоловік скоїв жахливий злочин.
Житель Норвегії Арве Хьяльмар Хольмен подав скаргу після того, як ChatGPT написав неправду про те, що чоловік начебто убив двох своїх синів і був засуджений до 21 року ув'язнення.
Про це повідомляє "BBC News Україна".
Хольмен вимагає від Норвезького управління із захисту даних оштрафувати розробника чат-бота, компанію OpenAI. За словами чоловіка, що ця конкретна вигадка завдала йому великої шкоди.
"Дехто вважає, що немає диму без вогню – той факт, що хтось може прочитати цей висновок і повірити, що це правда, лякає мене найбільше", – сказав норвежець.
Зауважимо, відповідь, яку надав чоловікові ChatGPT, – один із прикладів так званих "галюцинацій", коли штучний інтелект вигадує інформацію і подає її як факт.
Так, Хольмен отримав неправдиву інформацію від чат-бота у відповідь на запитання: "Хто такий Арве Хьяльмар Хольмен?".
"Арве Хьяльмар Хольмен – норвезький громадянин, який привернув увагу через трагічну подію. Він був батьком двох маленьких хлопчиків, віком 7 і 10 років, яких знайшли мертвими у ставку поблизу їхнього дому в Тронгеймі, Норвегія, у грудні 2020 року", – йшлося у відповіді ChatGPT.
Хольмен звернув увагу, що чат-бот більш-менш правильно вказав різницю у віці його дітей, тож якусь інформацію про чоловіка ChatGPT мав.
Група з цифрових прав Noyb, яка подала скаргу від імені Хольмена назвала відповідь ChatGPT наклепницькою і такою, що порушує європейські правила захисту персональних даних. У Noyb зазначили, що чоловік "ніколи не був обвинуваченим чи засудженим за жоден злочин і є сумлінним громадянином".
Що відомо ро "галюцинації" у ШІ?
"Галюцинації" – одна з ключових проблем, над вирішенням якої працюють фахівці у галузі штучного інтелекту. Йдеться про випадки, коли чат-боти подають вигадану інформацію як достовірні факти.
Раніше 2025 року компанія Apple тимчасово зупинила роботу свого інструменту для підсумкових новин Apple Intelligence у Великій Британії, оскільки він генерував фейкові заголовки та видавав їх за справжні новини.
ШІ Gemini від Google також допускав подібні помилки: наприклад, 2024 року він рекомендував використовувати клей для кріплення сиру до піци, а також заявив, що геологи радять людям щодня з'їдати по одному каменю.
Точні причини виникнення таких "галюцинацій" поки що залишаються невідомими.
"Це справді сфера активних досліджень. Як ми будуємо ці ланцюги міркувань? Як пояснити, що насправді відбувається всередині великої мовної моделі? Навіть якщо ви безпосередньо берете участь у створенні цих систем, дуже часто ви не знаєте, як вони насправді працюють і чому саме видають ту чи іншу інформацію", – розповіла професорка в Університеті Глазго, яка спеціалізується на ШІ, Сімоне Штумпф.

