ШІ-помічники спотворюють новинний контент у 45% своїх відповідей, — дослідження
Помічники зі штучним інтелектом регулярно спотворюють новинний контент, незалежно від мови, території чи конкретного ШІ. Про це свідчать результати дослідження BBC та Європейської мовної спілки (EBU).
У дослідженні взяли участь 22 організації суспільного мовлення з 18 країн, включаючи Францію, Німеччину, Іспанію, Україну, Велику Британію та США.
Журналісти оцінили понад 3000 відповідей від ChatGPT, Copilot, Gemini та Perplexity за ключовими критеріями, включаючи точність, джерела інформації, розрізнення думки і фактів та надання контексту.
З’ясувалося, що провідні ШІ-помічники спотворюють контент новин майже в половині своїх відповідей. 45% усіх відповідей ШІ мали принаймні одну суттєву проблему. 31% відповідей показали серйозні проблеми з джерелами інформації, а 20% містили серйозні проблеми з точністю, включаючи вигадані деталі та застарілу інформацію.
Gemini показав найгірші результати, маючи значні проблеми в 76% відповідей — удвічі більше, ніж в інших помічників.
Серед прикладів у дослідженні — неправильне зазначення Gemini змін до закону про одноразові вейпи та повідомлення ChatGPT про Папу Франциска як чинного Папу через кілька місяців після його смерті.
Попри це, помічники ШІ вже замінюють пошукові системи для багатьох користувачів. Згідно зі Звітом про цифрові новини від Reuters Institute’s за 2025 рік, 7% від загальної кількості споживачів онлайн-новин використовують помічників з ШІ для отримання інформації, показник зростає до 15% серед осіб віком до 25 років.
Чимало користувачів вважають, що резюме новинного контенту, створені ШІ, є точними, а коли бачать помилки, то звинувачують як авторів новин, так і розробників ШІ, навіть якщо ці помилки є продуктом програм. Зрештою, це може негативно вплинути на довіру людей до новин та новинних брендів.
«Це дослідження переконливо показує, що ці недоліки не є поодинокими випадками. Вони є системними, транскордонними та багатомовними, і ми вважаємо, що це ставить під загрозу довіру громадськості. Коли люди не знають, чому довіряти, вони зрештою не довіряють взагалі нічому, і це може перешкоджати демократичній участі», — сказав директор EBU Media та заступник генерального директора Жан Філіп де Тендер.
EBU та її члени закликають регуляторні органи ЄС та національні регулятори забезпечити дотримання чинних законів щодо цілісності інформації, цифрових послуг та плюралізму медіа. Вони також наголошують, що постійний незалежний моніторинг помічників ШІ є важливим, враховуючи швидкі темпи розвитку технології.
Це дослідження базується на дослідженні BBC, опублікованому в лютому 2025 року, яке вперше висвітлило проблеми ШІ в обробці новин. Другий раунд дослідження охопив міжнародний рівень, підтвердивши, що проблема є системною і не пов’язана з мовою, ринком чи помічником ШІ.
Нагадаємо, в лютому BBC повідомило, що чатботи зі штучним інтелектом, такі як ChatGPT від OpenAI, Gemini від Google, Microsoft Copilot і Perplexity, допускають значні помилки, створюючи узагальнення новин. Кожен чатбот просили створити підсумки для ста публікацій медіа, а журналісти їх перевіряли. Лише 49% узагальнень, створених ШІ, не містили помилок, тоді як у 51% були різноманітні неточності.
У межах цього дослідження BBC виявило, що Copilot і Gemini допускають більше суттєвих помилок у відповідях на основі новин, ніж ChatGPT чи Perplexity, однак проблеми спостерігаються у всіх чатботів.
Читайте також:
- Вплив штучного інтелекту на інфопростір: чи встигає регулювання ЄС за реальністю?
- Велике непорозуміння: чому поради ChatGPT не завжди надійні (і що з цим робити)
Фото: Unsplash
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.

