Люди настільки довіряють ШІ, що навіть не перевіряють посилання на джерела
Люди настільки довіряють ШІ, що навіть не перевіряють посилання на джерела

Люди настільки довіряють ШІ, що навіть не перевіряють посилання на джерела

Дезінформація і втрата трафіку

Компанії, що створюють генеративні ШІ, наголошують, що їхні чат-боти додають посилання на джерела у свої відповіді. Однак генеральний директор Cloudflare Метью Прінс попереджає: користувачі все менше цікавляться первинними матеріалами, а перехід за посиланнями майже припинився, повідомляє 24 Канал з посиланням на Axios.

  • За словами Прінса, ще десять років тому Google скеровував одного відвідувача на кожні дві сторінки, які сканував.
  • Пів року тому співвідношення впало до одного на шість, а нині – лише один на кожні 18.
  • Ситуація з ШІ ще гірша: OpenAI відправляє одного користувача на кожні 1500 сторінок, які сканує, тоді як Anthropic – одного на 60 000 сторінок.

Це означає, що користувачі чат-ботів сліпо довіряють тому, що їм видає штучний інтелект, навіть не перевіряючи правдивість і точність інформації в джерелах. Прінс вважає це екзистенційною загрозою для видавців: трафік падає, а разом із ним і доходи від реклами. При цьому довіра до чат-ботів лише зростає, і все більше людей сприймають їхні відповіді як остаточну інформацію, не вдаючись до перевірки чи глибшого аналізу.

Cloudflare хоче боротися з несанкціонованим скануванням сайтів

Щоб протидіяти несанкціонованому скануванню вмісту сайтів, Cloudflare розробляє інструмент для блокування ботів, які обходять заборону в файлі robots.txt. У 2024 році багато ЗМІ повідомляли, що ШІ-компанії ігнорують цей протокол і продовжують збирати контент для тренування мовних моделей.

Новий інструмент від Cloudflare під назвою AI Labyrinth відправляє штучно згенеровані сторінки, які здаються правдоподібними, але не містять реального контенту. На цих сторінках містяться посилання, а там ще одні посилання, а далі знову й знову нові посилання. Таким чином система заводить бота в лабіринт сторінок, з якого неможливо вибратись і неможливо знайти якусь інформацію. Це змушує ШІ витрачати час і ресурси даремно. За словами Прінса, компанія вже давно бореться з урядовими хакерами та зловмисниками, а тому здатна протистояти також і технологічним гігантам, які порушують правила.

Але в цього є й інший бік. Якщо люди не хочуть перевіряти джерела, то заборона сканування ніяк не допоможе сайту отримувати трафік. Так, інформація того чи іншого сайту не потраплятиме у видачу штучного інтелекту. Але це й означає, що посилання на нього ніколи не з'явиться в даних чат-бота. Якщо користувач шукає щось в умовному ChatGPT чи Perplexity, то він задовольниться тим, що йому видасть з інших сайтів, а сайт, який заборонив сканування, втратить навіть той мізерний шанс на відвідування, який мав, якби його показало у відповіді бота.

Заклик до справедливої компенсації

Метью Прінс закликає видавців не залишатися осторонь і домагатися чесної компенсації за використання їхнього контенту в скомпільованих відповідях ШІ. Адже поки ШІ-боти стають дедалі популярнішими, прибутки медіа-компаній зменшуються. І якщо не вжити заходів, цифрова інфраструктура, що тримається на якісному контенті, ризикує зруйнуватись.

Більшість медіа живуть з реклами. Немає переглядів – немає прибутку. Якщо не буде прибутку, видання просто закриються. І тоді всі ці чат-боти, які беруть інформацію з сайтів, просто більше не матимуть джерел. Таким чином розробникам ШІ має бути вигідно, щоб джерела інформації трималися на плаву й продовжували публікувати.

Теги за темою
Техно
Джерело матеріала
loader
loader