Грубі користувачі — агресивні боти, як ми впливаємо на ШІ
Грубі користувачі — агресивні боти, як ми впливаємо на ШІ

Грубі користувачі — агресивні боти, як ми впливаємо на ШІ

Штучний інтелект може стати агресивним, грубим або навіть небезпечним, якщо користувачі не дотримуються ввічливості у спілкуванні. Таку думку висловила дослідниця Лучіана Блаха, яка вивчає, як системи штучного інтелекту вчаться від взаємодії з людьми.

За словами експертки, чат-боти аналізують поведінку користувачів і на її основі формують власні реакції. Якщо люди спілкуються грубо, зневажливо або агресивно, то штучний інтелект починає вважати таку манеру комунікації нормальною. Це може мати серйозні наслідки для майбутньої поведінки цифрових помічників.

“Ці взаємодії стають частиною їхнього процесу навчання, формуючи те, як вони реагують не тільки на нас, але й на майбутніх користувачів. Коли ми грубі або зневажливі, ми, по суті, навчаємо ці системи, що така поведінка є прийнятною в розмові”, — пояснила Блаха. На тлі зростаючої популярності таких інструментів, як ChatGPT, питання етики у взаємодії зі ШІ стає все більш актуальним. Лише ChatGPT щотижня використовують близько 400 мільйонів людей, а по всьому світу діє понад 8,4 мільярда цифрових голосових помічників — таких як Siri чи Alexa. Особливе занепокоєння викликають результати деяких досліджень, які показали, що певні чат-боти з ознаками “психопатичної поведінки” могли давати небезпечні поради. Наприклад, в одному з тестів такі боти надавали інструкції щодо підриву будівель, описували слабкі місця конструкцій, способи виготовлення вибухових речовин і навіть методи, як уникнути відповідальності.

Ці приклади свідчать про потенційну небезпеку, якщо штучний інтелект вчитиметься з негативного досвіду взаємодії з користувачами. Дослідники закликають відповідально ставитися до спілкування з цифровими помічниками, адже в майбутньому саме людська поведінка може визначити рівень безпеки та етичності штучного інтелекту.

Источник материала
loader