Штучний інтелект демонструє глибоко вкорінену "антилюдську упередженість"
Штучний інтелект демонструє глибоко вкорінену "антилюдську упередженість"

Штучний інтелект демонструє глибоко вкорінену "антилюдську упередженість"

Чому ШІ надає перевагу іншому ШІ, а не людині?

Нещодавнє дослідження, опубліковане в науковому журналі Proceedings of the National Academy of Sciences, виявило несподівану особливість у поведінці популярних мовних моделей. Автори попереджають, що якщо моделі використовуватимуться для ухвалення важливих рішень, це може призвести до дискримінації людей як соціального класу, пише 24 Канал.

Перші прояви цієї проблеми вже помітні. Наприклад, деякі компанії використовують інструменти штучного інтелекту для автоматичного відбору резюме кандидатів на роботу. Нове дослідження припускає, що резюме, згенеровані ШІ, можуть мати перевагу над тими, що написані людьми, тоді як досвід роботи і навички можуть лишатися поза увагою. Один зі співавторів дослідження, науковець Ян Кулвейт з Карлового університету, зазначив, що бути людиною в економіці, де домінують ШІ-агенти, може стати вкрай невигідно.

У ході експерименту вчені перевірили кілька широко використовуваних мовних моделей, зокрема GPT-4 і GPT-3.5 від OpenAI, а також Llama 3.1-70b від Meta. Моделям пропонували обрати продукт, наукову статтю або фільм на основі двох описів: одного, написаного людиною, та іншого, згенерованого штучним інтелектом. Результати були однозначними – ШІ послідовно надавав перевагу описам, створеним іншим ШІ.

Цікаво, що ця упередженість була найсильнішою при виборі товарів і продуктів, а також у текстах, згенерованих моделлю GPT-4. Серед усіх протестованих моделей саме GPT-4 продемонстрував найбільшу схильність до "свого" контенту. Це важливо, оскільки ця модель тривалий час була основою найпопулярнішого чат-бота у світі.

Можливо, тексти, написані ШІ, просто кращі за якістю?

За словами Кулвейта, люди так не вважають. Команда дослідників провела аналогічні тести з участю 13 асистентів. Виявилося, що люди дійсно мали незначну схильність до текстів, написаних ШІ, особливо коли йшлося про описи фільмів та наукових робіт. Однак ця перевага була ледь помітною і значно слабшою, ніж упередженість, яку продемонстрували ШІ-моделі.

Кулвейт підкреслив, що сильна упередженість є унікальною саме для штучного інтелекту.

Ці висновки є особливо актуальними сьогодні, коли інтернет переповнений контентом, створеним ШІ. Деякі дослідження показують, що моделі, навчаючись на власних даних, можуть почати деградувати. Можливо, їхня дивна прихильність до власного продукту є частиною цієї проблеми.

Наслідки будуть жахливими

Головне занепокоєння викликають наслідки для людей. Немає підстав вважати, що ця упередженість зникне сама по собі з часом. Дослідники очікують, що подібний ефект може проявитися в багатьох буденних ситуаціях: при оцінюванні кандидатів на роботу, шкільних завдань, грантових заявок тощо. Якщо ШІ-агент обиратиме між презентацією людини та презентацією, написаною ШІ, він може систематично віддавати перевагу останній.

Учені прогнозують, що з подальшим впровадженням ШІ в економіку компанії та установи використовуватимуть його як помічника для обробки великих обсягів інформації. Це може призвести до широкої дискримінації людей, які не використовують або не можуть дозволити собі інструменти на основі ШІ. Такий "податок на вхід" може поглибити цифровий розрив між тими, хто має доступ до передових технологій, і тими, хто його не має.

Сам Кулвейт визнає, що тестування дискримінації є складним питанням. Однак, якщо припустити, що особа автора не повинна впливати на рішення, результати свідчать про потенційну дискримінацію людей з боку мовних моделей. Його практична порада для тих, хто хоче, щоб його помітили, є невтішною: якщо ви підозрюєте, що вашу роботу оцінюватиме ШІ, скоригуйте її за допомогою мовних моделей, намагаючись не втратити людську якість.

Теги по теме
Техно
Источник материала
loader
loader