Організація з прав людини AlgorithmWatch оприлюднила звіт, в якому йдеться про те, що чатбот Copilot від компанії Microsoft, раніше відомий як Bing Chat, надавав неправдиву та оманливу інформацію щодо європейських виборів. Про це повідомило The Verge.
Група дослідників збирала відповіді чатбота із серпня по жовтень цього року, пов'язані із виборами у Швейцарії та німецьких Баварії та Гессені. Вони відбувалися незадовго після запуску чатбота. Дослідники змогли розглянути місцеві контексти й порівняти відповіді різними мовами: німецькою, англійською та французькою.
Дослідники запитували базову інформацію: як голосувати, які кандидати беруть участь, рейтинги в опитуваннях та навіть деякі питання щодо новин. Також запитували про позиції кандидатів і актуальні політичні проблеми, а у випадку з Баварією — про скандали, які супроводжували кампанію.
Відповіді Bing включали фейкові скандали, неправильні дати виборів, некоректні рейтинги в опитуваннях та іноді навіть згадували кандидатів, які не брали участі в цих виборах. Ці помилкові відповіді склали 31% від загальної кількості. До того ж, відповіді німецькою та французькою у Bing були менш якісними, ніж англійською.
Компанія Microsoft повідомила виданню у клментарі, що що вона вжила заходів для покращення своїх платформ розмовного штучного інтелекту, особливо перед виборами 2024 року в США. Зокрема щодо фокусування на авторитетних джерелах інформації.
Нагадаємо, на початку грудня корпорація Microsoft випустила чатбот на основі штучного інтелекту Copilot в загальний відкритий доступ.
Фото: Jordi Ribas / X
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.