Якось невдобно вийшло. Роботы-редакторы Microsoft перепутали двух певиц смешанной расы
Якось невдобно вийшло. Роботы-редакторы Microsoft перепутали двух певиц смешанной расы

Якось невдобно вийшло. Роботы-редакторы Microsoft перепутали двух певиц смешанной расы

Волна критика обрушилась на недавнее спорное решение Microsoft заменить часть редакторов новостных сервисов Microsoft News и MSN системой искусственного интеллекта после того, как последняя в первую же неделю своей работы перепутала двух певиц смешанной расы.

Само собой, без обвинений в расизме не обошлось.

Об инциденте рассказало издание The Guardian.

Система отбирает контент для показа на главной странице MSN.

Один из новоявленных роботов-журналистов MSN.

com перепечатал личную историю о расизме, которую поведала участница группы Little Mix Джейд Фёрволл, но опубликовал ее вместе с фотографией другой участницы группы — Ли-Энн Пиннок.

Якось невдобно вийшло. Роботы-редакторы Microsoft перепутали двух певиц смешанной расы - Фото 1

ИИ Microsoft перепутал двух певиц смешанной расы Ли-Энн Пиннок (слева) и Джейд Фёрволл (справа).

Якось невдобно вийшло. Роботы-редакторы Microsoft перепутали двух певиц смешанной расы - Фото 2

Это дерьмо происходит со мной и Ли-Энн Пиннок постоянно.

Меня оскорбляет то, что вы не можете различить двух «цветных» женщин в группе из четырёх человек.

Старайтесь лучше!».

Джейд Фёрволл.

участница группы Little Mix.

Вполне вероятно, певица и знать и не знала, что за отбор новостей на MSN отвечает ИИ.

Неясно, что именно привело к ошибке, но, учитывая, что речь идет об автоматизированной системе, не исключено, что это произошло из-за неправильно помеченных изображений, предоставляемых информационными агентствами.

Как раз такие ошибки должны замечать и исправлять «живые» редакторы, хотя, судя по комментариям Джейд Фёрволл, это далеко не первый такой случай.

Представитель Microsoft прокомментировал The Guardian инцидент следующим образом: «Как только мы узнали об этой проблеме, мы немедленно приняли меры для ее устранения и заменили неправильное фото».

После инцидента Microsoft проинструктировала оставшихся «живых» редакторов сайта внимательно отслеживать и удалять негативные публикации о роботе-редакторе, если алгоритм опубликует ее в новостном сервисе, сообщает издание со ссылкой на одного из сотрудников.

«Со всеми этими антирасистскими протестами сейчас не время ошибаться», — отметил собеседник издания.

Остается добавить, что для Microsoft это далеко не первый такой инцидент с ИИ: еще помните скандальных чат-ботов Tay и Zo? Первый за сутки полюбил Гитлера и возненавидел феминисток, а второй называл ОС Windows «шпионским ПО» и рекламировал Linux.

(Открывается в новом окне).

Теги по теме
Microsoft
Источник материала
loader
loader