Учёные запустили сайт с игровыми тестами, которые показывают уровень распознавания эмоций искусственным интеллектом
Учёные запустили сайт с игровыми тестами, которые показывают уровень распознавания эмоций искусственным интеллектом

Учёные запустили сайт с игровыми тестами, которые показывают уровень распознавания эмоций искусственным интеллектом

Технологии, предназначенные для выявления человеческих эмоций с помощью алгоритмов машинного обучения — огромная отрасль, которая может оказаться полезной в массе ситуаций, от безопасности дорожного движения до исследования рынка. Но критики говорят, что она не только вызывает обеспокоенность в отношении конфиденциальности, но и является неточной и предвзятой на расовой почве. С этим мнением пытаются бороться исследователи, которые запустили новый проект.

Группа исследователей запустила сайт emojify.info, на котором люди могут опробовать системы распознавания эмоций сами. Одна игра сосредоточена на том, чтобы обмануть технологию. Пользователям предлагается изобразить имитацию эмоций и посмотреть, обманут ли они систему. Другая изучает, с каким трудом такие системы могут распознавать выражения лиц в контексте. На сайте отмечается, что «никакие личные данные не собираются, и все изображения хранятся на вашем устройстве».

Система считывает движения лица, а затем объединяет данные с предполагаемыми эмоциями — например, улыбка означает, что человек счастлив. Идея состоит в том, чтобы ИИ мог понять, симулируете ли вы свои эмоции.

«Игра состоит в том, чтобы показать, что вы не меняли своё внутреннее состояние шесть раз подряд, вы просто изменили то, как выглядит ваше лицо», — уточнила доктор Алекса Хагерти (Alexa Hagerty), руководитель проекта и исследователь Леверхалмского центра изучения будущего интеллекта (Leverhulme Centre for the Future of Intelligence) в Кембриджском университете и Центра изучения рисков для существования (The Centre for the Study of Existencial Risk).

По словам исследователей, они надеются повысить осведомлённость о технологии и способствовать обсуждению её использования.

Технология распознавания лиц, часто используемая для идентификации людей, в последние годы стала предметом пристального внимания. В прошлом году британская Комиссия по вопросам равноправия и прав человека (Equality and Human Rights Commission) заявила, что следует прекратить использование технологии для сканирования лиц в общественных местах, отметив, что это может усилить дискриминацию со стороны полиции и нанести ущерб свободе выражения мнений.

Но системы распознавания лиц могут быть задействованы в самых разных ситуациях: от найма сотрудника до работы с клиентами, безопасности в аэропортах и ​​даже обучения, чтобы узнать, заняты ли студенты или делают ли они домашнее задание.

Ранее Taigusys, компания, которая специализируется на системах распознавания эмоций (главный офис находится в Шэньчжэне, Китай), заявила, что использовала их в различных условиях, от домов престарелых до тюрем. Индийский город Лакхнау тоже планирует использовать эту технологию, чтобы выявить женщин, до которых домогаются или домогались недавно. Эта инновация встретила критику, в том числе со стороны организаций, занимающихся цифровыми правами.

В то же время старший программный директор правозащитной организации Article 19 Видуши Марда (Vidushi Marda) считает, что крайне важно нажать на «паузу» на растущем рынке систем распознавания эмоций.

«Использование технологий распознавания эмоций вызывает глубокую озабоченность, поскольку эти системы не только основаны на дискриминационной и дискредитированной науке, но и в корне несовместимы с правами человека, — сказала она. — Важным уроком, извлечённым из траектории развития систем распознавания лиц по всему миру, стало то, что мы часто и на раннем этапе ставили под сомнение обоснованность и потребность в технологиях, и проекты, которые подчёркивают ограничения и опасности распознавания эмоций, являются важным шагом в этом направлении».

Источник материала
Поделиться сюжетом