Европарламент урегулировал правила в сфере искусственного интеллекта: какие требования установлены
Европарламент урегулировал правила в сфере искусственного интеллекта: какие требования установлены

Европарламент урегулировал правила в сфере искусственного интеллекта: какие требования установлены

Европейский парламент утвердил первую в мире комплексную программу по ограничению рисков искусственного интеллекта (ИИ). Документ должен гарантировать безопасность и соблюдение основных прав граждан.

Об этом сообщает пресс-служба ЕП. За соответствующий документ проголосовали 523 евродепутата, против – 46, 49 – воздержались.

Цель закона – защита фундаментальных прав, демократии, верховенства права и устойчивости окружающей среды от высокорискового ИИ с одновременным стимулированием инноваций.

Запрещенные приложения

Новые правила запрещают определенные приложения ИИ, которые угрожают правам граждан, включительно с системами биометрической категоризации на основе конфиденциальных характеристик и нецелевого сбора изображений лица из Интернета или записей камер видеонаблюдения для создания баз данных распознавания лиц. Распознавание эмоций на рабочем месте и в школах, а также ИИ, который манипулирует человеческим поведением или использует уязвимые места людей, также будет запрещен.

Исключения для правоохранительных органов

Использование биометрических систем идентификации (СІР) правоохранительными органами также запрещено, за исключением исчерпывающе перечисленных и узко определенных ситуаций. RBI "в реальном времени" может быть развернуто только при условии соблюдения строгих мер безопасности, например, его использования ограничено по времени и географически, а также при условии специального предварительного судебного или административного разрешения. Такие виды использования могут включать, например, поиск пропавшего человека или предотвращение террористического нападения. Использование таких систем постфактум считается случаем использования с высоким риском, который требует судебного разрешения, связанного с уголовным преступлением.

Обязательства для систем высокого риска

Также предусмотрены четкие обязательство для других систем ИИ с высоким уровнем риска из-за их значительного потенциального вреда здоровью, безопасности, основным правам, окружающей среде, демократии и верховенству права. Примеры использования искусственного интеллекта с высоким риском включают критическую инфраструктуру, образование и профессиональную подготовку, трудоустройство, основные частные и государственные услуги (например, здравоохранение, банки), определенные системы правоохранительных органов, управления миграцией и границами, правосудие и демократические процессы (например, влияние на выборы). Такие системы должны оценивать и уменьшать риски, вести журналы использования, быть прозрачными и точными и обеспечивать контроль со стороны человека. Граждане будут иметь право подавать жалобы на системы ИИ и получать объяснение относительно решений, основанных на системах высокого риска ИИ, которые влияют на их права.

Требования прозрачности

Системы искусственного интеллекта общего назначения (GPAI) и модели GPAI, на которых они базируются, должны отвечать определенным требованиям относительно прозрачности, включая соблюдение законодательства ЕС об авторском праве. Более мощные модели GPAI, которые могут создавать системные риски, получат дополнительные требования, включая выполнение оценки модели, оценку и смягчение системных рисков, а также отчетность об инцидентах.

Кроме того, искусственные или подделанные изображения, аудио- или видеоконтент ("дипфейки") должны быть четко обозначены как таковые.

Ранее OBOZ.UA рассказывал о том, что ученые подключили чат-бот с ИИ к симулятору войны и результаты эксперимента оправдали самые большие страхи.

Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.

Источник материала
loader
loader