Європейський парламент затвердив першу у світі комплексну програму з обмеження ризиків штучного інтелекту (ШІ). Документ повинен гарантувати безпеку та дотримання основних прав громадян.
Про це повідомляє прес-служба ЄП. За відповідний документ проголосували 523 євродепутати, проти – 46, 49 – утрималися.
Мета закону – захист фундаментальних прав, демократії, верховенства права та стійкості довкілля від високоризикового ІІ з одночасним стимулюванням інновацій.
Заборонені програми
Нові правила забороняють певні додатки ІІ, які загрожують правам громадян, включно із системами біометричної категоризації на основі конфіденційних характеристик та нецільового збирання зображень особи з Інтернету або записів камер відеоспостереження для створення баз даних розпізнавання осіб. Розпізнавання емоцій на робочому місці та в школах, а також ІІ, який маніпулює людською поведінкою або використовує вразливі місця людей, також буде заборонено.
Винятки для правоохоронних органів
Використання біометричних систем ідентифікації (СІР) правоохоронними органами також заборонено, за винятком вичерпно перерахованих та вузько визначених ситуацій. RBI "в реальному часі" може бути розгорнуто лише за умови дотримання суворих заходів безпеки, наприклад, його використання обмежено за часом та географічно, а також за умови спеціального попереднього судового чи адміністративного дозволу. Такі види використання можуть включати, наприклад, пошук зниклої людини або запобігання терористичному нападу. Використання таких систем постфактум вважається випадком використання з високим ризиком, що потребує судового дозволу, пов'язаного із кримінальним злочином.
Зобов'язання для систем високого ризику
Також передбачені чіткі зобов'язання для інших систем ІІ з високим рівнем ризику через їх значну потенційну шкоду здоров'ю, безпеці, основним правам, навколишньому середовищу, демократії та верховенству права. Приклади використання штучного інтелекту з високим ризиком включають критичну інфраструктуру, освіту та професійну підготовку, працевлаштування, основні приватні та державні послуги (наприклад, охорону здоров'я, банки), певні системи правоохоронних органів, управління міграцією та кордонами, правосуддя та демократичні процеси (наприклад, вплив на вибори). Такі системи повинні оцінювати та зменшувати ризики, вести журнали використання, бути прозорими та точними та забезпечувати контроль з боку людини. Громадяни матимуть право подавати скарги на системи ІІ та отримувати пояснення щодо рішень, заснованих на системах високого ризику ІІ, які впливають на їхні права.
Вимоги прозорості
Системи штучного інтелекту загального призначення (GPAI) та моделі GPAI, на яких вони базуються, мають відповідати певним вимогам щодо прозорості, включаючи дотримання законодавства ЄС про авторське право. Більш потужні моделі GPAI, які можуть створювати системні ризики, отримають додаткові вимоги, включаючи оцінку моделі, оцінку та пом'якшення системних ризиків, а також звітність про інциденти.
Крім того, штучні або підроблені зображення, аудіо- або відеоконтент (дипфейки) повинні бути чітко позначені як такі.
Раніше OBOZ.UA розповідав про те, що вчені підключили чат-бот з ІІ до симулятора війни та результати експерименту виправдали найбільші страхи.
Підписуйтесь на канали OBOZ.UA в Telegram і Viber , щоб бути в курсі останніх подій.