/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F209%2F2c636f4a89d52277eb82ae4f5c324198.jpg)
До ШІ потрібно встановлювати запобіжники там, де він несе серйозну загрозу приватності - аналітик
Про це під час презентації в Укрінформі гайду для організацій громадянського суспільства про інструменти штучного інтелекту заявив заступник директорки Центру демократії та верховенства права (ЦЕДЕМ) Ігор Розкладай.
«ШІ – це інструмент, і я погоджуюся з тим, що до нього треба поставитися як до будь-якого інструменту – тобто, встановлювати запобіжники, встановлювати вимоги там, де він несе серйозну загрозу приватності, безпеці, по суті, життю людини. І точно не наділяти його функцією прийняття остаточного рішення», - сказав він.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F209%2Faada7b734b922d45ba15c146533a4cc1.jpg)
Розкладай зазначив, що штучний інтелект може бути допоміжним інструментом - наприклад, виловлювати з мережі зображення злочинців, наприклад.
«Але не ШІ має прийняти рішення, що це злочинець і його треба пристрелити. Цей достатньо розумний збалансований підхід має дозволити нам нормально взаємодіяти з цим явищем. Його (штучний інтелект – ред.) точно не треба боятися і забороняти, але … над ним потрібно працювати і постійно проводити аналіз ризиків», - вважає аналітик.
Головна юридична радниця Європейського центру некомерційного права (ECNL) Фраческа Фануччі заявила, що залежно від мети і контексту застосування цієї технології можуть існувати різні рівні ризику для людей.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F209%2F82e4bf53cd29d9b34c296cbe8c246008.jpg)
«Один із найперших ризиків – це помилково позитивні або негативні ідентифікації. Те, що називають «хибно позитивні». Ми завжди маємо пам’ятати, що алгоритм ніколи не повертає остаточний результат, а лише (показує – ред.) імовірності. Це означає, що коли велика кількість людей перевіряється масово – наприклад, на вулиці, площі, або там, де багато машин, - існує ризик помилкової ідентифікації», - розповіла юридична радниця ECNL.
За її словами, в Україні зараз діє воєнний стан, і для таких випадків існують міжнародні стандарти відступу від захисту певних прав людини.
«Ці відступи мають бути винятковими і тимчасовими і виправдовуватися виключно характером і невідкладністю ситуації. Тобто, наприклад, якщо ці камери (з функцією розпізнавання обличчя – ред.) встановили через війну, тоді їх треба прибрати після закінчення війни чи провести нову оцінку ризиків, для чого їх можна застосовувати», - вважає Фануччі.
Розкладай переконаний, що технології на кшталт цих камер мають дуже жорстко регулюватися.
«Так само як і медичні дані, біометричні дані – вони мають максимально жорстко обмежитися, максимальне має бути протоколювання. Має бути дуже обмежений термін зберігання цих відео і так далі, бо інакше це – шлях до Китаю, де кожен поліцейський, дивлячись на вас, вже знає про вас все», - заявив він.
Як повідомляв Укрінформ, компанія OpenAI скасувала заборону на використання штучного інтелекту для військових цілей.

