Під ковпаком у ШІ: як технології дають можливість стежити за кожною вашою думкою
Під ковпаком у ШІ: як технології дають можливість стежити за кожною вашою думкою

Під ковпаком у ШІ: як технології дають можливість стежити за кожною вашою думкою

Згадуючи німецький фільм "Життя інших", блогер Владислав Рашкован констатує: сучасні технології на базі ШІстворюють систему контролю, про яку спецслужба НДР Штазі могла лише мріяти. На жаль, автократи це розуміють, і сучасні системи стеження та контролю роблять авторитарні режими ефективними до рівня тотальності.

Мені дуже подобається фільм "Життя інших", в якому офіцер Штазі, капітан Герд Візлер, стежить за драматургом Георгом Драйманом, якого підозрюють у нелояльності. Фільм дуже цікавий – рекомендую подивитися тим, хто не бачив: він досить точно у деталях показує реалії того авторитарного часу, який тримався на страху й контролі.

Цікаво, що технології того часу точно не могли вирішити завдання, які ставило перед собою Штазі. Прослуховування велося вручну, спостереження вимагало сидіння в під'їзді, встановлення мікрофонів, ведення паперових досьє. Абсурд, але, на жаль, він працював і руйнував життя мільйонам людей.

Що було б, якби Штазі мало сучасні технології? Наскільки ефективною була б їх робота сьогодні? Які технології їм доступні?

  • сучасні ШІ-алгоритми можуть допомагати обробляти мільйони телефонних розмов при масовому прослуховуванні, автоматично їх транскрибувати та виділяти підозрілі фрагменти за ключовими словами. Замість сотень агентів, які не могли прослухати всіх, алгоритми та ШІ-агенти можуть обробляти весь телефонний трафік одночасно. Системи розпізнають емоційний стан людини, виявляють сарказм і приховане невдоволення;
  • алгоритми навчаються розпізнавати патерни нелояльності: хто часто скаржиться на владу, хто обговорює заборонені теми, хто контактує з "неблагонадійними" особами. Система може автоматично створювати досьє, відзначати рівень загрози та прогнозувати ймовірність участі в протестах;
  • алгоритми можуть розпізнавати обличчя на вулиці з точністю до 99%, навіть якщо людина в масці, окулярах чи з новою зачіскою. Алгоритми можуть будувати детальні карти соціальних зв'язків: хто з ким зустрічається, як часто, де саме; виявляти аномалії в поведінці: чому людина змінила маршрут, уникає певних місць, або раптом почала зустрічатися з новими людьми;
  • системи біометричного контролю унеможливлюють анонімність. Біометричні дані збираються всюди: від розблокування смартфона обличчям до проходу через "розумні" камери в аеропортах та будівлях. Алгоритми можуть аналізувати дані з фітнес-браслетів і смарт-годинників: пульс при перегляді контенту, стрес на зустрічах, аномальну фізичну активність – усе, що може вказувати на підозрілий емоційний стан;
  • люди протягом останніх 20 років самі викладають своє життя онлайн в соцмережах, а зараз і при розмові з ШІ-ботами, і тим самим роблять можливим аналіз свого цифрового сліду. Водночас самі ШІ-алгоритми можуть миттєво аналізувати кожен лайк, емоційне забарвлення коментарів та репостів і створювати детальний психологічний портрет людини й виявляти "слабкі сигнали" нелояльності: людина не лайкнула урочистий пост лідера, поширила двозначний мем, підписалася на "неправильний" канал;
  • троянські програми на кшталт Pegasus можуть непомітно встановлюватися на телефони, надаючи повний доступ до листувань у месенджерах, фотографій, геолокації та паролів. Камера й мікрофон вмикаються дистанційно, записуючи все, що відбувається навколо, навіть коли телефон здається вимкненим. Шпигунське ПЗ може підміняти повідомлення, створювати фальшиві докази або непомітно видаляти "небезпечну" інформацію;
  • ШІ-системи можуть аналізувати текст ще на етапі написання. Алгоритми можуть сканувати слова в Google Docs і виявлять "підривні" теми, метафори, алюзії, особливо якщо ви надаєте доступ до своїх документів зовнішнім програмам. Система може розпізнавати стиль автора, порівнюючи з базою даних інших текстів;
  • сучасні алгоритми можуть "передбачати" "злочинні думки". ШІ може виявляти патерни, які передують "небезпечній поведінці", коли людина почала частіше відвідувати певні райони, змінила коло спілкування, купує незвичні товари, читає "неправильні" онлайн-книги. Хтозна, що вона зробить потім?;
  • алгоритми можуть створювати "індекс ризику" для кожного громадянина, прогнозуючи поширення "шкідливої" інформації чи контактів з опозицією. Системи можуть навчатися на історичних даних та автоматично підвищувати рівень спостереження за "групами ризику".

Більшість цих технологій тією чи іншою мірою вже існують. Безпрецедентна масштабованість поєднання цих технологій створює систему контролю, про яку Штазі могло лише мріяти. На жаль, автократи це розуміють, і сучасні системи роблять авторитарні режими ефективними до рівня тотальності.

Системи соціального рейтингу, як у Китаї, автоматизують весь цей процес в одну систему вже зараз: від спостереження до покарання, та збирають дані з усіх джерел: камер спостереження, транзакцій в WeChat, історії придбань в онлайн магазинах та магазинах, поведінки в інтернеті.

Автор висловлює особисту думку, яка може не співпадати із позицією редакції. Відповідальність за опубліковані дані в рубриці "Думки" несе автор.

Джерело

Важливо Кінець секретам у ChatGPT: як ваша особиста балаканина зі ШІ може стати судовим документом
Джерело матеріала
loader
loader