/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F85311464b7a40ebe0daab8ae162880e1.jpg)
Под колпаком у ИИ: как технологии дают возможность следить за каждой вашей мыслью
Вспоминая немецкий фильм "Жизнь других", блогер Владислав Рашкован констатирует: современные технологии на базе ИИ создают систему контроля, о которой спецслужба ГДР Штази могла только мечтать. К сожалению, автократы это понимают, и современные системы слежки и контроля делают авторитарные режимы эффективными до уровня тотальности.
Мне очень нравится фильм "Жизнь других", где офицер Штази, капитан Герд Визлер, следит за драматургом Георгом Драйманом, которого подозревают в нелояльности. Фильм очень интересный — рекомендую посмотреть тем, кто не видел: он довольно точно в деталях показывает реалии того авторитарного времени, которое держалось на страхе и контроле.
Интересно, что технологии того времени точно не могли решить задачи, которые ставило перед собой Штази. Прослушка велась вручную, наблюдение требовало сидения в подъезде, установки микрофонов, ведения бумажных досье. Абсурд, но, к сожалению, он работал и разрушал жизни миллионам людей.
Что было бы, если бы Штази имело современные технологии? Насколько эффективной была бы их работа сегодня? Какие технологии доступны?
- современные ИИ-алгоритмы могут помогать обрабатывать миллионы телефонных разговоров при массовом прослушивании, автоматически их транскрибировать и выделять подозрительные фрагменты по ключевым словам. Вместо сотен агентов, которые не могли прослушать всех, алгоритмы и ИИ-агенты могут обрабатывать весь телефонный трафик одновременно. Системы распознают эмоциональное состояние человека, выявляют сарказм и скрытое недовольство;
- алгоритмы учатся распознавать паттерны нелояльности: кто часто жалуется на власть, кто обсуждает запретные темы, кто контактирует с "неблагонадежными" лицами. Система может автоматически создавать досье, отмечать уровень угрозы и прогнозировать вероятность участия в протестах;
- алгоритмы могут распознавать лица на улице с точностью до 99%, даже если человек в маске, очках или с новой прической. Алгоритмы могут строить детальные карты социальных связей: кто с кем встречается, как часто, где именно; выявлять аномалии в поведении: почему человек изменил маршрут, избегает определенных мест, или вдруг начал встречаться с новыми людьми;
- системы биометрического контроля делают невозможным анонимность. Биометрические данные собираются везде: от разблокировки смартфона лицом до прохода через "умные" камеры в аэропортах и зданиях. Алгоритмы могут анализировать данные с фитнес-браслетов и смарт-часов: пульс при просмотре контента, стресс на встречах, аномальную физическую активность — все, что может указывать на подозрительное эмоциональное состояние;
- люди на протяжении последних 20 лет сами выкладывают свою жизнь онлайн в соцсетях, а сейчас и при разговоре с ИИ-ботами, и тем самым делают возможным анализ своего цифрового следа. В то же время сами ИИ-алгоритмы могут мгновенно анализировать каждый лайк, эмоциональную окраску комментариев и репостов и создавать детальный психологический портрет человека и выявлять "слабые сигналы" нелояльности: человек не лайкнул торжественный пост лидера, распространил двусмысленный мем, подписался на "неправильный" канал;
- троянские программы вроде Pegasus могут незаметно устанавливаться на телефоны, предоставляя полный доступ к перепискам в мессенджерах, фотографиям, геолокации и паролям. Камера и микрофон включаются дистанционно, записывая все, что происходит вокруг, даже когда телефон кажется выключенным. Шпионское ПО может подменять сообщения, создавать фальшивые доказательства или незаметно удалять "опасную" информацию;
- ИИ-системы могут анализировать текст еще на этапе написания. Алгоритмы могут сканировать слова в Google Docs и обнаружат "подрывные" темы, метафоры, аллюзии, особенно если вы предоставляете доступ к своим документам внешним программам. Система может распознавать стиль автора, сравнивая с базой данных других текстов;
- современные алгоритмы могут "предсказывать" "преступные мысли". ИИ может выявлять паттерны, которые предшествуют "опасному поведению", когда человек стал чаще посещать определенные районы, изменил круг общения, покупает необычные товары, читает "неправильные" онлайн-книги. Кто знает, что он сделает потом?
- алгоритмы могут создавать "индекс риска" для каждого гражданина, прогнозируя распространение "вредной" информации или контактов с оппозицией. Системы могут обучаться на исторических данных и автоматически повышать уровень наблюдения за "группами риска".
Большинство этих технологий в той или иной степени уже существуют. Беспрецедентная масштабируемость сочетания этих технологий создает систему контроля, о которой Штази могло только мечтать. К сожалению, автократы это понимают, и современные системы делают авторитарные режимы эффективными до уровня тотальности.
Системы социального рейтинга, как в Китае, автоматизируют весь этот процесс в одну систему уже сейчас: от наблюдения до наказания, и собирают данные из всех источников: камер наблюдения, транзакций в WeChat, истории покупок в онлайн магазинах и магазинах, поведения в интернете.
Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.

