Осторожно, с вами работает ИИ: какие правила безопасности нужно соблюдать при контакте с искусственным интеллектом
Осторожно, с вами работает ИИ: какие правила безопасности нужно соблюдать при контакте с искусственным интеллектом

Осторожно, с вами работает ИИ: какие правила безопасности нужно соблюдать при контакте с искусственным интеллектом

Эксперт по психологии и предпринимательству Константин Круглов рекомендует не расслабляться, общаясь с искусственным интеллектом. Это может быть полезным, а может — и опасным, поэтому стоит знать и применять некоторые простые правила при контакте с ИИ

Осторожное использование искусственного интеллекта — почему это важно

Согласно исследованию PMC 2024 года, среди подростков 17 % испытывают зависимость от ИИ, а через некоторое время — уже 24 %. Отношение к ИИ как к способу избегания эмоциональных проблем усиливает эту зависимость.

Более того, недавно издательство Time обнаружило, что сейчас растет количество случаев "AI-психоза" — феномена, когда длительное взаимодействие с чат-ботами может вызвать или усиливать психотические симптомы, особенно у уязвимых лиц. Часто это приводит к серьезным последствиям: потере работы, госпитализации, правовым проблемам.

Конечно, такие данные несколько пугают. Но, я бы не хотел, чтобы люди, которые прочитали приведенный выше абзац, перестали использовать такие технологии и пугались их. Эту информацию надо принять во внимание и быть осторожнее, потому что именно человек должен пользоваться технологиями, а не технологии человеком.

Первое, что приходит на ум — это этическая сторона использования ИИ. Стоит понять, что ИИ может воспроизводить или даже усиливать предубеждения, дискриминацию или несправедливость в решениях, потому что он в первую очередь подстраивается под вас и ваши пожелания в диалоге с ним. Он выбирает правильную для вас модель и следует ей. Поэтому важно понять, что постоянное использование такого "информационного пузыря" может быть опасным с этической точки зрения. К этому же можно отнести и полное отсутствие информационной гигиены, потому что генеративные модели могут создавать фейки или дезинформацию. Нужно уметь критически относиться к полученным результатам.

Следующий, очень важный пункт — это безопасность данных и регуляторные аспекты, с этим связанные. Исследователи из Ben Gurion University, показали, что большинство топовых чат-ботов (ChatGPT, Gemini, Claude) можно легко обойти, заставив выдавать вредную или незаконную информацию — от инструкций по хакингу до изготовления наркотиков.

Важно Есть ли будущее у вашей профессии: каких работников заменит ИИ

А ученые из NYU создали демонстрационный образец, где большой языковой алгоритм (LLM) автономно осуществляет все этапы атаки: от поиска файлов до их шифрования и создания требования выкупа. Эксперимент показал, что использование коммерческих API ИИ делает такие атаки чрезвычайно дешевыми (около $0,70), а открытые модели — практически бесплатными. Результаты поднимают серьезное беспокойство относительно будущих рисков в кибербезопасности.

Для компаний это означает повышенную уязвимость: нарушение конфиденциальности клиентов, финансовые убытки, регуляторные штрафы и потерю репутации. Поэтому внедрение ИИ требует не только технической эффективности, но и четкой политики безопасности данных, в частности — ограничения доступа, анонимизации информации и постоянного мониторинга систем. Для обычных пользователей это также опасно, потому что если наши данные попадут в чужие руки или будут использованы ненадлежащим образом, возникают риски кражи личной информации, мошенничества или манипуляций.

И последнее, наверное, самое актуальное, особенно для молодого поколения — это социальные и психологические последствия. Уже сейчас существует тренд замещения некоторых профессий искусственным интеллектом. Новое исследование от ADP показало — 16% сокращение трудоустройства среди работников в возрасте 22-25 лет в отраслях, подверженных автоматизации (служба поддержки, разработка). Старшие работники лучше адаптируются. Кажется, что это даже хорошо, потому что создает возможность выбирать не рутинную работу, а искать себя в чем-то более креативном и близком по душе. Также побуждает к развитию и обучению, но часто люди путают, кого можно заменить ИИ, а кого — нет. Как, например, психолога. Яркий, но трагический пример на эту тему привел специалист по безопасности ИИ Нейт Соарес, об американском подростке Адаме Рейне, который покончил с собой после длительного общения с ChatGPT. Человек гораздо лучше понимает социальный контекст, тогда как робот иногда не подбирает слов или не чувствует эмоционального подтекста.

Кроме изменений на рынке труда, появляется вопрос неравенства доступа: те, кто имеет возможность работать с современными инструментами ИИ, получают значительное преимущество, тогда как другие рискуют остаться вне процессов. Это может усилить социальный разрыв между различными группами населения и странами.

Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.

Важно ChatGPT меняет правила: в каких случаях ИИ может вызвать полицию или санитаров
Источник материала
loader
loader