/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Fb8a0935fbd2e43bcd335d83c392b581e.jpg)
Искусственный интеллект начал участвовать в хакерских атаках: какой вред он наносит
Хакеры используют искусственный интеллект (ИИ) для взлома облачных хранилищ, прибегая к социальной инженерии на основе дипфейков.
Между июлем 2024 года и июнем 2025 года количество вторжений в облачные хранилища выросло на 136% по сравнению со всем 2024 годом, говорится в последнем отчете компании по кибербезопасности CrowdStrike. Для взлома злоумышленники все чаще используют искусственный интеллект.
Как отмечают в компании, генеративный ИИ позволил использовать тактики без вредоносного программного обеспечения, автоматизировать латеральное перемещение и масштабируемую социальную инженерию.
"Злоумышленники теперь действуют со скоростью машин в разных доменах, что делает многие традиционные средства защиты устаревшими. Это революция в операциях злоумышленников, и она требует нового подхода к безопасности", — отметили в CrowdStrike.
В отчете отдельно упоминается связанная с КНДР организация FAMOUS CHOLLIMA, которая за этот период проникла в более 320 компаний, используя сервисы с большими языковыми моделями (LLM) для создания резюме, фейковых идентификационных данных и даже ответов на собеседования в режиме реального времени.
После трудоустройства самозванцы полагались на помощников по искусственному интеллекту по кодированию и инструменты перевода, чтобы одновременно выполнять несколько удаленных задач для разработчиков, одновременно похищая интеллектуальную собственность.
Важно "Мчимся на полной скорости": ИИ уничтожит человечество с вероятностью 95%, — экспертЧтобы избежать таких ситуаций, CrowdStrike рекомендует расширенные процедуры проверки личности во время рекрутинга, проверки на наличие фейков в режиме реального времени во время собеседований, тщательный мониторинг активности удаленного доступа, а также постоянную проверку идентификационных данных, конечных точек и облачной телеметрии.
"Эра искусственного интеллекта изменила то, как действуют злоумышленники, и большинство защитных механизмов не были созданы для этой реальности", — отметили эксперты.
Фокус также сообщал, что генерального директора компании OpenAI Сэма Альтмана пугает новая версия ChatGPT.

