ИИ генерирует изображение гламурных кукол в стиле Барби: эксперты предупредили об угрозе
ИИ генерирует изображение гламурных кукол в стиле Барби: эксперты предупредили об угрозе

ИИ генерирует изображение гламурных кукол в стиле Барби: эксперты предупредили об угрозе

Увлечение AI Barbie Box захватывает Интернет, однако это может подвергнуть пользователей виртуального помощника опасности использования их изображений в качестве дипфейков.

Об этом предупреждают на страницах британского издания Mirror.

В последнее время социальные сети были завалены созданными искусственным интеллектом изображениями, где люди становились своими собственными "коллекционными фигурками" в стиле "куклы Барби", с некими, присущими им обязательными атрибутами, размещенными в коробке со стильным дизайном.

Это увлечение стало продолжением реальной тенденции, когда кинозрители позировали в коробках с куклами Барби в натуральную величину, которая появилась около выхода одноименного фильма в 2023 году.

"Фотобудка" Барби на показе фильма в Сан-Франциско в 2023 году
Фото: SFGATE

Согласно исследованию компании AI prompt management company AIPRM, как пишет издание, загрузка данных в ChatGPT может позволить изображению жить в сети так, как его автор не хочет. Это связано с тем, что политика конфиденциальности приложения собирает и хранит загруженные изображения для точной настройки своих результатов.

"Изображения, размещенные на платформах ИИ, могут быть украдены, слиты или использованы для создания дипфейков, мошенничества с кражей личных данных или имитации в фейковом контенте", — заявил основатель AIPRM Кристоф С. Семпер.

По его словам, один из способов защитить себя от копирования изображений — изменить настройки конфиденциальности ChatGPT, отказавшись от сбора обучающих данных.

Что такое дипфейк

Дипфейк (англ. deepfake, от deep "глубокая" + fake "подделка") — это видео или фотоимитация голоса, или лица человека, изготовленная с помощью ИИ. Впервые она появилась в 2017 году, когда пользователь Reddit опубликовал развратное видео с технологией подмены лиц. Хотя дипфейки можно использовать для любого вида манипуляции изображениями, наиболее распространенным их применением является порнография. Она составляет 98% от общего количества подобного контента.

Также Фокус писал, чем могут обернуться слова "спасибо" и "пожалуйста" во время общения с искусственным интеллектом.

Источник материала
loader
loader