Искусственный интеллект превратился в оружие в руках педофилов: эксперты заявляют о настоящем кошмаре
Искусственный интеллект превратился в оружие в руках педофилов: эксперты заявляют о настоящем кошмаре

Искусственный интеллект превратился в оружие в руках педофилов: эксперты заявляют о настоящем кошмаре

Пока художники рисуют с помощью искусственного интеллекта образы разных стран мира в виде младенцев и представляют детские портреты разных политиков, в руках злоумышленников он превращается во вредоносный инструмент. Речь идет о педофилах, которые начали создавать и распространять материалы о сексуальном насилии над детьми.

Подходящий материал вышел в издании The Washington Post. Эксперты рассказали его журналистам, что именно вызывает у них обеспокоенность по этому вопросу.

Так, по мнению директора по науке о данных в некоммерческой группе по защите детей Thorn Ребекки Портнофф, детские изображения, в том числе фото известных жертв насилия, перерабатываются с помощью ИИ. Это может осложнить правоохранительным органам работу по оказанию помощи жертвам таких преступлений. Портнофф также отметила, что ее группа фиксирует рост количества подобного контента месяц от месяца, начиная с минувшей осени.

Эксперт отметила, что полиции и так непросто идентифицировать жертв. А инструменты ИИ, которые легко использовать и которые создают реалистичные изображения, делают эту задачу еще сложнее. "Идентификация жертвы – это уже игла в стоге сена, когда правоохранительные органы пытаются найти ребенка в опасности", – продолжила Портнофф. 

Как выяснили журналисты издания, большинство злоумышленников, скорее всего, используют генераторы изображений с открытым исходным кодом, такие как модель Stable Diffusion. И хотя в этом инструменте есть несколько предохранителей против подобного использования, включая соответствующие фильтры, внесение нескольких правок в код может легко обойти их.

Идентифицировать такие изображения может быть очень тяжело. Существующие системы для остановки распространения подобного нелегального контента были разработаны для обнаружения уже известных изображений, а не вновь созданных.

Сообщается, что злоумышленники уже начали обмениваться информацией о том, как создавать подобный контент. И все больше из них стали использовать искусственный интеллект в противоправных целях. Что в целом вписывается в более широкую тенденцию сексуального насилия, совершаемого с помощью ИИ.

Ранее OBOZREVATEL рассказывал, что ученые подтвердили худшие опасения по поводу опасности искусственного интеллекта.

Подписывайтесь на каналы OBOZREVATEL в Telegram и Viber, чтобы быть в курсе последних событий.

Источник материала
loader
loader