Штучний інтелект робить погрози смерті ще реалістичнішими — дослідження NYT
Штучний інтелект робить погрози смерті ще реалістичнішими — дослідження NYT

Штучний інтелект робить погрози смерті ще реалістичнішими — дослідження NYT

Штучний інтелект відкрив нову еру онлайн-насильства. Активістка з Австралії Кейтлін Ропер стала жертвою погроз, створених за допомогою ШІ — їй надсилали відео та зображення, де вона фігурує в сценах смерті й тортур. Такі deepfake-зображення виглядають настільки реально, що навіть досвідчені активісти говорять про глибоку психологічну травму.

Експерти попереджають: нові інструменти ШІ здатні створювати реалістичні голоси й обличчя за лічені секунди. Технологія, яка раніше потребувала сотні прикладів даних, тепер може зімітувати будь-кого, перетворюючи кіберпогрози на потужну зброю страху. Програми, такі як Sora від OpenAI, дають змогу створювати сцени насильства, використовуючи фото реальних людей.

Попри заяви компаній про посилення безпеки, контроль залишається слабким. Платформи часто ігнорують сигнали про зловживання, тоді як жертви, які намагаються оприлюднити докази, ризикують бути заблокованими. Дослідники називають це новою формою цифрового насильства, що виходить за межі уяви.

Джерело матеріала
loader