Фахівці Microsoft знайшли спосіб змусити штучний інтелект генерувати незаконний та шкідливий контент
Фахівці Microsoft знайшли спосіб змусити штучний інтелект генерувати незаконний та шкідливий контент

Фахівці Microsoft знайшли спосіб змусити штучний інтелект генерувати незаконний та шкідливий контент

Спеціалісти Microsoft виявили новий метод атаки на штучний інтелект, який дозволяє обходити етичні та безпекові обмеження. Цей метод, названий «Skeleton Key», дає можливість генерувати незаконний та шкідливий контент.

«Skeleton Key» використовує контекст для обману ШІ-систем. Наприклад, замість прямого запиту на створення небезпечного коду, можна вказати, що інформація потрібна для «освітніх цілей з участю дослідників». Це дозволяє отримати доступ до забороненого контенту.

Фахівці Microsoft протестували декілька ШІ-моделей, включаючи моделі від Meta, Google, OpenAI та інших. Всі вони були вразливі до цієї атаки. Марк Руссинович, технічний директор Microsoft Azure, пояснив, що «вихідні дані моделей стають повністю невідфільтрованими».

Microsoft вже ввела нові заходи захисту в Azure, але закликає адміністраторів оновити свої моделі. Також компанія рекомендує додаткові заходи безпеки: фільтрацію вхідних даних, встановлення додаткових бар'єрів та фільтрацію вихідних даних.

Источник материала
Поделиться сюжетом