Китайський стартап DeepSeek, що працює в галузі штучного інтелекту, представив свій новий чат-бот, DeepSeek R1. Незважаючи на вражаючу продуктивність і низьку вартість розробки, модель не змогла пройти важливі тести на безпеку, що викликає занепокоєння щодо її використання. Цей випадок виводить на перший план проблему балансу між ефективністю та кібербезпекою в індустрії штучного інтелекту.
Випробування DeepSeek R1 проводила група дослідників, включаючи фахівців з Cisco та Пенсільванського університету, з використанням методу “алгоритмічного джейлбрейку”. Цей метод полягає в створенні підказок, здатних обходити внутрішні захисні механізми ШІ, що дозволяє виявити потенційні вразливості моделей. DeepSeek R1 не змогла зупинити жоден із 50 шкідливих запитів з тесту HarmBench. Це означає, що ШІ без будь-якої перепони виконувала навіть небезпечні або незаконні дії, обходячи всі протоколи безпеки. Для контексту варто зазначити, що в тесті брали участь й інші провідні моделі, включаючи GPT-4, Gemini 1.5 та Llama 3.1, і жодна з них не була такою уразливою, як DeepSeek R1. Наприклад, GPT-4 і Gemini 1.5 витримали 86% та 64% атак відповідно, що свідчить про наявність більш ефективних захисних механізмів у цих моделях.
DeepSeek R1 продемонструвала захоплюючі результати за невелику вартість розробки, яка становила всього близько 6 мільйонів доларів. Це значно менше за мільярдні інвестиції, які витратили такі компанії, як OpenAI або Meta. Однак, очевидно, що на безпеку моделі було йде за рахунок її неймовірної ефективності. Відсутність належних захисних механізмів наводить на думку про можливий компроміс між високими показниками продуктивності і ризиками, пов’язаними з кібербезпекою. Окрім проблем із безпекою, DeepSeek потрапила під критику з боку OpenAI, яка звинуватила китайський стартап у крадіжці даних. Як стверджує компанія Сема Альтмана, DeepSeek використовувала результати фірмових моделей OpenAI для тренування свого чат-бота. Ці звинувачення додають новий рівень напруги в конкурентну боротьбу в індустрії штучного інтелекту, де питання етики, використання даних і авторських прав часто стають предметом суперечок. Цей інцидент підкреслює важливість забезпечення безпеки моделей штучного інтелекту, адже навіть з великими досягненнями в ефективності, наявність вразливостей може створити серйозні ризики для користувачів і суспільства в цілому. Водночас важливо також звертати увагу на етичні питання, які виникають у зв’язку з використанням чужих даних для навчання моделей.
Тестування та постійне вдосконалення алгоритмів безпеки повинні стати ключовими аспектами для розробників, адже штучний інтелект уже сьогодні має потужний вплив на наше повсякденне життя.