/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2Fe6cd3cc30f5b8833730b525add52701f.jpg)
Apple розкрила нові технології для захисту даних у штучному інтелекті
Apple оприлюднила записи доповідей і дослідницькі роботи з воркшопу з конфіденційності в машинному навчанні (PPML), який відбувся на початку 2025 року. Протягом двох днів експерти компанії разом із науковцями та представниками Google, DeepMind і Microsoft обговорювали, як поєднати розвиток ШІ з надійним захистом персональних даних.
Серед основних тем – приватні моделі та статистика, методи протидії атакам, диференційна конфіденційність і робота з фундаментальними моделями в умовах підвищених вимог до приватності.
Apple представила кілька напрацювань:
- AirGapAgent – агент, що зберігає до 97% конфіденційності навіть під час спроб “перехоплення контексту” в діалогах (для порівняння, Gemini Ultra – близько 45%).
- Дослідження атак, здатних виявити, чи були дані конкретного користувача використані для навчання моделі.
- Wally – приватна пошукова система, яка працює без надмірних криптографічних витрат.
- Нові методи підвищення ефективності диференційної конфіденційності та аудитів моделей.
Ці розробки особливо актуальні на тлі критики індустрії ШІ. У липні Apple наголосила, що не навчає свої моделі на даних без згоди правовласників, тоді як у серпні з’ясувалося, що стартап Perplexity обходить обмеження robots.txt за допомогою альтернативного бота.
Попри те, що Apple Intelligence ще не запущений повною мірою і компанія поступається конкурентам за швидкістю впровадження, публікація таких досліджень свідчить: Apple продовжує робити ставку на етичний і безпечний розвиток ШІ.

