OpenAI посилює безпеку, щоб захиститися від корпоративного шпигунства
OpenAI посилює безпеку, щоб захиститися від корпоративного шпигунства

OpenAI посилює безпеку, щоб захиститися від корпоративного шпигунства

OpenAI переглянула свої операції з безпеки для захисту від корпоративного шпигунства. За даними Financial Times , компанія прискорила теперішні заходи безпеки після того, як китайський стартап DeepSeek випустив конкуруючу модель у січні, а OpenAI стверджує, що DeepSeek неналежним чином скопіював її моделі, використовуючи методи «деінстоляції».

Посилена безпека включає політику «інформаційного намету», яка обмежує доступ персоналу до конфіденційних алгоритмів і нових продуктів. Наприклад, під час розробки моделі o1 OpenAI лише перевірені члени команди, які були залучені до проєкту, могли обговорювати його в спільних офісних приміщеннях, повідомляє FT.

І це ще не все. Згідно зі звітом, OpenAI тепер ізолює власні технології в автономних комп’ютерних системах, впроваджує біометричний контроль доступу до офісних приміщень (сканує відбитки пальців співробітників) та підтримує політику інтернету «за замовчуванням», яка вимагає явного схвалення зовнішніх підключень, у якому також додається, що компанія посилила фізичну безпеку в центрах обробки даних та розширила штат своїх співробітників з кібербезпеки.

Кажуть, що ці зміни відображають ширші занепокоєння щодо спроб іноземних супротивників викрасти інтелектуальну власність OpenAI, хоча, враховуючи безперервні війни за викрадання серед американських компаній, що займаються штучним інтелектом, та дедалі частіші витоки коментарів генерального директора Сема Альтмана, OpenAI може також намагатися розв'язати проблеми внутрішньої безпеки.

Джерело матеріала
loader
loader