Нові моделі штучного інтелекту OpenAI мають захист від створення біологічної зброї
Нові моделі штучного інтелекту OpenAI мають захист від створення біологічної зброї

Нові моделі штучного інтелекту OpenAI мають захист від створення біологічної зброї

OpenAI представила нові моделі штучного інтелекту o3 та o4-mini. Вони потужніші, розумніші та мають візуальні можливості. Але головне – тепер вони оснащені системою захисту від спроб створення біологічної чи хімічної зброї.

Ви більше не зможете створити біологічну зброю

OpenAI презентувала дві нові моделі ШІ – o3 і o4-mini, які, за словами компанії, є її найпотужнішими розробками у сфері просунутого міркування. Нові інструменти здатні не лише ефективніше аналізувати дані, а й мислити образами – створювати ескізи, маніпулювати зображеннями та використовувати розширений функціонал ChatGPT, включно з генерацією картинок і переглядом вебсторінок, повідомляє 24 Канал з посиланням на Wccftech.

Модель o3 позиціонується як найбільш потужна у лінійці OpenAI, тоді як o4-mini – її легша й швидша версія, яка, попри компактність, демонструє вражаючу продуктивність. Ці моделі вже доступні користувачам тарифів ChatGPT Plus, Pro і Team, а в найближчі тижні компанія обіцяє розширити доступ до вдосконаленої версії o3-pro. Водночас OpenAI починає відмову від застарілих моделей на кшталт o1 та o3-mini, щоб звільнити ресурси для більш досконалих рішень.

Інноваційність нових моделей не обмежується лише технічними характеристиками – OpenAI також серйозно зайнялась питанням безпеки. Згідно з новим звітом компанії, o3 і o4-mini отримали систему моніторингу підказок, яка має на меті виявляти і блокувати спроби використання моделей для створення біологічної або хімічної зброї. Система, яку в OpenAI називають "монітором міркувань, орієнтованим на безпеку", працює поверх нових моделей і аналізує запити на предмет потенційної шкоди.

Перед запуском цього захисту, команда OpenAI витратила близько 1000 годин на позначення ризикованих сценаріїв взаємодії з моделями. Під час внутрішнього тестування, де симулювався режим роботи нового монітора, моделі відмовлялися відповідати на небезпечні підказки у 98,7% випадків.

Компанія наголошує, що o3 і o4-mini демонструють кращі результати у відповідях, пов’язаних зі створенням біозагроз, порівняно з попередніми моделями, включаючи GPT-4. Це спонукало до впровадження аналогічного контролю для виявлення інших ризиків – наприклад, у системах боротьби з дитячою експлуатацією.

Однак не все так гладко. Деякі дослідники безпеки висловлюють побоювання щодо прозорості. Зокрема, партнер OpenAI – компанія Metr – повідомив, що мав обмаль часу для повноцінного тестування o3 на схильність до оманливої поведінки. Ба більше – OpenAI вирішила не публікувати звіт про безпеку GPT-4.1, яка також була представлена цього тижня.

На фоні жорсткої конкуренції зі сторони китайських розробників, таких як DeepSeek, OpenAI намагається не тільки зберегти технологічну перевагу, а й випередити потенційні ризики. Компанія прагне бути лідером не лише в потужності моделей, а й у їхньому відповідальному використанні.

Джерело матеріала
loader
loader