OpenAI шукає нового керівника відділу готовності
OpenAI шукає нового керівника відділу готовності

OpenAI шукає нового керівника відділу готовності

OpenAI шукає нового керівника, відповідального за вивчення нових ризиків, пов'язаних зі штучним інтелектом, у таких сферах, як комп'ютерна безпека та психічне здоров'я.

У дописі на X генеральний директор Сем Альтман визнав, що моделі штучного інтелекту «починають створювати реальні проблеми», зокрема «потенційний вплив моделей на психічне здоров’я», а також моделі, які «настільки добре розбираються в комп’ютерній безпеці, що починають знаходити критичні вразливості».

«Якщо ви хочете допомогти світові зрозуміти, як надати захисникам кібербезпеки передові можливості, гарантуючи, що зловмисники не зможуть використовувати їх для заподіяння шкоди, в ідеалі, зробивши всі системи безпечнішими, а також те, як ми вивільняємо біологічні можливості та навіть отримуємо впевненість у безпеці роботи систем, які можуть самовдосконалюватися, будь ласка, розгляньте можливість подання заявки», – написав Альтман.

У списку кандидатів на посаду керівника відділу готовності в OpenAI зазначено, що робота відповідає за виконання структури готовності компанії, «нашої структури, що пояснює підхід OpenAI до відстеження та підготовки до передових можливостей, які створюють нові ризики серйозної шкоди».

Компанія вперше оголосила про створення групи з підготовки у 2023 році, заявивши, що вона відповідатиме за вивчення потенційних «катастрофічних ризиків», незалежно від того, чи є вони більш безпосередніми, як-от фішингові атаки, чи більш спекулятивними, як-от ядерні загрози.

Менш ніж через рік OpenAI перепризначила керівника відділу готовності Александера Мадрі на роботу, зосереджену на міркуваннях зі штучного інтелекту. Інші керівники з безпеки OpenAI також залишили компанію або взяли на себе нові посади поза межами готовності та безпеки.

Компанія також нещодавно оновила свою Структуру готовності , заявивши, що може «скоригувати» свої вимоги безпеки, якщо конкуруюча лабораторія штучного інтелекту випустить модель «високого ризику» без аналогічних захистів.

Як зазначив Альтман у своїй публікації, генеративні чат-боти зі штучним інтелектом зіткнулися з дедалі більшою увагою щодо їхнього впливу на психічне здоров'я. У нещодавніх позовах стверджується, що ChatGPT від OpenAI посилював марення користувачів, посилював їхню соціальну ізоляцію і навіть довів деяких до самогубства. (Компанія заявила, що продовжує працювати над покращенням здатності ChatGPT розпізнавати ознаки емоційного стресу та зв'язувати користувачів із реальною підтримкою.)

Джерело матеріала
loader
loader