Компания OpenAI, разрабатывающая ChatGPT, призвала к регулированию "сверхумных" искусственных интеллектов, чтобы защитить человечество от риска случайного создания чего-то, способного его уничтожить. Об этом сообщает The Guardian.
В краткой записке, опубликованной на сайте компании, соучредители Грег Брокман и Илья Суцкевер и генеральный директор Сэм Альтман призывают международный регулятор начать работу над тем, как "проверять системы, требовать проведения аудитов, тестировать на соответствие стандартам безопасности, налагать ограничения на степень развертывания и уровень безопасности", чтобы снизить "экзистенциальный риск", который могут составлять такие системы.
В краткосрочной перспективе троица призывает к "определенному уровню координации" между компаниями, работающими на передовой исследования в области ИИ, чтобы обеспечить плавную интеграцию разработки все более мощных моделей в общество, предоставляя при этом приоритет безопасности. Такая координация может осуществляться, например, через проект под руководством правительства или коллективное соглашение об ограничении роста возможностей ИИ.
Исследователи десятилетиями предупреждали о потенциальных рисках, связанных с суперинтеллектом, но с развитием ИИ эти риски стали более конкретными. Американский Центр безопасности искусственного интеллекта (CAIS), который работает над тем, чтобы "уменьшить общественные риски от искусственного интеллекта", описывает восемь категорий "катастрофических" и "экзистенциальных" рисков, которые может представлять развитие ИИ.
Лидеры OpenAI говорят, что эти риски означают, что "люди по всему миру должны демократически решать вопрос о границах и настройке систем ИИ", но признают, что "мы еще не знаем, как разработать такой механизм". Впрочем, они говорят, что дальнейшее развитие мощных систем стоит риска.