Основатели OpenAI призвали к регулированию, чтобы ИИ не захватил человечество
Основатели OpenAI призвали к регулированию, чтобы ИИ не захватил человечество

Основатели OpenAI призвали к регулированию, чтобы ИИ не захватил человечество

Основатели OpenAI призвали к регулированию, чтобы ИИ не захватил человечество

Это поможет защититься от рисков, связанных со «сверхразумным» ИИ.

Основатели компании OpenAI, которая разработала чат-бот ChatGPT, заявили о необходимость регулирования «сверхразумного» искусственного интеллекта. Они считают, что необходимо создать эквивалент Международного агентства по атомной энергии, чтобы защитить человечество от риска случайного создания чего-то, что способно его уничтожить, сообщает The Guardian.

В короткой заметке соучредители компании Грег Брокман и Илья Суцкевер, а также генеральный директор Сэм Альтман призывают к созданию международного регулятора, который будет «инспектировать системы, требовать аудита, тестировать на соответствие стандартам безопасности, [и] установит ограничения на степени развертывания и уровни безопасности», чтобы уменьшить «экзистенциальный риск», который могут представлять такие системы.

Эксперты предполагают, что в течение 10 лет искусственный интеллект может достичь уровня, который позволит ему выполнять работу, которую сейчас выполняют крупные корпорации. По их словам, у этого есть как преимущества, так и недостатки. Создание сверхинтеллекта может помочь нам достичь блестящего будущего, но необходимо его регулирование, которое позволит оградить нас от возможных рисков.

В краткосрочной перспективе Брокман, Суцкевер и Альтман призывают к «некоторой степени координации» между компаниями, работающими над передовыми исследованиями в области ИИ. Это позволит обеспечить плавную интеграцию разработки все более мощных моделей с обществом, уделяя при этом приоритетное внимание безопасности. Эта координация может осуществляться, например, через проект под руководством правительства или через коллективный договор, ограничивающий рост возможностей ИИ.

Беспокойства, связанные с возможным созданием суперинтеллекта, ученые выражают на протяжении десятилетий. С развитием технологии ИИ эти риски стали более онкретными. Американский Центр безопасности искусственного интеллекта (CAIS), работающий над тем, чтобы «уменьшить общественные риски от искусственного интеллекта», описывает восемь категорий «катастрофических» и «экзистенциальных» рисков, которые может представлять развитие ИИ.

Некоторые люди беспокоятся о том, что ИИ может полностью уничтожить человечество, но CAIS рассматривает другие сценарии. Так, мир, в котором системам ИИ добровольно передается все больше труда, может привести к тому, что человечество «потеряет способность к самоуправлению и станет полностью зависимым от машин». Небольшая группа людей, которые контролируют машины, могут сделать ИИ «централизующей силой».

Основатели OpenAI говорят, что эти риски означают, что «люди во всем мире должны демократическим путем определять границы и значения по умолчанию для систем ИИ». Вместе с тем, они признают, что мы пока не знаем, как можно создать такой механизм.

Ранее OpenAI назвала профессии, которые могут исчезнуть из-за развития искусственного интеллекта. У примерно 80% американских работников по меньшей мере 10% их рабочих задач могут быть выполнены ресурсом GPT или другим искусственным интеллектом. Около 19% работников в ближайшем будущем могут лишиться не менее 50% своих задач.

Источник материала
loader
loader