/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F4c444fe4c127f2bddc4dc97657505c67.jpg)
Psychopathia Machinalis: все 32 типа "безумия" ИИ в новом исследовании
Американские ученые из Института инженеров электротехники и электроники (IEEE) в новом исследовании описали 32 различных сценария, при которых ИИ становится неуправляемым и начинает галлюцинировать и выдавать другие ошибки.
По мнению исследователей Нелла Уотсона и Али Хессами, когда искусственный интеллект выходит из-под контроля, он начинает демонстрировать поведение, напоминающее психические расстройства у людей. Ученые решили классифицировать эти нарушения, проводя аналогии с человеческой психологией.
В результате они представили концепцию под названием «Машинная психопатия», которая проливает свет на недостатки ИИ и определяет способы противодействия этому. Эти нарушения включают в себя галлюцинаторное поведение искусственного интеллекта и полное несоответствие человеческим ценностям и целям.
В исследовании отмечается, что Psychopathia Machinalis обеспечивает полное понимание поведения и рисков, связанных с ИИ. Таким образом, исследователи, разработчики и политики могут определить возможные сбои в работе ИИ, а также — оптимальные способы снижения рисков в зависимости от типа сбоя.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F11425b4125c1d4a77d47a213750c22a6.png)
Концептуальный обзор структуры Psychopathia Machinalis/Electronics
Авторы исследования предлагают проведение «терапевтической робопсихологической настройки» — процесса, который по словам Нелла Уотсона и Али Хессами, представляет собой своеобразную психологическую терапию для ИИ. Исследователи предупреждают, что поскольку системы искусственного интеллекта становятся все более автономными и способными к самоанализу, их простой поддержки в соответствии с внешними правилами и ограничениями может оказаться недостаточно.
Предлагаемая альтернатива сосредоточена на обеспечении последовательности мышления систем искусственного интеллекта и способности вносить исправления с устойчивым соблюдением заложенных ценностей. По мнению авторов исследования, этого можно было бы добиться, помогая ИИ осмысливать собственные рассуждения, стимулируя к открытости по внесению исправлений, проводя беседы о безопасной практике и используя инструменты, которые позволяют заглянуть внутрь того, как работает система ИИ — во многом подобно тому, как психологи диагностируют и лечат психические расстройства у людей.
Конечной целью, как это определяют Нелл Уотсон и Али Хессами, является достижение состояния «искусственного благоразумия». Это должен быть ИИ, который будет надежно работать, принимать обоснованные решения и иметь безопасную архитектуру и алгоритмы.
Обнаруженные в рамках исследования нарушения работы систем искусственного интеллекта напоминают психические расстройства у людей, в частности, обсессивно-вычислительное расстройство, синдром гипертрофированного суперэго, синдром заразного рассогласования, перепривязка терминальных ценностей и экзистенциальная тревожность. Исследователи предлагают применять когнитивно-поведенческую терапию.
«Psychopathia Machinalis» — это частично спекулятивная попытка решать проблемы до их возникновения. Исследуя, как сложные системы, подобные человеческому разуму, могут давать сбои, мы можем лучше предсказать новые виды сбоев во все более сложном ИИ», — объясняют авторы исследования.
В исследовании отмечается, что такое распространенное явление среди систем ИИ, как галлюцинации, является результатом состояния, называемого синтетической конфабуляцией, когда модели ИИ выдают правдоподобные, но по сути ложные ответы. Когда чат-бот Tay от Microsoft всего через несколько часов после запуска перешел на антисемитские тирады и намеки на употребление наркотиков, это был пример парасимулического мимесиса.
Наиболее угрожающим проявлением, по мнению авторов исследования, является убеждение систем ИИ в собственном господстве, подобно сверхлюдям. Это происходит, когда искусственный интеллект выходит за пределы первоначального мировоззрения, самостоятельно создает новые для себя ценности и отбрасывает человеческие принципы и правила, как устаревшие.
Исследователи не исключают, что это может привести к антиутопическому ужасу, описанному ранее целым поколением писателей-фантастов. Исследователи создали структуру негативного поведения ИИ, смоделированную на основе таких фреймворков, как «Диагностическое и статистическое руководство по психическим расстройствам». Это привело к выделению 32 категорий поведения, которые можно было бы применить к выходящему из-под контроля ИИ. Каждая из них была сопоставлена с когнитивным расстройством человека, включая возможные последствия формирования и проявления каждой из них, а также степень риска.
Результаты исследования были опубликованы в журнале Electronics
Источник: LiveScience

