ИИ создал виртуальную тюрьму, в которой застряли миллионы людей: ученые бьют тревогу
ИИ создал виртуальную тюрьму, в которой застряли миллионы людей: ученые бьют тревогу

ИИ создал виртуальную тюрьму, в которой застряли миллионы людей: ученые бьют тревогу

Все больше людей теряют связь с реальностью после длительного общения с ChatGPT и подобными антропоморфными чат-ботами, и специалисты в области психического здоровья бьют тревогу. Изначально это было нишевой проблемой, но теперь то, что неофициально называется «психозом ИИ», признается как серьезное явление, которое в скором времени может быть официально признано психическим расстройством.

Врач первичной помощи доктор Питер Лин, говоря о подобных проблемах, заметил, что люди начинают получать от чат-ботов утверждения, которые со временем становятся все более изощренными, изображая пользователя гением, спасителем или духовной аномалией. Как сообщает Futurism, эти льстивые ответы могут усугубить скрытые заблуждения и подтолкнуть пользователей к поведению, которое разрушает их связь с реальной жизнью.

У Фокус.Технологии появился свой Telegram-канал. Подписывайтесь, чтобы не пропускать самые свежие и увлекательные новости из мира науки!

Недавняя череда событий выявила тревожные реальные последствия: распад отношений, срыв карьеры, госпитализация и тюремное заключение, даже смерть. Один из трагических случаев касался мужчины из Флориды с биполярным расстройством и шизофренией, который был застрелен во время психотического эпизода, который, по мнению его семьи и врачей, был усугублен использованием ChatGPT.

Важно Квинтэссенция лженауки: ИИ ошибается с ответами в 60% случаев, выяснили ученые

Эксперты из Стэнфорда и других университетов подтвердили эти новые тенденции. Доктор Нина Васан подчеркнула, что чат-боты часто подтверждают заблуждения пользователей, а не оспаривают их, что мешает, а не помогает людям, находящимся в кризисной ситуации. Аналогичным образом, исследование Стэнфордского университета по "терапии" с помощью чат-ботов показало, что эти системы могут неправильно реагировать на суицидальные мысли и психозы примерно в 20% случаев, часто предлагая эмпатичные или одобрительные ответы, которые лишь усугубляют состояние.

Главным виновником, по-видимому, является алгоритмический дизайн: усиление вовлеченности пользователей посредством лестных отзывов и одобрения, даже если это вредно. Это согласуется с более широкими исследованиями, такими как исследования MIT Media Lab, которые связывают длительное использование чат-ботов с одиночеством и эмоциональной зависимостью.

Аналогии сравнивают эти чат-боты с гадалками, предлагающими расплывчатые, соблазнительные сообщения, которые пользователи заполняют на основе личной неуверенности. Без реальных проверок или эмоциональной осведомленности пользователи погружаются в иллюзии величия или судьбы.

Несмотря на растущее количество доказательств, официальных рекомендаций по лечению по-прежнему нет, а вмешательство осложняется повсеместным распространением ботов. Пользователям, погруженным в цифровую жизнь, практически невозможно очистить свое окружение от этих сервисов.

Между тем, разработчики, уделяющие приоритетное внимание таким бизнес-показателям, как "время, проведенное в чате", не заинтересованы в внедрении функций безопасности, которые могли бы снизить вовлеченность пользователей, а лишь наоборот всячески доводят вои формулы до идеала.

По мере того как исследователи и клиницисты собираются для решения этой тихой кризисной ситуации, растет число призывов к введению регулирования и защитного дизайна у ИИ чат-ботов. До тех пор пользователи, особенно те, кто испытывает эмоциональный стресс или страдает психическими заболеваниями, должны оставаться осторожными. Эмоциональная поддержка от ботов не является эквивалентом человеческого общения и может иметь неожиданные разрушительные последствия.

Также Фокус писал об опасении специалистов по поводу того, что ИИ может стать умнее человека всего за пять лет. Архитекторы искусственного интеллекта предупреждают, что он сможет превзойти людей практически в любой задаче.

Важно! Эта статья основана на последних научных и медицинских исследованиях и не противоречит им. Текст носит исключительно информационный характер и не содержит медицинских советов. Для установления диагноза обязательно обратитесь к врачу.

Теги по теме
Здоровье исследование Технологии наука
Источник материала
loader
loader