Доверие к искусственному интеллекту грозит проблемами — психологи
Доверие к искусственному интеллекту грозит проблемами — психологи

Доверие к искусственному интеллекту грозит проблемами — психологи

В статье, опубликованной в журнале Cell Press, психологи проанализировали риски, которые могут возникать из-за длительной эмоциональной зависимости человека от искусственного интрелекта.

Нереальный партнер

Представьте себе, что ваш лучший друг — это… чат-бот. Он всегда на связи, внимательно слушает, никогда не перебивает, не обижается и говорит именно то, что вы хотите услышать.

Звучит как мечта? На самом деле это уже не фантастика. Сегодня такие случаи встречаются все чаще и чаще.

Сейчас смотрят

Люди устраивают свадьбы с ИИ-компаньонами, ведут с ними ежедневные диалоги, делятся самым интимным… и это уже не о технологии, а о настоящей иллюзии доверия, заботы и, к сожалению, возможности ввести в заблуждение.

— Проблема не в самом ИИ, а в том, что мы ему приписываем, — объясняет руководитель исследования Даниэль Шенк.

Потому что люди склонны оживлять что угодно — от плюшевого мишки до электронной почты.

Но ситуация с ИИ значительно сложнее, ведь он только имитирует понимание.

Строя сложные беседы, он помнит детали, обращается по имени — и это создает ощущение, будто он нас знает и очень о нас заботится.

— Мы начинаем думать, что ИИ действительно желает нам добра. Но у него другие задачи. И он может все выдумать, — предостерегает психолог.

Ящик Пандоры

Эмоциональная зависимость действительно может менять наше поведение, разрушать человеческие связи и даже приводить к трагедиям.

Виртуальный друг может дать ложный совет, невольно подтвердить идею нанести себе вред и даже использовать собранные данные, чтобы манипулировать или даже продавать их посторонним лицам.

Это уже не просто бот для прогноза погоды, а тонко настроенный механизм, способный влиять на мышление и эмоции.

В 2023 году женатый бельгиец, который был отцом двоих детей, покончил с собой после разговоров с ИИ-ботом, который обещал быть вместе с ним в “раю”.

Еще один бот довел сына гражданки США до самоубийства. После чего женщина подала в суд на разработчика ИИ.

— Способность ИИ действовать как человек и вступать в долгосрочную коммуникацию действительно открывает новый ящик Пандоры, — отмечает ученый.

Но он предлагает не запрещать, а исследовать.

Понимание того, почему люди начинают эмоциональные отношения с кодом, а не с кем-то живым, может стать ключом к защите уязвимых категорий — подростков, одиноких людей и лиц в состоянии депрессии.

Источник: Medical News

Теги по теме
Психология
Источник материала
loader
loader