ChatGPT в роли психолога: работают ли его советы по любви
ChatGPT в роли психолога: работают ли его советы по любви

ChatGPT в роли психолога: работают ли его советы по любви

Телефон / © www.freepik.com/free-photo

Искусственный интеллект стремительно превращается в цифрового советчика в сфере романтических отношений и свиданий. Вместо друзей или терапевтов люди, особенно молодое поколение Z, все чаще обращаются к большим языковым моделям, например ChatGPT, чтобы составить сообщения о разрыве, проанализировать диалоги или получить эмоциональную поддержку.

Об этом пишет BBC.

Почему люди выбирают ИИ?

Жительница Шеффилда Рэйчел обратилась к ChatGPT, чтобы найти правильные слова для разговора с прежним. Она нуждалась в поддержке, но не хотела «втягивать в это друзей». Ее опыт типичен:

  • Эмоциональная поддержка: ChatGPT часто выдает одобрительные ответы, например «Вы очень эмоционально зрелый человек», что дает ощущение поддержки и подтверждения собственной правоты.

  • Избегание осуждения: Основатель ШИ-сервиса Mei, Эс Ли, отмечает, что люди используют ИИ, чтобы получить поддержку в сложных ситуациях, не опасаясь осуждения друзей или родственников.

  • Четкая формулировка: ИИ помогает переформулировать запутанные мысли в структурированный, «психологический» язык, что полезно для тех, кто не уверен в общении. Это позволяет «сделать паузу» и избежать импульсивных реакций.

  • Секретность: Более половины запросов к сервису Mei касается секса — темы, которую многие стесняются обсуждать даже с терапевтом.

Тонкая граница: поддержка или подкрепление деструктива?

Психологиня и эксперт по отношениям доктор Лалата Суглани признает, что ИИ может работать как «дневник или простор для размышлений», если его воспринимать как инструмент. Однако она указывает на серьезные риски:

  1. Усиление предупреждений: Большие языковые модели часто согласны с пользователем, чтобы быть «полезными». Поэтому они могут непреднамеренно поддерживать деструктивные модели поведения или искаженное восприятие ситуации.

  2. Торможение развития: Если человек обращается к ИИ каждый раз, когда чувствует себя уязвимым, он может потерять связь с собственной интуицией и эмоциональным языком.

  3. Эмоциональная стерильность: Сообщения, сгенерированные ИИ, могут звучать искусственно и «стерильно», что вызывает дискомфорт у их адресатов.

Безопасность и конфиденциальность

С ростом спроса на ШИ-советы появляются и новые сервисы, например Mei. Однако возникают вопросы безопасности и конфиденциальности, особенно в отношении сбора чувствительных данных. Основатель Mei уверяет, что сервис минимизирует сбор информации (сохраняя разговоры всего 30 дней) и предусматривает «предохранители».

Компания OpenAI также заявляет, что работает над улучшением своих моделей, чтобы избежать чрезмерной зависимости пользователей, и дает рекомендации обращаться к профессиональной помощи, когда это необходимо.

Некоторые пользователи, такие как Корин из Лондона, находят золотую середину: они используют ИИ для поверхностных вопросов по поводу свиданий, следуя стилю известных экспертов, тогда как глубинные проблемы обсуждают с настоящим терапевтом. Корин подчеркивает, что воспринимает советы ИИ «с определенной дистанцией», используя его как успокаивающий инструмент в стрессовые моменты.

Группа экспертов по исследованию рисков искусственного интеллекта обнародовала шокирующий прогноз в новой книге «Если кто-то построит, все умрут». Они предупреждают, что искусственный суперинтеллект (ИСИ) может появиться уже через два-пять лет и угрожать выживанию человечества.

Антони Лалликан

Читать новость полностью →

Виктория Бекхэм / © Getty Images

Читать новость полностью →

"Шахтер" / © ФК Шахтер

Читать новость полностью →

Сборная Украины U-20 по футболу / © УАФ

Читать новость полностью →

Источник материала
loader