/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Fd6826f221bede15d8a86437a117fe7e2.jpg)
Вот как не стоит использовать ChatGPT: эксперт рассказал, что может сделать ИИ
Обращение к ChatGPT за эмоциональной поддержкой может быть не лучшей идеей, поскольку чат-боты с искусственным интеллектом (ИИ) не обязаны соблюдать конфиденциальность, как врач или психотерапевт.
Основатель OpenAI Сэм Альтман недавно заявил, что при необходимости суд может юридически обязать компанию раскрыть переписку с ChatGPT, пишет Tom's Guide. Это стоит учитывать, прежде чем рассказывать ИИ о своих переживаниях.
Создатель ChatGPT отметил, что люди часто используют ИИ как терапевта или лайф-коуча. Особенно это распространено среди молодых людей, которые имеют проблемы в отношениях.
"Существует врачебная тайна, существует юридическая тайна, что угодно. Но мы еще не выработали четкой позиции относительно того, как это применять, когда вы общаетесь с ChatGPT", — сказал Альтман.
Важно Более трети подростков выбирают ИИ вместо друзей: угрожает ли это их социальным навыкамКак отмечают в издании, диалоговый ИИ будет только совершенствоваться в своем взаимодействии с людьми и понимании нюансов общения. Это в свою очередь может привести к тому, что все больше людей будут обращаться к нему за помощью в решении личных вопросов.
"Хотя делиться деталями с искусственным интеллектом будет становиться все легче, пользователям стоит хорошо подумать, что они готовы сказать", — подытожили авторы статьи.
Фокус также писал о том, как агент искусственного интеллекта для программирования Gemini CLI не справился с просьбой организовать файлы и удалил их.

