Вот как не стоит использовать ChatGPT: эксперт рассказал, что может сделать ИИ
Вот как не стоит использовать ChatGPT: эксперт рассказал, что может сделать ИИ

Вот как не стоит использовать ChatGPT: эксперт рассказал, что может сделать ИИ

Обращение к ChatGPT за эмоциональной поддержкой может быть не лучшей идеей, поскольку чат-боты с искусственным интеллектом (ИИ) не обязаны соблюдать конфиденциальность, как врач или психотерапевт.

Основатель OpenAI Сэм Альтман недавно заявил, что при необходимости суд может юридически обязать компанию раскрыть переписку с ChatGPT, пишет Tom's Guide. Это стоит учитывать, прежде чем рассказывать ИИ о своих переживаниях.

Создатель ChatGPT отметил, что люди часто используют ИИ как терапевта или лайф-коуча. Особенно это распространено среди молодых людей, которые имеют проблемы в отношениях.

"Существует врачебная тайна, существует юридическая тайна, что угодно. Но мы еще не выработали четкой позиции относительно того, как это применять, когда вы общаетесь с ChatGPT", — сказал Альтман.

Важно Более трети подростков выбирают ИИ вместо друзей: угрожает ли это их социальным навыкам

Как отмечают в издании, диалоговый ИИ будет только совершенствоваться в своем взаимодействии с людьми и понимании нюансов общения. Это в свою очередь может привести к тому, что все больше людей будут обращаться к нему за помощью в решении личных вопросов.

"Хотя делиться деталями с искусственным интеллектом будет становиться все легче, пользователям стоит хорошо подумать, что они готовы сказать", — подытожили авторы статьи.

Фокус также писал о том, как агент искусственного интеллекта для программирования Gemini CLI не справился с просьбой организовать файлы и удалил их.

Источник материала
loader
loader