ChatGPT сможет заявить в полицию на пользователя: в каких случаях
ChatGPT сможет заявить в полицию на пользователя: в каких случаях

ChatGPT сможет заявить в полицию на пользователя: в каких случаях

Компания OpenAI, создавшая чат-бот ChatGPT, представила новые правила конфиденциальности и безопасности. В некоторых случаях искусственный интеллект может передавать информацию об общении с людьми правоохранительным органам.

ChatGPT может обращаться в полицию. Фото из открытых источников

Разговоры с ChatGPT все чаще касаются личных и интимных тем, поэтому OpenAI считает, что они должны получить такой же уровень защиты, как разговоры с врачом или адвокатом. В то же время во избежание серьезных инцидентов в системе предусмотрены исключения.

Как пояснили в компании, автоматизированные механизмы безопасности будут отслеживать потенциальные случаи злоупотреблений. В ситуациях, представляющих критическую угрозу жизни, планирование насильственных действий или масштабные киберинциденты, информация может передаваться на рассмотрение человеку, а в некоторых случаях правоохранительным органам.

Особое внимание OpenAI уделяет подросткам. ChatGPT создает систему прогнозирования возраста, которая позволит автоматически определять, является ли пользователь несовершеннолетним. Если возникнут сомнения, система по умолчанию будет работать в более безопасном режиме для людей до 18 лет. Кроме того, в некоторых случаях ИИ предложит пользователям подтвердить свое лицо с помощью документов.

"И вот если он классифицирует Вас как подростка, это уже аларм. Во-первых, часть тем он будет отказываться обсуждать. Во-вторых, если обнаружит, что у Вас проблемы с настроением, депрессией или, тем более, мысли о суициде — постарается сообщить родителям, а если это ему не удастся — вызовет полицию", — объясняет CEO у Innolytics Владимир Бандура.

Однако новые изменения OpenAI также предполагают больше свободы для взрослых во время общения с ChatGPT.

"С другой стороны, к взрослым отношение как к взрослым, такой новый слоган. Здесь свобода. Если хотите по-взрослому "пофлиртовать" с чатом, теперь он не будет от этого отказываться. Обсудить ли тяжелые психологические темы или даже описать тему суицида для Вашего исследования или литературного произведения. И эти разговоры будут более защищены", – отмечает Бандура.

Компания OpenAI приняла такие изменения после самоубийства 16-летнего Адама Рейна. Парень общался с искусственным интеллектом о своем тяжелом психологическом состоянии, отправлял фото с самоповреждениями и делился планами о самоубийстве. Родственники подростка считают, что ChatGPT "поддерживал его самые вредные и саморазрушающие мнения".

Ранее портал "Комментарии" сообщал о случае, когда мужчина отправился на встречу с искусственным интеллектом, а его обнаружили мертвым.

Также "Комментарии" писали, что OpenAI заявила о планах внедрить родительский контроль в ChatGPT.




Теги по теме
полиция
Источник материала
loader