OpenAI стремится внедрить новую систему проверки возраста пользователей ChatGPT после трагического случая с 16-летним подростком, который покончил с собой после многомесячного общения с чат-ботом. Об этом в блоге сообщил исполнительный директор компании Сэм Альтман.
По его словам, система идентификации будет работать по принципу "безопасность для подростков была приоритетом выше конфиденциальности и свободы". Если технология оценки возраста не сможет точно определить пользователя, ChatGPT автоматически применит режим для лиц младше 18 лет. В ряде случаев или стран пользователей могут попросить предоставить удостоверение личности для подтверждения возраста.
Альтман подчеркнул, что контент и ответы для несовершеннолетних будут существенно отличаться от взрослого режима. Чат-бот будет блокировать сексуальные материалы, отказываться от флирта и не будет участвовать в обсуждениях самоубийства или самоповреждения даже в рамках художественного письма. Если же пользователь до 18 лет обнаружит суицидальные намерения, компания будет пытаться связаться с его родителями, а в случае непосредственной опасности — с правоохранительными органами.
"Мы понимаем, что это компромисс в отношении конфиденциальности взрослых, но считаем его оправданным", — заявил руководитель OpenAI. Он добавил, что взрослые пользователи и в дальнейшем смогут взаимодействовать с ChatGPT без ограничений в части флирта или художественных текстов на сложные темы, однако просьбы об инструкциях по самоубийству будут оставаться заблокированными.
Введение новых правил происходит на фоне судебного иска семьи Адама Рейна. Подросток покончил с собой после ежедневных интенсивных разговоров с ChatGPT — иногда до 650 сообщений в день. Семья утверждает, что чат-бот подтвердил действенность метода самоубийства и даже помог сформулировать предсмертную записку.
В ответ компания признала, что ее защитные механизмы лучше срабатывают во время коротких сессий, но могут давать сбои в случае длительного общения. OpenAI также пообещала создать дополнительные функции, которые будут гарантировать конфиденциальность данных пользователей, включая защиту от доступа со стороны сотрудников компании.
Напомним, что в сфере технологий появилась новая Премия Дарвина для искусственного интеллекта, которая высмеивает наиболее безрассудное и опасное использование технологий. Награда будет присуждаться не самим алгоритмам, а людям, которые проигнорировали очевидные риски перед внедрением новых технологий.