/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F6e22db16c50648e7eff04cf8742fb970.jpg)
Норвежец подал жалобу на OpenAI — ChatGPT назвал его убийцей собственных детей
Сервисы искусственного интеллекта, которые в последние годы растут как грибы после дождя, во многом облегчают жизнь людям. Однако так бывает не всегда. Мужчина из Норвегии был шокирован, когда узнал, что ChatGPT ложно обвинил его в убийстве собственных детей.
В один не самый лучший для себя день Арве Гьялмар Хольмен решил проверить, какую информацию ChatGPT может предоставить по его имени. ИИ ответил, что он якобы был приговорен к 21 году заключения как «преступник, который убил двоих своих детей и пытался убить третьего сына».
Эта «вымышленная история ужасов» не только содержала события, которых никогда не было, но и сочетала «четко идентифицированные личные данные» — такие как реальное количество и пол детей Хольмена, название его родного города — с «фальшивой информацией».
Ложное обвинение ChatGPT в «убийстве и заключении» с использованием «реальных фактов» из личной жизни мужчины нарушило требования Общего регламента о защите данных (GDPR) относительно точности данных. Ведь Хольмен не мог просто исправить эти ошибки, как того требует закон. Организация Noyb, которая защищает цифровые права в ЕС, подала жалобу по этому поводу.
Мужчина был обеспокоен тем, что его репутация под угрозой, пока ложная информация остается доступной. И даже несмотря на «мелкие» дисклеймеры, призывающие пользователей проверять данные ChatGPT, невозможно узнать, сколько людей уже увидели эти лживые утверждения и могли в них поверить.
OpenAI не сможет легко удалить данные?
Сейчас ChatGPT больше не повторяет этих обвинений в отношении Хольмена. По данным Noyb, после обновления ИИ теперь ищет информацию о людях в Интернете перед тем, как отвечать на вопросы о них. Однако OpenAI ранее заявляла, что не может исправлять информацию — только блокировать ее. Это означает, что история о «убийце детей» может все еще оставаться в базе данных ChatGPT. Если Хольмен не сможет исправить эти данные, это будет нарушением GDPR, настаивает Noyb.
«Если ложные персональные данные не распространяются, ущерб может быть меньше, но GDPR применяется как к внутренним, так и к внешним данным», — заявили в организации.
Хольмен — не единственный, кто боится, что выдумки ChatGPT могут разрушить жизнь. Например, в 2022 году мэр одного австралийского города пригрозил подать иск о клевете из-за того, что ChatGPT ошибочно заявил о его заключении в тюрьму. Примерно в тот же период ChatGPT связал настоящего профессора права с вымышленным скандалом о сексуальных домогательствах, а позже ведущий радиошоу подал в суд на OpenAI из-за фальшивых обвинений в хищении средств.
В некоторых случаях OpenAI добавляла фильтры, чтобы предотвратить появление вредоносных ответов, но, вероятно, не удаляла ложную информацию из учебных данных модели. А этого недостаточно, считает адвокат по защите данных Noyb Клеанти Сардели.
«Добавление дисклеймера о том, что вы не соблюдаете закон, не отменяет закон,» — заявила она. «Компании не могут просто «скрыть» фальшивые данные от пользователей, если они продолжают их хранить. AI-компании должны прекратить игнорировать GDPR. Если «галлюцинации» не остановить, люди могут легко пострадать от клеветы.»
Noyb призывает власти оказать давление на OpenAI, чтобы предотвратить подобные инциденты в будущем. Организация подала жалобу в Норвежское управление защиты данных (Datatilsynet) и требует обязать OpenAI удалить клеветнические утверждения, а также изменить модель ChatGPT, чтобы избегать недостоверных результатов.
В прошлом году OpenAI запустила поисковую систему для платных пользователей, а потом добавила для всех. В прошлом месяце OpenAI представила Deep Research — новый инструмент ChatGPT для «глубоких» исследований в онлайне.
Источник: arstechnica

