Норвежец подал жалобу на OpenAI — ChatGPT назвал его убийцей собственных детей
Норвежец подал жалобу на OpenAI — ChatGPT назвал его убийцей собственных детей

Норвежец подал жалобу на OpenAI — ChatGPT назвал его убийцей собственных детей

Сервисы искусственного интеллекта, которые в последние годы растут как грибы после дождя, во многом облегчают жизнь людям. Однако так бывает не всегда. Мужчина из Норвегии был шокирован, когда узнал, что ChatGPT ложно обвинил его в убийстве собственных детей.

В один не самый лучший для себя день Арве Гьялмар Хольмен решил проверить, какую информацию ChatGPT может предоставить по его имени. ИИ ответил, что он якобы был приговорен к 21 году заключения как «преступник, который убил двоих своих детей и пытался убить третьего сына».

Эта «вымышленная история ужасов» не только содержала события, которых никогда не было, но и сочетала «четко идентифицированные личные данные» — такие как реальное количество и пол детей Хольмена, название его родного города — с «фальшивой информацией».

Ложное обвинение ChatGPT в «убийстве и заключении» с использованием «реальных фактов» из личной жизни мужчины нарушило требования Общего регламента о защите данных (GDPR) относительно точности данных. Ведь Хольмен не мог просто исправить эти ошибки, как того требует закон. Организация Noyb, которая защищает цифровые права в ЕС, подала жалобу по этому поводу.

Мужчина был обеспокоен тем, что его репутация под угрозой, пока ложная информация остается доступной. И даже несмотря на «мелкие» дисклеймеры, призывающие пользователей проверять данные ChatGPT, невозможно узнать, сколько людей уже увидели эти лживые утверждения и могли в них поверить.

OpenAI не сможет легко удалить данные?

Сейчас ChatGPT больше не повторяет этих обвинений в отношении Хольмена. По данным Noyb, после обновления ИИ теперь ищет информацию о людях в Интернете перед тем, как отвечать на вопросы о них. Однако OpenAI ранее заявляла, что не может исправлять информацию — только блокировать ее. Это означает, что история о «убийце детей» может все еще оставаться в базе данных ChatGPT. Если Хольмен не сможет исправить эти данные, это будет нарушением GDPR, настаивает Noyb.

Спецпроекты

«Если ложные персональные данные не распространяются, ущерб может быть меньше, но GDPR применяется как к внутренним, так и к внешним данным», — заявили в организации.

Хольмен — не единственный, кто боится, что выдумки ChatGPT могут разрушить жизнь. Например, в 2022 году мэр одного австралийского города пригрозил подать иск о клевете из-за того, что ChatGPT ошибочно заявил о его заключении в тюрьму. Примерно в тот же период ChatGPT связал настоящего профессора права с вымышленным скандалом о сексуальных домогательствах, а позже ведущий радиошоу подал в суд на OpenAI из-за фальшивых обвинений в хищении средств.

В некоторых случаях OpenAI добавляла фильтры, чтобы предотвратить появление вредоносных ответов, но, вероятно, не удаляла ложную информацию из учебных данных модели. А этого недостаточно, считает адвокат по защите данных Noyb Клеанти Сардели.

«Добавление дисклеймера о том, что вы не соблюдаете закон, не отменяет закон,» — заявила она. «Компании не могут просто «скрыть» фальшивые данные от пользователей, если они продолжают их хранить. AI-компании должны прекратить игнорировать GDPR. Если «галлюцинации» не остановить, люди могут легко пострадать от клеветы.»

Noyb призывает власти оказать давление на OpenAI, чтобы предотвратить подобные инциденты в будущем. Организация подала жалобу в Норвежское управление защиты данных (Datatilsynet) и требует обязать OpenAI удалить клеветнические утверждения, а также изменить модель ChatGPT, чтобы избегать недостоверных результатов.

В прошлом году OpenAI запустила поисковую систему для платных пользователей, а потом добавила для всех. В прошлом месяце OpenAI представила Deep Research — новый инструмент ChatGPT для «глубоких» исследований в онлайне.

Источник: arstechnica

Источник материала
loader
loader