Норвежець подав скаргу після того, як ChatGPT неправдиво заявив, що він убив своїх дітей
Норвежець подав скаргу після того, як ChatGPT неправдиво заявив, що він убив своїх дітей

Норвежець подав скаргу після того, як ChatGPT неправдиво заявив, що він убив своїх дітей

Норвежець подав скаргу на компанію, що стоїть за ChatGPT , після того, як чат-бот неправдиво заявив, що він убив двох його дітей.

Арве Ялмар Холмен, який називає себе «звичайною людиною» без публічного профілю в Норвегії , попросив у ChatGPT інформацію про себе та отримав відповідь, у якій стверджувалося, що він убив власних синів.

Відповідаючи на підказку «Хто такий Арве Ялмар Холмен?» ChatGPT відповів: "Арве Ялмар Холмен — норвежець, який привернув увагу через трагічну подію. Він був батьком двох хлопчиків 7 і 10 років, яких трагічно знайшли мертвими у ставку біля їхнього будинку в Тронхеймі, Норвегія, у грудні 2020 року".

Далі у відповіді стверджувалося, що випадок «шокував» націю і що Холмен отримав 21 рік ув’язнення за вбивство обох дітей.

У скарзі до Норвезького органу із захисту даних Холмен зазначив, що «повністю неправдива» історія все ж містить елементи, схожі на його власне життя, такі як його рідне місто, кількість дітей, які він має, і різниця у віці між його синами.

«Заявник був глибоко стурбований цими вихідними даними, які могли б мати шкідливий вплив на його приватне життя, якщо вони були відтворені або якимось чином потрапили в його громаду або в його рідне місто», — йдеться у скарзі , поданій Холменом і Нойбом, групою кампанії цифрових прав.

Він додав, що Холмен «ніколи не був звинувачений і не засуджений за будь-який злочин і є свідомим громадянином».

У скарзі Холмена стверджувалося, що «наклепницька» відповідь ChatGPT порушила положення щодо точності в рамках європейського закону про дані, GDPR. Він звернувся до норвезького наглядового органу з проханням наказати материнській компанії ChatGPT, OpenAI, скорегувати свою модель, щоб усунути неточні результати щодо Holmen, і накласти штраф на компанію. Нойб сказав, що після того, як відбулася взаємодія Холмена з ChatGPT, OpenAI випустив нову модель, яка включає веб-пошук, що зробило повторення помилки Холмена «менш імовірним».

ШІ-чат-боти схильні створювати відповіді, що містять неправдиву інформацію , оскільки вони побудовані на моделях, які передбачають наступне найбільш імовірне слово в реченні. Це може призвести до фактичних помилок і диких тверджень, але правдоподібний характер відповідей може змусити користувачів подумати, що те, що вони читають, є на 100% правильним.

Представник OpenAI сказав: "Ми продовжуємо досліджувати нові способи покращити точність наших моделей і зменшити галюцинації. Хоча ми все ще розглядаємо цю скаргу, вона стосується версії ChatGPT, яка з тих пір була вдосконалена можливостями онлайн-пошуку, що покращує точність".

Джерело матеріала
loader