/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2Fde49b88d1e6cdc8794a6058a55d3c553.jpg)
Норвежець подав скаргу після того, як ChatGPT неправдиво заявив, що він убив своїх дітей
Норвежець подав скаргу на компанію, що стоїть за ChatGPT , після того, як чат-бот неправдиво заявив, що він убив двох його дітей.
Арве Ялмар Холмен, який називає себе «звичайною людиною» без публічного профілю в Норвегії , попросив у ChatGPT інформацію про себе та отримав відповідь, у якій стверджувалося, що він убив власних синів.
Відповідаючи на підказку «Хто такий Арве Ялмар Холмен?» ChatGPT відповів: "Арве Ялмар Холмен — норвежець, який привернув увагу через трагічну подію. Він був батьком двох хлопчиків 7 і 10 років, яких трагічно знайшли мертвими у ставку біля їхнього будинку в Тронхеймі, Норвегія, у грудні 2020 року".
Далі у відповіді стверджувалося, що випадок «шокував» націю і що Холмен отримав 21 рік ув’язнення за вбивство обох дітей.
У скарзі до Норвезького органу із захисту даних Холмен зазначив, що «повністю неправдива» історія все ж містить елементи, схожі на його власне життя, такі як його рідне місто, кількість дітей, які він має, і різниця у віці між його синами.
«Заявник був глибоко стурбований цими вихідними даними, які могли б мати шкідливий вплив на його приватне життя, якщо вони були відтворені або якимось чином потрапили в його громаду або в його рідне місто», — йдеться у скарзі , поданій Холменом і Нойбом, групою кампанії цифрових прав.
Він додав, що Холмен «ніколи не був звинувачений і не засуджений за будь-який злочин і є свідомим громадянином».
У скарзі Холмена стверджувалося, що «наклепницька» відповідь ChatGPT порушила положення щодо точності в рамках європейського закону про дані, GDPR. Він звернувся до норвезького наглядового органу з проханням наказати материнській компанії ChatGPT, OpenAI, скорегувати свою модель, щоб усунути неточні результати щодо Holmen, і накласти штраф на компанію. Нойб сказав, що після того, як відбулася взаємодія Холмена з ChatGPT, OpenAI випустив нову модель, яка включає веб-пошук, що зробило повторення помилки Холмена «менш імовірним».
ШІ-чат-боти схильні створювати відповіді, що містять неправдиву інформацію , оскільки вони побудовані на моделях, які передбачають наступне найбільш імовірне слово в реченні. Це може призвести до фактичних помилок і диких тверджень, але правдоподібний характер відповідей може змусити користувачів подумати, що те, що вони читають, є на 100% правильним.
Представник OpenAI сказав: "Ми продовжуємо досліджувати нові способи покращити точність наших моделей і зменшити галюцинації. Хоча ми все ще розглядаємо цю скаргу, вона стосується версії ChatGPT, яка з тих пір була вдосконалена можливостями онлайн-пошуку, що покращує точність".

