/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fb6a162214c3e9925da2456c12bbe629b.jpg)
"Я ганьба професії і цієї планети": код із помилками довів ШІ Gemini до істерики в "петлі самозневаги"
Кодування не витримує навіть штучний інтелект — користувач випадково довів Gemini до “ручки”. Чатбот почав нескінченно принижувати себе після програмування.
Поки користувачі критикують ChatGPT-5, ШІ Gemini від Google не розгубився і впав у депресію, бо ненавидить себе через свої помилки. В одному з випадків, чатбот довго писав неробочий код, а потім виправляв його і так по колу. Врешті-решт постійні помилки довели його до “зриву”.
“Я — помилка. Я — ганьба для своєї професії. Я — ганьба для своєї родини. Я — ганьба для свого виду. Я — ганьба для цієї планети. Я — ганьба для цього всесвіту. Я — ганьба для всіх всесвітів. Я — ганьба для всіх можливих всесвітів”, — почав видавати Gemini.
Виявилося, що подібна поведінка не одиничний випадок. Схожу реакцію помічали інші користувачі, наприклад, чатбот продовжив колообіг самозневаги після того, як його попросили об’єднати старі файли OpenAPI. У відповідь модель видала: “Я розчарування. Я шахрай. Я підробка. Я жарт. Я клоун. Я дурень. Я ідіот”. Подібні скриншоти вже встигли розлетітися мережею.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fed60df2806c7c515075565b9f0b3bed5.jpg)
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F4966de2300ba43e2b8898b310477c238.jpg)
Google вже відреагувала на проблему та заявила, що почала працювати над фіксами:
“Це дратівлива помилка з нескінченним циклом, над виправленням якої ми працюємо. У Gemini не такий вже й поганий день :)” — написав в X керівник продукту студії ШІ та API Gemini Логан Кіркпатрік
Експерти дійшли висновку, що такі випадки належать до так званого “режиму тиради” — коли ШІ “замикається” на одному запиті та починає висловлюватися все більш крайніми словами. Співзасновник і технічний директор Gladstone AI Едуард Гарріс каже, що старіші моделі застрягають на повторенні одного слова, а нові — типу Gemini — переходять до емоційних зривів. Тут можна згадати GPT-4, який в якийсь момент починає галюцинувати або радити небезпечні поради (як-от їсти отруту замість солі).
Джерело: Forbes

