/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F8e9d90f61e99053f3db5db285e05f15f.jpg)
Вчений втратив два роки роботи після того, як натиснув не ту кнопку в ChatGPT
AI-агент (а згодом і людина) підтвердили: відновити нічого неможливо.
Професор Марсель Бухер, ботанік з Кельнського університету, опублікував у журналі Nature текст про те, як одним натисканням видалив два роки наукової роботи — просто експериментуючи з налаштуваннями ChatGPT.
Бухер зізнався: за останні роки він став майже залежним від LLM-моделі OpenAI. Використовував її для всього — від листування та аналізу студентських робіт до планування лекцій, підготовки грантів і редагування наукових статей. Він знав про «галюцинації» чатботів — той самий ефект, коли модель красиво вигадує «правдоподібні» неправди. Але, каже він, вірив у стабільність робочого середовища, яке надає ШІ.
Усе змінилося в серпні 2025 року, коли він вирішив «погратися» з параметрами конфіденційності.
«Я тимчасово вимкнув опцію «data consent», бо хотів перевірити, чи залишаться доступними всі функції моделі без надання моїх даних OpenAI», — пише він у Nature. — «У той самий момент усі мої чати були назавжди видалені, а проєктні папки — порожніми. Два роки ретельно структурованої наукової роботи зникли. Жодного попередження. Жодної кнопки “скасувати”. Просто порожня сторінка».
Професор вирішив, що це якась помилка: змінив браузер, очистив кеш, перевстановив застосунок — марно. Після кількох років співпраці з ШІ він звернувся до людей.
«Коли я написав у підтримку OpenAI, перші відповіді надходили від AI-агента. Лише після кількох повторних звернень відповів реальний працівник, але суть залишилася тією самою: дані безповоротно втрачені».
У компанії пояснили: це не баг, а функція приватності. Якщо користувач вимикає дозвіл на використання даних — історія чатів видаляється без можливості відновлення.
Втім, співчуття в інтернеті це не викликало.
«Може, наступного разу зроби роботу, за яку тобі платять, сам, а не перекладай усе на клімато-вбивчий, суїцид-заохочувальний плагіаторський апарат», — написав один користувач BlueSky. Інший пожартував: «All My Apes Gone, академічне видання».
Популярна науковиця-фізикиня Анджела Колльєр додала: «Я була б у шаленій люті, якби професор, від якого залежить моя майбутня кар’єра, писав лекції, гранти і все інше через ChatGPT. Це так соромно. Як ти взагалі отримав PhD, якщо потребуєш допомоги, щоб написати email? Ти ведеш “розмови” з чатбоксом?».
На тлі всього цього питання про те, кому насправді належать створені в ШІ дані, лише загострюється. Так само як і потреба банально робити резервні копії. Тим більше, що системи AI постійно змінюються: нещодавно Сара Фрайєр з OpenAI заявила, що компанія розглядає можливість отримувати відсоток від наукових проривів, створених за допомогою ChatGPT — на тлі втрат, які ЗМІ оцінюють у $12 млрд щоквартально.
OpenAI у своєму блозі пише: «Коли інтелект переходить у науку, фарму, енергетику та фінансове моделювання — з’являються нові економічні моделі. Ліцензування та угоди щодо інтелектуальної власності стануть частиною цієї еволюції. Інтернет пройшов цей шлях, і штучний інтелект пройде його теж».
Бухер каже, що університети дедалі частіше вимагають інтегрувати ШІ в робочі процеси — від викладання до письма. Але, на його думку, сервіс ще не готовий до академічної відповідальності та вимог до надійності.
«Якщо один клік здатен безповоротно знищити роки роботи, ChatGPT не можна вважати безпечним інструментом для професійного використання», — підсумовує він.
Статтю опубліковано в журналі Nature у розділі Career Column (22 січня 2026 року) під заголовком «When two years of academic work vanished with a single click».

