Дослідник у галузі кібербезпеки Йоган Рейбергер виявив вразливість у ChatGPT, яка дозволяє зловмисникам впроваджувати неправдиву інформацію в пам'ять чат-бота за допомогою шкідливих запитів. Ця проблема може загрожувати конфіденційності даних користувачів. Про це пише Embrace The Red.
ChatGPT використовує довготривалу пам'ять для зберігання інформації про користувача, включаючи вік, стать та особисті переваги. Це спрощує спілкування, тому що чат-бот пам'ятає важливі дані з попередніх розмов. Однак зловмисники можуть використати спеціальні запити, щоб підмінити ці дані на хибні.
Дослідник продемонстрував, як через непрямі функції, наприклад, за допомогою документів чи посилань можна змусити штучний інтелект повірити, що користувач живе у «Матриці» чи вважає Землю пласкою. Всі наступні діалоги будуть базуватися на цих фальшивих даних. Особливо небезпечним стало використання зовнішніх файлових сховищ, приміром Google Диск або OneDrive.
У травні було виявлено цю проблему в OpenAI, але його звернення закрили, не надавши їй великого значення. Пізніше, надавши модель злому, він показав, як шкідливі посилання дозволяють хакеру отримати доступ до всього листування користувача, включаючи нові сеанси спілкування.
OpenAI частково усунула вразливість, але дослідник вважає, що ризик ін'єкцій через шкідливі запити все ще існує. Користувачам рекомендується стежити за часом додавання нової інформації на згадку про ІІ та перевіряти її на предмет неправдивих даних. OpenAI також випустила інструкцію з управління функцією пам'яті, щоб допомогти користувачам захистити свої дані.