/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F30c81d49c0b47ba6c767bb466f86e7ab.jpg)
Що не можна розповідати чату GPT: повний перелік заборон і обмежень
За останні роки ми багато дізналися про чат-ботів – і вони про нас теж. Штучний інтелект навчився не просто відповідати на запитання, але й запам'ятовувати деталі з розмов, формуючи свого роду “пам'ять”. Завдяки цьому він може "підтягувати" раніше відомі факти про співрозмовника та вести більш змістовний і персоналізований діалог.
Що саме означає, що ШІ "пам'ятає"? Це корисно, або з цим пов'язані певні ризики? Що з цього слід робити розробникам та користувачам? Давайте розберемося.
По-перше, "пам'ять" чат-бота – не магія, а набір механізмів. Іноді це просто історія поточної сесії: модель тримає в контексті останні повідомлення і використовує їх, щоб відповідати зв’язно. В інших реалізаціях це дійсно довготривала пам'ять: платформа зберігає окремі факти про користувача (уподобання, звички, важливі події) і при наступній сесії "підтягує" їх, щоб не просити одне і те саме знову, і щоб відповіді були персоналізованими. І це здається зручним.
По-друге, переваги зрозумілі: персоналізація робить спілкування більш ефективним і "очеловіченим". Бот, який пам'ятає, що ви віддаєте перевагу каві замість чаю, що у вас маленька дитина, або що вам не можна приймати певні медикаменти, може запропонувати більш доречні поради, скоротити рутину (не повторювати налаштування) і навіть запобігти помилкам. Для бізнесу це – покращення сервісу та утримання клієнтів; для окремих користувачів – зручність і менше дратівливих повторних запитань від ШІ.
Однак є й темна сторона. Коли система зберігає деталі вашого життя, це створює ризики витоків, небажаного профілювання та ситуацій, коли бот абсолютно недоречно "згадує" те, про що ви не готові розповідати. Пам'ять ШІ може створити відчуття, ніби хтось невидимо спостерігає – і підвищує ймовірність неправильних висновків, якщо збережені дані неправильно інтерпретуються або використовуються поза контекстом.
Чому людина довіряє ШІ
Чим більше інформації про себе ми надаємо, тим кориснішими стають чат-боти з використанням ШІ. Саме тому користувачі часто надсилають їм результати медичних аналізів або навіть фрагменти ще неопублікованого коду. Здається, в цьому немає нічого незвичного – так вчиняють багато хто. Але дослідники у галузі штучного інтелекту попереджають: до такого довіри слід ставитися обережніше. Є дані, розкриття яких особливо ризиковане.
Розробникам ШІ дійсно потрібні масиви інформації для покращення своїх моделей, але навіть вони підкреслюють: таємницями ділитися не варто. У OpenAI прямо просять користувачів "не повідомляти конфіденційні відомості" в переписці, а Google в правилах для Gemini уточнює: "Не вводьте дані, якими ви не готові поділитися з кимось іншим".
Проблема в тому, що навіть нешкідливі деталі – скарги на дивний висип чи замітки про витрати за місяць – з часом можуть потрапити у вибірки, які бот використовує для навчання, а це може призвести до витоку даних. Це, мабуть, найгірший сценарій. З іншого боку, надмірна тривожність теж не допомагає. Набагато корисніше розуміти, які саме теми та дані краще ніколи не включати в розмови з штучним інтелектом і користуватися цими простими правилами, щоб ніколи не хвилюватися про конфіденційність своїх даних.
Чим краще не ділитися з чат-ботами
Чат-боти вміють розмовляти так природно, що іноді ми починаємо відкриватися їм більше, ніж знайомим. Але варто пам'ятати: усе, що ви вводите в діалог, перестає бути повністю під вашим контролем. Коли ви щось пишете чат-боту, ви вже не керуєте цією інформацією.
Ілюзія приватності оманлива. Наприклад, у березні 2023 року в ChatGPT стався збій, внаслідок якого користувачі бачили чужі повідомлення. Бували й інші інциденти: OpenAI через помилку надсилала листи з підтвердженням підписки не тим адресатам, розкриваючи імена, електронну пошту та платіжні дані. А ще історія ваших чатів може опинитися в витоках архівів або стати доступною правоохоронним органам за запитом.
Звичайно, в першу чергу слід захистити свій акаунт надійним паролем та двофакторною аутентифікацією, але важливіше не ділитися з ботом певними даними:
1. Особисті дані
Паспортні дані, номери водійських прав, адресу проживання, телефон чи дату народження краще тримати при собі. Навіть якщо чат-бот намагається "ховати" такі деталі, ризик їх витоку все одно залишається. Як зазначають в OpenAI, мета моделей – вчитися на інформації про світ, а не про приватних осіб, тому збір персональних даних намагаються мінімізувати.
2. Медична інформація
ШІ не зобов'язаний дотримуватися медичної таємниці. Тому, якщо хочете показати результати аналізів, заздалегідь замажте або обріжте документ так, щоб на ньому не залишилося ваших персональних даних.
3. Фінанси
Банківські реквізити, номери карт, ПІН-коди або дані інвестиційних рахунків – це пряме запрошення для шахраїв у разі витоку. Діліться лише тим, що не загрожує вашій безпеці.
4. Робоча конфіденційність
Використовуючи чат-боти для вирішення робочих завдань, легко випадково розкрити клієнтські дані або елементи внутрішнього коду. Так, після того, як інженер Samsung завантажив у ChatGPT частину вихідного коду, компанія заборонила співробітникам використовувати сервіс у роботі. Якщо без ШІ не обійтися, варто обговорити корпоративну підписку або впровадження власного захищеного рішення.
5. Логіни та паролі
ШІ-асистенти все частіше беруть на себе функції секретарів, але довіряти їм доступ до акаунтів небезпечно. Для зберігання паролів існують менеджери, а чат-боти такої захищеності не забезпечують.
Крім того, не радимо ділитися з штучним інтелектом власними оригінальними ідеями, тому що немає жодних гарантій, що рано чи пізно вони не будуть використані алгоритмами ШІ для чогось іншого.
“Затираємо сліди”
У різних ШІ-сервісів підхід до даних відрізняється. Так, Claude за замовчуванням не використовує ваші чати для навчання і стирає їх через два роки. ChatGPT, Copilot від Microsoft та Gemini від Google застосовують діалоги в навчанні, але дозволяють відключити цю функцію в налаштуваннях.
Важливо пам'ятати: коли ви ставите “лайк” або “дизлайк” на відповідь, це може означати згоду на використання вашого діалогу для оцінки та навчання.
Щоб мінімізувати ризики:
Видаляйте чати відразу після завершення спілкування
Завжди варто очищувати діалоги одразу після завершення. Зазвичай дані видаляються протягом 30 днів, але, наприклад, DeepSeek із серверами в Китаї може зберігати їх безстроково, і відмовитися від цього не вийде.
Використовуйте тимчасовий чат
У ChatGPT є опція “temporary chat”, що означає тимчасовий чат (у правому верхньому куті), який є аналогом функції “інкогніто” у браузері. Такі діалоги не зберігаються і не використовуються для навчання.
Звертайтеся анонімно
Сервіс Duck.ai від DuckDuckGo дозволяє надсилати анонімні запити до вибраних моделей ШІ, гарантуючи, що вони не будуть використані для навчання. Правда, він працює лише з текстом і не підтримує зображення.
Чат-боти роблять спілкування зручнішим і персоналізованішим, але будь-яка передана їм інформація може вийти за межі приватного діалогу. Щоб користуватися ШІ безпечно, достатньо простого правила: діліться лише тим, що готові показати стороннім, а все інше – зберігайте при собі.

