5 речей, які категорично не можна писати ChatGPT
5 речей, які категорично не можна писати ChatGPT

5 речей, які категорично не можна писати ChatGPT

Штучний інтелект став невід'ємною частиною нашого життя: ChatGPT щодня обробляє близько 2,5 мільярда запитів. Проте експерти з кібербезпеки попереджають: чим більше ми довіряємо боту, тим вищі ризики витоку конфіденційної інформації

Про це пише видання SlashGear.

Навіть попри вбудовані механізми захисту, інформація, яку ви вводите в чат, може бути використана для навчання моделі або потрапити до зловмисників. Ось 5 категорій даних, які ніколи не варто довіряти ШІ.

1. Персональна інформація (PII)

Часто користувачі вказують повне ім'я, домашню адресу та телефони, наприклад, при складанні резюме.

  • Ризик: Навіть якщо бот спілкується в дружньому тоні, це лише алгоритм. Ваші дані зберігаються на серверах і у разі злому можуть стати здобиччю хакерів.

2. Фінансові деталі

Можна попросити ChatGPT скласти загальний бюджет, але ніколи не вводьте:

  • Номери банківських карток та рахунків;
  • Дані про податки та інвестиції;
  • Паролі від банкінгу.
  • Ризик: Це відкриває шлях до фішингових атак, шахрайства та навіть зараження пристроїв програмами-вимагачами.

3. Медичні дані

Кожен шостий дорослий радиться з ChatGPT щодо симптомів хвороб. Експерти закликають припинити цю практику.

  • Ризик: По-перше, ШІ часто помиляється в діагнозах. По-друге, медична таємниця тут не діє — ви фактично передаєте чутливі дані третій стороні без гарантій їх видалення.

4. Робочі секрети

Завантажувати в чат робочі звіти, стратегії компанії чи код програми для "швидкого аналізу" — погана ідея.

  • Ризик: Будь-яка інформація, пов'язана з клієнтами чи внутрішніми процесами, може стати публічною або бути використана конкурентами, якщо вона потрапить у навчальну базу моделі.

5. Незаконні запити

Питання про те, як вчинити злочин, ошукати систему чи створити шкідливе ПЗ, фіксуються.

  • Ризик: Платформи зобов'язані співпрацювати з правоохоронцями. Ваше листування може стати доказом у суді.
  • Важливо: Глава OpenAI Сем Альтман попереджає, що листування з ChatGPT не захищене законом про конфіденційність (як, наприклад, розмова з адвокатом чи лікарем). У разі судового розгляду розробники будуть змушені видати історію чатів.

Джерело матеріала
loader
loader