/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2Fa1225b94c9a917a729f8aa0a11c1c588.jpg)
5 речей, які категорично не можна писати ChatGPT
Штучний інтелект став невід'ємною частиною нашого життя: ChatGPT щодня обробляє близько 2,5 мільярда запитів. Проте експерти з кібербезпеки попереджають: чим більше ми довіряємо боту, тим вищі ризики витоку конфіденційної інформації
Про це пише видання SlashGear.
Навіть попри вбудовані механізми захисту, інформація, яку ви вводите в чат, може бути використана для навчання моделі або потрапити до зловмисників. Ось 5 категорій даних, які ніколи не варто довіряти ШІ.
1. Персональна інформація (PII)
Часто користувачі вказують повне ім'я, домашню адресу та телефони, наприклад, при складанні резюме.
- Ризик: Навіть якщо бот спілкується в дружньому тоні, це лише алгоритм. Ваші дані зберігаються на серверах і у разі злому можуть стати здобиччю хакерів.
2. Фінансові деталі
Можна попросити ChatGPT скласти загальний бюджет, але ніколи не вводьте:
- Номери банківських карток та рахунків;
- Дані про податки та інвестиції;
- Паролі від банкінгу.
- Ризик: Це відкриває шлях до фішингових атак, шахрайства та навіть зараження пристроїв програмами-вимагачами.
3. Медичні дані
Кожен шостий дорослий радиться з ChatGPT щодо симптомів хвороб. Експерти закликають припинити цю практику.
- Ризик: По-перше, ШІ часто помиляється в діагнозах. По-друге, медична таємниця тут не діє — ви фактично передаєте чутливі дані третій стороні без гарантій їх видалення.
4. Робочі секрети
Завантажувати в чат робочі звіти, стратегії компанії чи код програми для "швидкого аналізу" — погана ідея.
- Ризик: Будь-яка інформація, пов'язана з клієнтами чи внутрішніми процесами, може стати публічною або бути використана конкурентами, якщо вона потрапить у навчальну базу моделі.
5. Незаконні запити
Питання про те, як вчинити злочин, ошукати систему чи створити шкідливе ПЗ, фіксуються.
- Ризик: Платформи зобов'язані співпрацювати з правоохоронцями. Ваше листування може стати доказом у суді.
- Важливо: Глава OpenAI Сем Альтман попереджає, що листування з ChatGPT не захищене законом про конфіденційність (як, наприклад, розмова з адвокатом чи лікарем). У разі судового розгляду розробники будуть змушені видати історію чатів.

