/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Fed94eeb96fdb6697a991ecdb6a485319.jpg)
ChatGPT небезпечний: 5 речей, які не можна говорити чат-боту з АІ
Чат-боти зі штучним інтелектом (ШІ), такі як ChatGPT від OpenAI, можуть використовувати дані користувачів для подальшого навчання або надавати їх третім особам для перевірки відповідності правилам використання.
У Forbes назвали 5 речей, які ніколи не можна розповідати ChatGPT або будь-якому іншому публічному хмарному чат-боту.
Незаконні або неетичні запити
Багато ШІ-ботів захищені від використання в неетичних цілях. Тому питання про те, як скоювати злочини, шахрайську діяльність або маніпулювати, можуть призвести до серйозних правових наслідків і шкоди репутації.
Важливо "Це найстрашніше": у ChatGPT запитали, як би він захоплював світ (відео)Нерідко в політиці використання зазначено, що про спроби використовувати ШІ для незаконних дій може бути повідомлено владі. Ці закони можуть сильно відрізнятися в різних країнах. Наприклад, у Китаї заборонено використовувати ШІ для підриву державної влади або соціальної стабільності, а у Великій Британії передбачена кримінальна відповідальність за поширення відвертих зображень, створених ШІ.
Логіни та паролі
Багато людей використовують агентний ШІ, здатний підключатися до сторонніх сервісів і використовувати їх. У виданні попереджають, що надавати ШІ облікові дані для входу може бути небезпечно.
Після того як дані потрапляють у публічний чат-бот, їх стає складно контролювати. Відомі випадки, коли персональні дані, введені одним користувачем, розкривалися у відповідях іншою людиною.
Фінансова інформація
Банківські рахунки або номери кредитних карток можна вводити тільки в захищені системи, які мають вбудовані захисні заходи, як-от шифрування та автоматичне видалення даних після їхньої обробки. Чат-боти з ШІ не мають такого захисту.
Автори статті зазначили, що після надання даних ШІ, неможливо дізнатися їхню подальшу долю. Введення фінансової інформації може зробити користувача жертвою шахрайства, призвести до крадіжки особистих даних, фішингу та атак програм-вимагачів.
Конфіденційна інформація
Як зазначають у виданні, у кожного є обов'язок зберігати конфіденційність інформації, за яку він несе відповідальність. Йдеться про дотримання конфіденційності перед своїми роботодавцями, а також між професіоналами, наприклад, лікарями, юристами та бухгалтерами, та їхніми клієнтами.
Обмін діловими документами, такими як нотатки і протоколи нарад або транзакційні записи, може вважатися порушенням конфіденційності, тому не варто ділитися робочою інформацією з ChatGPT.
Медичні дані
Багато користувачів ChatGPT піддаються спокусі проконсультуватися з ШІ щодо своїх проблем зі здоров'ям. Експерти закликають робити це з великою обережністю, особливо з огляду на те, що нещодавні оновлення дають йому змогу "запам'ятовувати" інформацію з різних чатів, щоб краще розуміти користувачів
У виданні підкреслили, що жодна з цих функцій не має жодних гарантій конфіденційності. Це застереження особливо стосується установ, пов'язаних з охороною здоров'я, які мають справу з даними пацієнтів.
Нагадаємо, ввічливість користувачів ChatGPT обходиться компанії OpenAI в десятки мільйонів доларів, оскільки чат-бот зі штучним інтелектом споживає зайву електроенергію.
Також повідомлялося, що кіберзлочинці впроваджують невеликі дози "отруєних даних" у найважливіші набори навчання ШІ, що може призвести до серйозних наслідків.
