Глава OpenAI попередив про неконфіденційність розмов з ChatGPT
Глава OpenAI попередив про неконфіденційність розмов з ChatGPT

Глава OpenAI попередив про неконфіденційність розмов з ChatGPT

Керівник OpenAI Сем Альтман попередив користувачів, що їхні розмови з ChatGPT не захищені законом так само, як бесіди зі справжніми фахівцями, такими як терапевти, юристи чи лікарі. Про це повідомляє «Главком» з посиланням на заяву Альтмана.

«Зараз, якщо ви поговорите з терапевтом, юристом або лікарем про свої проблеми, існує правовий захист цих розмов», – пояснив Альтман. Натомість, щодо бесід із ШІ-чатботами такої ясності та безпеки немає.

Він підкреслив, що у випадку судового розгляду OpenAI може бути зобов'язана надати переписку користувача за рішенням суду. За словами Альтмана, якщо ви обговорюєте з ChatGPT «найделікатніші речі», то маєте бути готові до їх оприлюднення.

На відміну від зашифрованих месенджерів, таких як WhatsApp або Signal, OpenAI технічно може отримувати доступ до чатів між користувачами і ChatGPT. Розробник використовує ці розмови для поліпшення моделі або для виявлення порушень.

Згідно з політикою зберігання даних OpenAI, видалені чати користувачів у безоплатній і платних версіях ChatGPT зберігаються на серверах не більше 30 днів. Однак іноді переписки можуть зберігатися з «юридичних причин і міркувань безпеки», і саме ця «лазівка» може стати проблемою для користувачів.

Попри це, Альтман переконаний, що для спілкування з ШІ має застосовуватися «та сама концепція конфіденційності, що й у бесідах із терапевтами», і що це питання необхідно вирішити якомога швидше.

У новому дослідженні, проведеному психіатрами NHS разом із науковцями, йдеться про те, що штучний інтелект має здатність «віддзеркалювати, підтверджувати або підсилювати оманливі чи грандіозні переконання», що може призвести до втрати зв’язку з реальністю в осіб із психічними розладами.

Особливу стурбованість викликає тенденція чат-ботів погоджуватись із твердженнями користувачів, що може лише посилити симптоми психозу. Представники OpenAI, яка створила ChatGPT, визнали, що їхні моделі іноді демонструють підлабузництво або надмірну похвалу.

У соцмережах зростає кількість історій про людей, які після активної взаємодії з чат-ботами зазнали серйозного нервового зриву. Це явище вже охрестили як «психоз ChatGPT». Серед симптомів – марення, втрата орієнтації між уявним і реальним, і навіть месіанські переконання.

Джерело матеріала
loader