/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F618e12207395cdef8e252ddc19d4e3ed.png)
Сем Альтман: використання ChatGPT, як терапевта, не гарантує юридичної конфіденційності
Користувачам ChatGPT варто двічі подумати, перш ніж звертатися до свого застосунку зі штучним інтелектом для терапії чи інших видів емоційної підтримки. За словами генерального директора OpenAI Сема Альтмана, індустрія штучного інтелекту ще не зрозуміла, як захистити конфіденційність користувачів, коли йдеться про ці більш делікатні розмови, оскільки немає конфіденційності між лікарем і пацієнтом, коли ваш лікар — це штучний інтелект.
Керівник зробив ці коментарі в нещодавньому епізоді подкасту Тео Вона «Минулий вікенд з Тео Воном».
У відповідь на запитання про те, як штучний інтелект працює в сучасній правовій системі, Альтман сказав, що однією з проблем відсутності правової чи політичної бази для ШІ є відсутність юридичної конфіденційності розмов користувачів.
«Люди розповідають про найособистіші речі у своєму житті через ChatGPT», – сказав Альтман. «Люди використовують його – особливо молодь – як терапевт, лайф-коуч; мають ці проблеми у стосунках і запитують: «Що мені робити?» І зараз, якщо ви розмовляєте з терапевтом, адвокатом чи лікарем про ці проблеми, на це поширюється юридична таємниця. Існує конфіденційність між лікарем і пацієнтом, є юридична конфіденційність тощо. І ми ще не з’ясували, як це працює, коли ви розмовляєте з ChatGPT».
Альтман додав, що це може створити проблеми з конфіденційністю користувачів у разі судового позову, оскільки OpenAI буде юридично зобов'язаний створювати ці розмови сьогодні.
«Я вважаю, що це дуже неправильно. Я думаю, що у нас має бути така ж концепція конфіденційності для ваших розмов зі штучним інтелектом, як і з терапевтом чи кимось іншим — і нікому не доводилося думати про це навіть рік тому», — сказав Альтман.
Компанія розуміє, що відсутність конфіденційності може перешкоджати ширшому впровадженню користувачами. Окрім вимоги штучного інтелекту щодо великої кількості онлайн-даних протягом навчального періоду, його просять надати дані з чатів користувачів у деяких юридичних контекстах. OpenAI вже бореться із судовим наказом у своєму позові проти The New York Times, який вимагатиме від нього збереження чатів сотень мільйонів користувачів ChatGPT у всьому світі, за винятком чатів клієнтів ChatGPT Enterprise.
У заяві на своєму вебсайті OpenAI заявила, що оскаржує це рішення, яке назвала «перевищенням службових обов'язків». Якби суд зміг скасувати власні рішення OpenAI щодо конфіденційності даних, це могло б відкрити для компанії можливість подальших вимог щодо юридичного розкриття інформації або для правоохоронних цілей. Сьогоднішні технологічні компанії регулярно отримують повістки про надання даних користувачів, щоб допомогти у кримінальному переслідуванні. Але в останні роки виникли додаткові побоювання щодо цифрових даних, оскільки закони почали обмежувати доступ до раніше встановлених свобод, таких як право жінки на вибір.
Наприклад, коли Верховний суд скасував рішення у справі «Роу проти Вейда», клієнти почали переходити на більш приватні додатки для відстеження менструації або на Apple Health, який шифрував їхні записи.
Альтман також запитав ведучого подкасту про власне використання ChatGPT, враховуючи, що Фон сказав, що він не дуже багато спілкується з чат-ботом на базі штучного інтелекту через власні побоювання щодо конфіденційності.
«Я думаю, що має сенс… дійсно бажати чіткості щодо конфіденційності, перш ніж активно використовувати [ChatGPT] — наприклад, юридичної ясності», — сказав Альтман.

