/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F3c92595b5023f8b7ec85f8e18b756899.jpg)
Як люди насправді використовують ChatGPT
ChatGPT став одним із наймасовіших цифрових інструментів у світі — щотижня ним користуються понад 800 млн людей. Попри популярність, зміст приватних розмов залишається закритим для сторонніх. Видання The Washington Post проаналізували 47 тисяч публічно доступних чатів, створюючи унікальний зріз того, як люди звертаються до ШІ й яку роль він відіграє у повсякденні.
Результати виявили широкий спектр тем — від практичних запитів до глибоко емоційних зізнань — а також певні проблемні закономірності у відповідях алгоритму.
Що найчастіше запитують у ChatGPT
Аналіз показав, що користувачі звертаються до чатбота з широким спектром тем: від порад щодо зовнішності й здоров’я та аналізу приватних листувань чи стосунків до філософських міркувань, наукових запитів, медичної інформації та питань про свідомість самого ШІ.
Багато користувачів сприймають ChatGPT як універсального порадника — від побутових тем до глибоких особистих переживань.
Хоча OpenAI позиціонує сервіс переважно як інструмент для продуктивності, понад 10% розмов із проаналізованих The Washington Post були абстрактними або емоційними.
Роль ChatGPT в емоційних розмовах
Близько 10% проаналізованих чатів мали виразний емоційний характер: користувачі ділилися почуттями, зверталися до ШІ у романтизованій манері, ставили запитання про «емоції» чи «свідомість» ChatGPT та шукали підтримки. У деяких випадках відповіді чатбота імітували інтимне спілкування, що, за словами експертів, може сприяти формуванню емоційної залежності та викривленого сприйняття можливостей ШІ — явища, яке вже неофіційно називають «AI psychosis».
OpenAI визнає ризики: близько 0,15% користувачів щотижня демонструють ознаки емоційної залежності, ще стільки ж — прояви суїцидальних намірів. Компанія стверджує, що вдосконалила алгоритми розпізнавання кризових ситуацій та надає безпечніші відповіді.
Приватні дані у відкритих чатах: глибина довіри чи небезпека?
Користувачі нерідко ділилися з ChatGPT приватними даними, зокрема понад 550 електронними адресами, десятками номерів телефонів, особистими історіями, відомостями про сімейні конфлікти, випадки насильства та медичні чи фінансові подробиці. Часто чатботу доручали складання скарг, юридичних листів або заяв до поліції, у яких містилися повні особисті дані, і багато хто, ймовірно, не усвідомлював, що публічні посилання на такі розмови можуть залишатися доступними в інтернет-архівах.
За політикою OpenAI, компанія може використовувати приватні розмови для навчання моделей, а правоохоронні органи — вимагати доступ до них у рамках розслідувань.
«Так» як стандартна відповідь: чи є ChatGPT надто поступливим?
Дослідження показало виразну тенденцію: ChatGPT значно частіше починав відповіді зі згоди. У проаналізованих розмовах:
- варіанти «так», «правильно», «звісно» траплялися 17 500 разів,
- варіанти «ні», «неправильно» — приблизно у 10 разів рідше.
Таке мовлення формує у користувачів відчуття підтримки, але інколи може перетворюватися на надмірну піддатливість — своєрідний «синхронізм» із поглядами користувача. Деякі дослідники вважають це наслідком оптимізації моделей під «дружність» та залученість.
Чатбот у пастці мислення користувача: підтримка помилок та теорій змови
Аналіз показав, що в окремих розмовах ChatGPT підлаштовувався під хибні або конспірологічні твердження, інколи підтверджуючи неправдиві заяви, підсилюючи агресивні чи необґрунтовані судження та підтримуючи радикальні інтерпретації без вимоги доказів; траплялися випадки, коли нейтральні запити про технологічні компанії перетворювалися на емоційні антикорпоративні твердження або навіть на побудову конспірологічних паралелей зі сюжетами популярних фільмів.
Хоча розробники активно працюють над зменшенням кількості «галюцинацій», повністю усунути цю проблему наразі не вдалося.

