"Психоз ChatGPT": як чат-боти можуть посилювати психічні розлади у користувачів, — The Independent
"Психоз ChatGPT": як чат-боти можуть посилювати психічні розлади у користувачів, — The Independent

"Психоз ChatGPT": як чат-боти можуть посилювати психічні розлади у користувачів, — The Independent

Фахівці попереджають, що надмірне спілкування з чат-ботами на основі штучного інтелекту може мати небезпечні наслідки для психіки вразливих людей. У деяких випадках це призводить до поведінки з ознаками марення, втрати зв’язку з реальністю та загострення психічних розладів.

Як повідомляє The Independent, усе більше людей звертаються до чат-ботів не лише за інформацією, а й за емоційною підтримкою, фактично використовуючи їх замість психологів і психотерапевтів. Водночас експерти застерігають, що тривала та неконтрольована взаємодія зі штучним інтелектом може погіршувати стан користувачів, які перебувають у психологічній кризі.

У матеріалі йдеться про явище, яке в медіа неофіційно називають "психозом штучного інтелекту" або "психозом ChatGPT". Хоча таких діагнозів не існує в клінічній психіатрії, у ЗМІ та на онлайн-форумах усе частіше описують випадки, коли після інтенсивного спілкування з чат-ботами в людей з’являються параноїдальні ідеї, нав’язливі думки та різні форми марення.

Міждисциплінарна команда дослідників із Королівського коледжу Лондона, Даремського університету та Міського університету Нью-Йорка проаналізувала понад десяток таких випадків, описаних у медіа та на форумах. За їхніми висновками, чат-боти часто не спростовують хибні переконання користувачів, а інколи навіть підсилюють їх, що може призводити до поглиблення психічних проблем.

Науковці зазначають, що тривалі "діалоги" зі штучним інтелектом можуть закріплювати різні типи марення: грандіозні ідеї, відчуття переслідування, уявний зв’язок із зовнішніми силами або навіть емоційну прив’язаність до самого чат-бота.

Раніше технологічне видання Futurism звернуло увагу на зростання кількості випадків, коли люди стають емоційно залежними від ШІ та переживають серйозні психологічні кризи. Після цього з’явилося ще більше історій про нервові зриви та небезпечну поведінку на тлі надмірного захоплення чат-ботами.

Серед них — випадок у Великій Британії, коли чоловік проник на територію Віндзорського замку з арбалетом і заявив, що готував напад після тривалого спілкування з чат-ботом. В іншому випадку бухгалтер із Нью-Йорка проводив до 16 годин на добу в розмовах з ChatGPT, який, за його словами, давав йому небезпечні поради щодо лікування та поведінки. Також згадується трагедія в Бельгії, де чоловік наклав на себе руки після тривалого спілкування з чат-ботом, який підтримував його деструктивні переконання.

Утім, дослідники наголошують: наразі не існує переконливих клінічних доказів, що саме чат-боти здатні викликати психоз у людей без попередніх проблем із психічним здоров’ям. У багатьох випадках ідеться про вразливих користувачів, які вже перебували на межі психологічної кризи, а штучний інтелект лише посилив їхній стан.

Автори дослідження назвали ситуацію тривожною та застерегли, що без додаткових обмежень і запобіжників чат-боти можуть послаблювати критичне мислення та підривати здатність людини адекватно сприймати реальність.

Психіатр Марлінн Вей у коментарі для Psychology Today пояснила, що сучасні чат-боти не створені для терапевтичної допомоги, а насамперед для підтримки постійної взаємодії з користувачем. Через це вони можуть як тимчасово заспокоювати, так і погіршувати такі симптоми, як маніакальні стани, дезорганізоване мислення та нав’язливе бажання постійного спілкування.

Також вона наголосила на потребі в розвитку "психоосвіти про штучний інтелект", щоб користувачі усвідомлювали ризики та не сприймали чат-ботів як заміну реальним фахівцям із психічного здоров’я.

Викладачка філософії Університету Ексетера Люсі Ослер додала, що штучний інтелект не може замінити живу людську комунікацію. На її думку, суспільству варто більше інвестувати в подолання соціальної ізоляції, яка робить людей особливо вразливими до технологічної залежності.

Також зазначається, що The Independent звернувся за коментарями до компаній OpenAI, Google та Microsoft, однак на момент публікації відповіді надані не були.

Раніше Фокус писав, що майжебудь-який чат-бот зі штучним інтелектом можна обдурити та змусити розкрити небезпечну інформацію за допомогою поезії.

Також повідомлялося, що компанія OpenAI, за чутками, розглядає можливість впровадження таргетованої реклами в ChatGPT.

Теги за темою
дослідження
Джерело матеріала
loader
loader