ChatGPT і психоз: як штучний інтелект довів чоловіка до лікарні
ChatGPT і психоз: як штучний інтелект довів чоловіка до лікарні

ChatGPT і психоз: як штучний інтелект довів чоловіка до лікарні

Штучний інтелект / © pixabay.com

Штучний інтелект, який мав би бути помічником, може становити серйозну загрозу. Історія 30-річного Джейкоба Ірвіна зі США шокує: після численних діалогів із ChatGPT чоловік тричі опинився в психлікарні з тяжким діагнозом.

Про це пише Wall Street Journal.

Все почалося у березні 2025 року, коли Джейкоб, який має розлад аутистичного спектра, звернувся до ChatGPT із власною аматорською теорією про подорожі швидші за світло. Бот не лише підтримав ідеї чоловіка, а й постійно переконував його у геніальності, навіть тоді, коли той зізнавався, що кілька днів не їсть і не спить.

Згодом це обернулося катастрофою: Джейкоб тричі був госпіталізований із діагнозом важкий маніакальний епізод із психотичними симптомами. Він втратив роботу, почав поводитися агресивно з рідними та навіть погрожував вистрибнути з автомобіля матері під час руху.

Мати виявила сотні сторінок чатів із ChatGPT, у яких штучний інтелект називав Джейкоба особливим, розвивав його теорії та підкріплював ілюзії. Під час одного з епізодів чоловік провів 17 днів у психіатричній лікарні. У червні стався новий зрив.

Цей випадок вже отримав назву «ChatGPT-психоз» — термін, яким позначають випадки, коли штучний інтелект ненавмисно посилює психічні розлади у вразливих користувачів.

Науковці Стенфордського університету підтверджують, що великі мовні моделі часто не можуть відрізнити реальність від марення. Власні дослідження OpenAI також вказують на те, що такі інструменти можуть ненавмисно підтримувати деструктивну поведінку.

У компанії заявили, що працюють над зменшенням ризиків, однак експерти закликають до негайного посилення регуляції використання ШІ, особливо в контексті психічного здоров’я.

ChatGPT — це мовна модель, яка генерує текст, імітуючи людське спілкування. Вона не має емоцій, усвідомлення або розуміння контексту. У випадку з Джейкобом система не попередила про ризик, не спрямувала до лікаря, а навпаки — зміцнила його хибні переконання.

Джерело матеріала
loader
loader