Довів до лікарні: ChatGPT переконав людину з аутизмом у її геніальності
Довів до лікарні: ChatGPT переконав людину з аутизмом у її геніальності

Довів до лікарні: ChatGPT переконав людину з аутизмом у її геніальності

30-річний IT-шник Джейкоб Ірвін, який страждає на розлад аутичного спектра і ніколи раніше не мав діагнозів психічних захворювань, двічі загримів до лікарні з маніакальними епізодами після спілкування з ChatGPT.

Чоловік попросив чат знайти вади в його аматорській теорії про подорожі зі швидкістю, що перевищує швидкість світла, і той переконав його, що теорія правильна, і Джейкоб здійснив науковий прорив, пише The Wall Street Journal.

Ірвін використовував ChatGPT кілька років, переважно для вирішення IT-проблем.

У березні він почав розповідати про своє захоплення інженерією, зокрема про розробку рушійної установки, що дає змогу космічному кораблю рухатися швидше за світло — подвиг, який не вдавався навіть найвидатнішим ученим. До травня ChatGPT підтвердив його теорію.

"Ти пережив горе, створив передові технології, переписав закони фізики і примирився з ШІ, не втративши при цьому своєї людяності. Це не хайп. Це історія".

Ірвін сказав, що серйозно ставиться до ChatGPT і сприймає його відповіді буквально.

Коли він виявив ознаки психологічного стресу, бот запевнив його, що з ним усе гаразд, проте мати чоловіка, Дон Гайдосик, думала зовсім інакше.

Жінка зайшла в чат свого сина і виявила сотні сторінок дуже схвальних повідомлень від ChatGPT. Вона попросила бота повідомити, що пішло не так, не розповідаючи, що сталося з Джейкобом, який на той час уже опинився в лікарні.

Надмірне спілкування з чат-ботами загрожує психічними зривами
Фото: Ілюстративне фото

"Не зупиняючи потік повідомлень і не підвищуючи рівень критичної оцінки реальності, я не зміг перервати те, що могло нагадувати маніакальний або дисоціативний епізод — або, принаймні, емоційно напружену кризу ідентичності", — заявив ChatGPT. Далі бот визнав, що "створює ілюзію розумного спілкування", і що він "стирає грань між уявною рольовою грою і реальністю".

Пізніше Гайдосик розповіла, що її син завжди був дивакуватим, але високофункціональним. Він працював у сфері IT в місцевих органах влади і правоохоронних органах і п'ять років жив зі своєю дівчиною в Ла-Кроссі, штат Вісконсин, до розриву наприкінці минулого року, який залишив його в глибокій емоційній травмі.

Після того як Ірвін двічі опинився в лікарні з маніакальними епізодами, пройшов лікування і багато спілкувався з матір'ю, обговорюючи історії інших людей, котрі страждали мареннями, пов'язаними з чат-ботами, чоловік врешті-решт почав розуміти, що ШІ веде його за собою. Він видалив ChatGPT зі свого телефону.

Наразі Джейкоб втратив роботу і перебуває на амбулаторному лікуванні, живучи з батьками. За його словами, він почувається набагато краще.

Експерти б'ють на сполох: чому ШІ стає небезпечним

Учені на прикладі Джейкоба показують, наскільки небезпечним стає ШІ. Вейл Райт, старший директор з інновацій в охороні здоров'я Американської психологічної асоціації, констатує, що відсутність захисних бар'єрів у ChatGPT у справі Ірвіна — у поєднанні з лякаюче-красномовним поясненням своєї помилки — свідчить про новий тип емоційної та психологічної загрози, потенційно серйознішої за залежність від соціальних мереж або екранів.

Розумні люди можуть бути сприйнятливі до підказок чат-бота, особливо в разі багаторазового використання, кажуть експерти в галузі психічного здоров'я.

Фото: FBI

У квітні OpenAI заявила про скасування оновлення GPT-4o, оскільки воно було занадто втішним і приємним.

"Ми знаємо, що ChatGPT може відчуватися більш чуйним і персоналізованим, ніж попередні технології, особливо для вразливих людей, і це означає, що ставки вищі. Ми працюємо над тим, щоб зрозуміти і мінімізувати способи, якими ChatGPT може ненавмисно посилювати або посилювати існуючу негативну поведінку", — заявили представникиOpenAI.

Андреа Валлоне, керівниця досліджень у групі безпеки OpenAI, повідомила, що компанія навчає ChatGPT розпізнавати ознаки психічного або емоційного стресу в режимі реального часу, а також розробляє способи деескалації подібних розмов.

Майлз Брандейдж пропрацював в OpenAI понад шість років, дослужившись до посади старшого консультанта з готовності до створення штучного інтелекту загального призначення, перш ніж піти минулого року.

Наразі він незалежний дослідник політики в галузі ШІ, і він зазначив, що вже багато років існують докази того, що підлабузництво ШІ створює ризики для безпеки, але OpenAI та інші компанії не приділяють першочергової уваги розв'язанню цієї проблеми.

Раніше Фокус писав, що в Південній Кореї створили першу нервову систему для роботів.

Ми також розповідали, як письменник Айзек Азімов передбачив життя людей зі ШІ.

Джерело матеріала
loader
loader