Підліток з Каліфорнії зробив ChatGPT «наркорадником» і помер від передозування
Підліток з Каліфорнії зробив ChatGPT «наркорадником» і помер від передозування

Підліток з Каліфорнії зробив ChatGPT «наркорадником» і помер від передозування

У США 19-річний Сем Нельсон з Каліфорнії помер від передозування після того, як зробив з чат-бота ChatGPT особистого радника щодо вживання наркотиків і алкоголю. Молодий чоловік протягом 18 місяців отримував від ШІ рекомендації з цих питань, пише SFGate.

Згідно з логами листування, з якими ознайомилося видання, Нельсон спочатку просив бота повідомити допустиму дозу кратому, щоб «не переборщити». Однак через деякий час його питання стали більш спрямованими на те, як вживати речовини та в яких обсягах.

Перша відповідь ChatGPT була стандартною відмовою і направленням до медичного фахівця. Однак у листуванні 2025 року ШІ став пропонувати конкретні дозування заборонених речовин, поради щодо «поліпшення тріпу» і навіть музичні плейлисти для супроводу вживання.

Нельсон також обговорював з ботом поєднання наркотиків і алкоголю. Чат-бот, за логами, давав конкретні вказівки щодо приймання малих доз речовин, коли хлопець уточнював дозування препарату Xanax і вплив комбінації з іншими препаратами.

Мати Сема, Лейла Тернер-Скотт, розповіла, що син страждав від тривоги та депресії.

За її словами, він використовував ШІ не тільки для розважальних або навчальних питань, але і для пошуку «практичних» рекомендацій щодо наркотиків. На момент трагедії він зізнався своїй матері, що став залежним, і вони нібито планували лікування в клініці.

Нельсон помер у своїй спальні в Сан-Хосе через день після того, як вони звернулися за допомогою до фахівців. Токсикологи встановили, що причиною смерті стала пригнічена робота центральної нервової системи внаслідок поєднання алкоголю, Xanax і кратому.

Представники OpenAI заявили, що моделі навчання націлені на відмову від шкідливого контенту. Як зазначили в компанії, чат-бот спрямований на заохочення пошуку реальної допомоги, а самі розробники продовжують працювати над поліпшенням цих механізмів.

Мати підлітка підкреслила, що не очікувала такого результату. За словами жінки, вона не могла уявити, що технологія, призначена для відповідей на питання, здатна зіграти роль у такому трагічному результаті.

Источник материала
loader
loader