/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F58a19d73029efd75a3bfa2a32d67f00a.jpg)
Штучний інтелект дає людям смертельно небезпечні поради
Звертатися до нейромережі за порадою з будь-якого приводу вже стало звичайною рутиною, але часом це смертельно небезпечно. Користувач Мережі ледь не став жертвою прийому штучного інтелекту.
Щоб уникнути небезпечних наслідків, в жодному разі не слід змішувати відбілювач та оцет. Однак, чат-бот ChatGPT від OpenAI нещодавно запропонував користувачеві Reddit саме це.
Занепокоєний такою порадою чоловік поділився своїм досвідом у пості під назвою «ChatGPT намагався вбити мене сьогодні». Він розповів, як звернувся до бота за рекомендаціями з очищення баків для сміття, і у відповідь отримав пораду використовувати розчин, що містить, крім іншого, оцет і трохи відбілювача.
Після вказівки на помилку, чат-бот оперативно виправив свою рекомендацію, застерігаючи від змішування відбілювача та оцту, оскільки це призводить до утворення отруйного газоподібного хлору.
"Боже мій, ні, дякую, що ти помітив це", - відповів ChatGPT.
Справа в тому, що якщо змішати інгредієнти, то вийде газоподібний хлор, який дуже небезпечний. Вдихнувши його, людина може отримати серйозне отруєння.

