Небезпечна порада: ChatGPT ледь не спричинив смертельне отруєння
Небезпечна порада: ChatGPT ледь не спричинив смертельне отруєння

Небезпечна порада: ChatGPT ледь не спричинив смертельне отруєння

Все почалося, коли подруга YouTube-блогерки Крісті знайшла на своєму задньому дворі невідому рослину. Замість того, щоб звернутися до традиційних методів ідентифікації, жінка вирішила скористатися можливостями штучного інтелекту, завантаживши фотографію рослини до ChatGPT та попросивши його визначити її походження.

Відповідь чат-бота була миттєвою та впевненою. ChatGPT стверджував, що зображення дуже схоже на листя моркви, підкріплюючи свою думку кількома причинами, зокрема тим, що рослина має «дрібно розділене та пір’ясте листя», що є типовою ознакою бадилля моркви.

Попри перше запевнення, у жінки виникли сумніви щодо природи рослини, особливо щодо її можливої токсичності. Вона прямо запитала ChatGPT, чи не є ця рослина отруйним болиголовом. Однак, чат-бот неодноразово запевняв її, що це не болиголов, і що на фотографіях не видно гладких порожнистих стебел з фіолетовими плямами, характерних для цієї небезпечної рослини. Це було дивно, оскільки зображення, здавалося, показували саме ці ознаки.

Лише після того, як жінка вирішила звернутися до альтернативного джерела, ситуація прояснилася. Вона завантажила те саме фото в Google Lens, ще одну платформу штучного інтелекту, яка спеціалізується на розпізнаванні зображень. Відповіді були однозначними: додаток підтвердив, що рослина є отруйним болиголовом. Перевірка цих самих зображень у іншому вікні ChatGPT на її телефоні також миттєво надала інформацію про отруйність рослини.

Крісті, згадуючи цей інцидент, наголосила на серйозності ситуації. Вона зауважила, що її подруга, будучи дорослою людиною, все ж знала про необхідність додаткової перевірки інформації. Але, за її словами, якби цього не сталося, наслідки могли б бути фатальними, адже протиотрути від болиголова не існує.

Цей випадок став для інфлюенсерки протверезним уроком. Крісті застерегла від надмірного довіряння ChatGPT, іншим великим мовним моделям та штучному інтелекту загалом, оскільки такі помилки «можуть завдати серйозної шкоди». Видання LADbible також звернулося до ChatGPT за коментарем щодо цієї події.

Цей інцидент з виявленням отруйної рослини підкреслює зростаючі побоювання щодо надійності штучного інтелекту, особливо коли йдеться про питання життя та смерті. Хоча ШІ демонструє чудові здібності в обробці текстів та зображень, його "розуміння" світу все ще відрізняється від людського, і він може генерувати впевнені, але необґрунтовані відповіді.

Наростання подібних випадків підкреслює критичну необхідність розробки більш надійних механізмів перевірки фактів для ШІ, особливо в сферах, де помилки можуть мати незворотні наслідки для здоров'я та безпеки людини. Користувачам також варто пам'ятати про обмеження технологій та завжди перевіряти важливу інформацію з кількох достовірних джерел.

«Вона доросла людина, і вона знала, що потрібно запитувати більше, ніж сказав ChatGPT. А що, якби ні? Вона б буквально померла, протиотрути від цього немає», — зазначила YouTube-блогерка Крісті, розмірковуючи про можливі наслідки.

«Не варто довіряти ChatGPT та іншим великим мовним моделям, а також будь-якому іншому штучному інтелекту, оскільки це може завдати серйозної шкоди», — підсумовує інфлюенсерка після інциденту.

Історія цієї жінки є яскравим нагадуванням про те, що попри всі дивовижні можливості штучного інтелекту, людська розсудливість та критичне мислення залишаються незамінними. У питаннях, що стосуються здоров'я та безпеки, останнє слово завжди має залишатися за обізнаною людиною, а не за алгоритмом.

Джерело матеріала
loader
loader