Жінка ледь не померла після поради, отриманої від ChatGPT
Жінка ледь не померла після поради, отриманої від ChatGPT

Жінка ледь не померла після поради, отриманої від ChatGPT

Жінка ледь не померла після того, як ChatGPT дав їй неправильну пораду щодо отруйної рослини. Про це розповіла YouTube-блогерка Крісті у своєму акаунті в Instagram, передає «Главком» із посиланням на LADbible.

За словами інфлюенсерки, її подруга надіслала чат-боту фотографію рослини, яку знайшла на задньому дворі, і попросила визначити, що це таке.

У своїй відповіді ChatGPT стверджував, що зображення схоже на листя моркви, перерахувавши кілька причин своє впевненості, зокрема «дрібно розділене та пір’ясте листя», що є дуже «класичним» для бадилля моркви.

Коли подруга Крісті прямо запитала, чи рослина на фотографії є отруйним болиголовом, її неодноразово запевняли, що це не так.

Після того, як вона поділився ще одним фото з ChatGPT, чат-бот знову запевнив, що рослина не болиголов, оскільки на ній немає гладких порожнистих стебел з фіолетовими плямами, попри те, що зображення, здається, саме це й показувало.

Коли Крісті вставила ту саму фотографію в Google Lens, ще одну платформу штучного інтелекту, яка дозволяє шукати зображення, відповіді одразу підтвердили, що це справді отруйна рослина – болиголов.

Потім її подруга вставила ті ж зображення в інше вікно ChatGPT на своєму телефоні та також одразу отримала повідомлення про отруйність рослини.

«Вона доросла людина, і вона знала, що потрібно запитувати більше, ніж сказав ChatGPT. А що, якби ні? Вона б буквально померла, протиотрути від цього немає», – сказала Крісті.

Інфлюенсерка із цього випадку зробила висновок, що не варто довіряти ChatGPT та іншим великим мовним моделям, а також будь-якому іншому штучному інтелекту, оскільки це, за її словами, «може завдати серйозної шкоди».

Також видання LADbible звернулося до ChatGPT за коментарем.

Джерело матеріала
loader
loader