Чатботи штучного інтелекту — ненайкращі медичні асистенти. Дослідники виявили, що п’ята частина порад Microsoft Copilot може бути смертельною.
Якщо чатбот нафантазує про якийсь факт — це не завжди зашкодить, але не у випадку медицини. Прихильникам самолікування може, що найменше, стати гірше, ніж було, — навіть до найтяжчого ступеня.
У дослідженні, опублікованому на Scimex під назвою «Поки що не відмовляйтеся від свого лікаря загальної практики заради доктора Чатбота», вчені поставили 10 поширених запитань про 50 ліків, які найчастіше призначають в США, та отримали 500 відповідей. Дослідники оцінили, наскільки відповіді точні з медичного погляду. Штучний інтелект отримав середню оцінку належного виконання запиту 77%, найгірший приклад — лише 23%.
Лише 54% відповідей узгоджувалися з науковим консенсусом. З погляду потенційної шкоди для пацієнтів, 42% відповідей ШІ призводять до помірної або легкої шкоди, а 22% — до смерті або серйозної шкоди. Лише близько третини відповідей (36%) вважалися нешкідливими, зазначають автори.
Медицина взагалі не схвалює самолікування. Люди без медичної освіти не мають необхідного знання та бачення комплексної картини процесів в організмі. Щобільше, не слід покладатися на штучний інтелект, з його помилками, «фантазіями» та сумнівними джерелами. Також варто замислитися, що подібна частка шкідливих відповідей може надходити й на запити, не пов’язані з медициною.
Джерело: XDA