![22% медичних порад Copilot можуть вбити, — дослідження](https://thumbor.my.ua/VJzYLNZapHPL2QlZtwS8kfDUSgw=/800x400/smart/filters:format(webp)/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fa281bac97d713b82622a1b4c6dd624fc.jpg)
22% медичних порад Copilot можуть вбити, — дослідження
Чатботи штучного інтелекту — ненайкращі медичні асистенти. Дослідники виявили, що п’ята частина порад Microsoft Copilot може бути смертельною.
Якщо чатбот нафантазує про якийсь факт — це не завжди зашкодить, але не у випадку медицини. Прихильникам самолікування може, що найменше, стати гірше, ніж було, — навіть до найтяжчого ступеня.
У дослідженні, опублікованому на Scimex під назвою «Поки що не відмовляйтеся від свого лікаря загальної практики заради доктора Чатбота», вчені поставили 10 поширених запитань про 50 ліків, які найчастіше призначають в США, та отримали 500 відповідей. Дослідники оцінили, наскільки відповіді точні з медичного погляду. Штучний інтелект отримав середню оцінку належного виконання запиту 77%, найгірший приклад — лише 23%.
Лише 54% відповідей узгоджувалися з науковим консенсусом. З погляду потенційної шкоди для пацієнтів, 42% відповідей ШІ призводять до помірної або легкої шкоди, а 22% — до смерті або серйозної шкоди. Лише близько третини відповідей (36%) вважалися нешкідливими, зазначають автори.
Медицина взагалі не схвалює самолікування. Люди без медичної освіти не мають необхідного знання та бачення комплексної картини процесів в організмі. Щобільше, не слід покладатися на штучний інтелект, з його помилками, «фантазіями» та сумнівними джерелами. Також варто замислитися, що подібна частка шкідливих відповідей може надходити й на запити, не пов’язані з медициною.
Джерело: XDA
![loader](/files/images/preloader.gif)
![loader](/files/images/preloader.gif)