Повстання машин скасовується. Штучний інтелект не готовий замінити лікарів
Повстання машин скасовується. Штучний інтелект не готовий замінити лікарів

Повстання машин скасовується. Штучний інтелект не готовий замінити лікарів

Проаналізувавши безліч даних і провівши порівняння машини і людини, вчені дійшли однозначного висновку про те, що ШІ — це лише інструмент, але в жодному разі не заміна людям.

Частою проблемою для сучасної людини, яка звертається по медичну допомогу, стають черги, записи і довгий час очікування діагнозу. Останніми роками дедалі частіше порушується питання про доповнення або повну заміну лікарів на штучний інтелект. Але в недавньому дослідженні вчені виявили, що мовна модель ChatGPT генерує список можливих діагнозів — так званих диференціальних діагнозів, майже з такою самою точністю, як і лікарі відділення швидкої допомоги, але, не дивлячись на це, має моменти серйозної похибки, пише HeathDay.

Дослідницька група вивчала, наскільки добре ChatGPT може поставити точний диференційний діагноз на основі записів, зроблених лікарями під час первинного звернення пацієнта до відділення невідкладної допомоги. Для цього було проаналізовано історії хвороби 30 пацієнтів, які звернулися в березні 2022 року в одну з навчальних лікарень і отримали підтверджений діагноз. Потім диференціальні діагнози, поставлені ChatGPT, порівнювали з діагнозами, поставленими клінічними бригадами без проведення лабораторних досліджень.

Основні результати виявилися вельми цікавими. Лікарі змогли включити правильний діагноз у п'ятірку можливих захворювань у 83% випадків. Не відставав від них і ChatGPT: у версії 3.5 точність становила 77%, а у версії 4.0 — 87%. Якщо враховувати також результати лабораторних досліджень, то точність лікарів зростає до 87%. У версії ChatGPT 3.5 цей показник зріс до 97%, а у версії 4.0 залишився на рівні 87%.

При цьому лікарі краще обирали найімовірніший діагноз зі списку — у 60% випадків порівняно з 37% (версія 3.5) і 53% (версія 4.0) успішності ChatGPT. Слід зазначити, що списки можливих діагнозів, складені лікарями та ChatGPT, збігалися на 60%, тобто вони часто розглядали один і той самий набір можливостей.

У дослідженні підкреслюється, що, хоча ChatGPT може бути цінним інструментом для створення списку можливих діагнозів, він не повинен і не може замінювати експертну оцінку лікаря. Цікаво, що ChatGPT іноді може давати різні відповіді на один і той самий набір медичних записів, що, на думку дослідників, вказує на "непередбачуваність", притаманну таким великим мовним моделям, як ChatGPT.

Насамкінець слід зазначити, що це дослідження — це крок до розуміння того, як штучний інтелект і машинне навчання можуть допомогти медичним працівникам у дуже важливій частині охорони здоров'я — точній і швидкій діагностиці захворювань. Однак ChatGPT і подібні технології слід розглядати як допоміжні засоби, що можуть допомогти медичним працівникам, але вони не замінять досвіду та всебічного розуміння, яким наділені люди, що працюють у цій сфері.

Тому, коли ви наступного разу опинитеся в приймальному покої, не дивуйтеся, якщо ваш лікар працюватиме з мовною моделлю, щоб краще зрозуміти, що вас турбує. Але будьте певні, що останнє слово все одно належатиме (і повинно належати) кваліфікованому медичному спеціалісту.

Источник материала
loader
loader