Шкоду генеративного штучного інтелекту, сумно відомого своїми «галюцинаціями», який створює погану інформацію, часто важко помітити, але в медицині ця небезпека є явною. Одне дослідження показало, що з 382 тестових медичних питань ChatGPT дав «невідповідну» відповідь на 20 відсотків. Лікар, який використовує ШІ для написання повідомлень, може ненавмисно передати погані поради.
Інше дослідження показало, що чат-боти можуть повторювати власні упередження лікарів, такі як расистське припущення, що чорні люди можуть терпіти більше болю, ніж білі. Виявилося, що програмне забезпечення для транскрипції також винаходить речі , про які ніхто ніколи не говорив.
Пацієнти вже розширюють межі, використовуючи споживчі чат-боти, щоб діагностувати захворювання та рекомендувати лікування.
У клініці шум навколо ChatGPT пришвидшив штучний інтелект до ролей автора чернеток повідомлень і «автоматичного писаря», який робить нотатки. Epic Systems , найбільший постачальник електронних медичних записів в Америці, каже, що генеративні інструменти штучного інтелекту, які він продає, уже використовуються для транскрибування близько 2,35 мільйонів відвідувань пацієнтів і написання 175 000 повідомлень щомісяця.
І Epic каже мені, що розробляє ще 100 продуктів штучного інтелекту, включно з тими, які можуть ставити в чергу замовлення, згадані під час візиту, і надавати практикуючому спеціалісту огляд попередньої зміни. Стартапи йдуть ще далі: Glass Health пропонує лікарям рекомендації щодо діагнозів і планів лікування, створені штучним інтелектом, а K Health пропонує пацієнтам поради щодо здоров’я через власний чат-бот.
Ще більше занепокоєння викликає те, що наразі невелика частина цього програмного забезпечення штучного інтелекту потребує схвалення Управління з контролю за якістю харчових продуктів і медикаментів, оскільки технічно воно не приймає медичних рішень самостійно. Передбачається, що лікарі все ще перевіряють результати штучного інтелекту — сподіваємось, ретельно.
«Я вважаю, що це одна з тих багатообіцяючих технологій, але її ще немає», — каже Адам Родман , лікар внутрішньої медицини та дослідник штучного інтелекту в медичному центрі Beth Israel Deaconess. «Я хвилююся, що ми просто збираємося ще більше погіршити те, що ми робимо, вставляючи галюцинований «штучний помий» у серйозну допомогу пацієнтам».
Ніхто не хоче, щоб лікарі були луддитами. Але деталі дійсно важливі щодо того, що штучному інтелекту можна довіряти, а що ні.