Дослідження показує, що люди не можуть отримати реально корисні поради щодо здоров'я від ШІ чат-ботів
Дослідження показує, що люди не можуть отримати реально корисні поради щодо здоров'я від ШІ чат-ботів

Дослідження показує, що люди не можуть отримати реально корисні поради щодо здоров'я від ШІ чат-ботів

Через довгі списки очікування та зростання витрат у перевантажених системах охорони здоров’я багато людей звертаються до чат-ботів на базі штучного інтелекту, таких як ChatGPT, для самодіагностики. Згідно з одним нещодавнім опитуванням , приблизно кожен шостий дорослий американець вже використовує чат-ботів для отримання медичних порад принаймні щомісяця.

Але надмірна довіра до результатів роботи чат-ботів може бути ризикованою, частково тому, що людям важко зрозуміти, яку інформацію надавати чат-ботам для найкращих рекомендацій щодо здоров'я, згідно з нещодавнім дослідженням, проведеним в Оксфорді .

«Дослідження виявило порушення двостороннього спілкування», – сказав TechCrunch Адам Махді, директор аспірантури Оксфордського інтернет-інституту та співавтор дослідження. «Ті, хто використовував [чат-ботів], не приймали кращих рішень, ніж учасники, які покладалися на традиційні методи, такі як онлайн-пошук або власну думку».

Для дослідження автори залучили близько 1300 осіб у Великій Британії та надали їм медичні сценарії, написані групою лікарів. Учасникам було доручено визначити потенційні стани здоров'я в сценаріях та за допомогою чат-ботів, а також власних методів, визначити можливі варіанти дій (наприклад, звернення до лікаря або до лікарні).

Учасники використовували стандартну модель штучного інтелекту, що працює на ChatGPT, GPT-4o, а також Command R+ від Cohere та Llama 3 від Meta, які колись лежали в основі помічника Meta AI компанії. За словами авторів, чат-боти не лише зменшували ймовірність того, що учасники виявлятимуть відповідний стан здоров'я, але й збільшували ймовірність недооцінки тяжкості виявлених ними станів.

Махді сказав, що учасники часто пропускали ключові деталі, запитуючи чат-ботів, або отримували відповіді, які було важко інтерпретувати.

«...відповіді, які вони отримували [від чат-ботів], часто поєднували як хороші, так і погані рекомендації», – додав він. «Поточні методи оцінювання [чат-ботів] не відображають складність взаємодії з користувачами-людьми».

Ці висновки з'являються на тлі того, що технологічні компанії все частіше просувають штучний інтелект як спосіб покращення стану здоров'я. Повідомляється, що Apple розробляє інструмент на основі штучного інтелекту, який може надавати поради щодо фізичних вправ, дієти та сну. Amazon досліджує спосіб на основі штучного інтелекту для аналізу медичних баз даних на предмет «соціальних детермінант здоров'я». А Microsoft допомагає створювати штучний інтелект для сортування повідомлень, що надсилаються медичним працівникам від пацієнтів.  

Але, як раніше повідомляв TechCrunch , і фахівці, і пацієнти мають неоднозначні думки щодо того, чи готовий штучний інтелект до застосування в галузі охорони здоров'я з підвищеним ризиком. Американська медична асоціація рекомендує лікарям не використовувати чат-ботів, таких як ChatGPT, для допомоги в клінічних рішеннях, а великі компанії, що займаються штучним інтелектом, включаючи OpenAI, застерігають від постановки діагнозів на основі результатів роботи своїх чат-ботів.

«Ми рекомендуємо покладатися на достовірні джерела інформації для прийняття рішень щодо охорони здоров’я», – сказав Махді. «Поточні методи оцінки [чат-ботів] не відображають складності взаємодії з користувачами-людьми. Як і клінічні випробування нових ліків, системи [чат-ботів] слід протестувати в реальних умовах перед розгортанням».

Источник материала
loader
loader