Искусственный интеллект может определить расовую принадлежность человека с точностью до 99% через сканирование его рентгеновских снимков
Искусственный интеллект может определить расовую принадлежность человека с точностью до 99% через сканирование его рентгеновских снимков

Искусственный интеллект может определить расовую принадлежность человека с точностью до 99% через сканирование его рентгеновских снимков

20 авторов исследования обнаружили, что модели глубокого обучения могут определять расу на рентгеновских снимках грудной клетки и кистей рук и маммограммах среди пациентов, которых идентифицировали как чернокожих, белых и азиатов.

Алгоритмы правильно определяют, какие изображения были от темнокожего человека, более чем в 90% случаев, но были случаи, когда они смогли идентифицировать расу с точностью 99%.

Что еще более интересно, так это то, что команда не смогла объяснить, как системы ИИ делали точные прогнозы через снимки, которые были размытыми или с низким разрешением.

Команда намеревалась понять, как эти модели глубокого обучения смогли определить расу пациента.

Это включало проверку того, были ли прогнозы основаны на биологических различиях, таких как более плотная ткань груди.

Ученые также исследовали сами изображения, чтобы понять, учитывают ли модели искусственного интеллекта различия в качестве или разрешении снимка, чтобы делать свои прогнозы, возможно, потому, что изображения чернокожих пациентов были получены с аппаратов более низкого качества.

Однако ни одно из этих выводов не привело к объяснению возможностей технологии.

Команда отмечает, что такие способности ИИ могут привести к дальнейшему неравенству среди пациентов.

В течение последних нескольких лет исследователи работали над выявлением предвзятости ИИ, особенно тех, которые используются в области медицины, но, как правило, находили корень проблемы.

Одно недавнее исследование, проведенное в 2019 году, показало, что алгоритм, используемый больницами в США для выявления пациентов с хроническими заболеваниями, имеет значительную предвзятость в отношении чернокожих.

Искусственный интеллект, продаваемый медицинской фирмой Optum, непропорционально рекомендовал медикам уделять больше внимания белым людям, даже когда темнокожие пациенты болеют.

По их словам, алгоритм, разработанный для того, чтобы помочь пациентам оставаться на приеме лекарств или выписаться из больницы, не был намеренно расистским, поскольку он специально исключает этническую принадлежность при принятии решений.

Вместо того, чтобы использовать данные о болезни или биологические данные, технология использует информацию о затратах и ​​страховых выплатах, чтобы предсказать, насколько здоров человек.

Ученые из университетов Чикаго, Бостона и Беркли отметили ошибку в своем исследовании, опубликованном в журнале Science, и работают над исправлением Optum.

Источник материала
loader