ВОЗ, в частности, исследовала алгоритм искусственного интеллекта LLM, который использует методы глубокого обучения и большие наборы данных для понимания, обобщения и создания нового контента.
ВОЗ обеспокоена тем, что такие известные платформы как ChatGPT, Bard, Bert и т.д. имитируют человеческое общение, но к ним не применяются меры предосторожности, которые обычно соблюдаются по отношению ко всем новым технологиям. Это довольно рискованно, когда речь идет об использовании этих платформ в сфере общественного здравоохранения.
— Быстрое скоростное внедрение непроверенных систем может привести к ошибкам медработников, нанести вред пациентам, подорвать доверие к ИИ-технологиям во всем мире, — отмечают в ВОЗ.
Рекомендации ИИ могут казаться авторитетными и правдоподобными, но быть абсолютно неправильными или содержать серьезные ошибки. Так как в данных, используемых для обучения ИИ, не исключены предубеждения и ложная или неточная информация. И, конечно, ИИ не будет обходить конфиденциальные данные (в частности о состоянии здоровья), что может навредить пациенту.
Нельзя исключать и то, что через инструменты ИИ могут сознательно распространять дезинформацию, которую будет довольно трудно отличить от надежного медицинского контента, настолько она будет казаться убедительной.
ВОЗ уверяет, что с энтузиазмом относится к новым технологиям, в том числе LLM. Но предлагает предоставить общественности и специалистам четкие доказательства их пользы и безопасности перед тем, как широко внедрять.
Источник: