Сегодня все больше пользователей — от студентов до исследователей — обращаются к языковым моделям вроде ChatGPT для создания, редактирования или перевода текстов. И вместе с новыми возможностями появляется и новая этика: как именно мы пользуемся этими инструментами и насколько открыто готовы об этом говорить.
Люди и ИИ за одним столом
Быстрое распространение языковых моделей, таких как ChatGPT, не только изменило обычные подходы к написанию или редактированию текстов, но и породило новую неопределенность: где грань между человеческим авторством и машинной помощью?
Еще одно осложнение — предвзятое отношение к самому факту использования генеративного искусственного интеллекта (ИИ). Те, кто честно признает, что воспользовался языковой моделью для перевода или редактирования, рискуют услышать обвинение в нечестности. В научной среде это превращается в настоящее табу: лучше промолчать, чем быть заподозренным в использовании «робота-помощника».
Такой страх порождает неопределенность в этических подходах. Одни пользуются ИИ, но не признаются в этом. Другие критикуют его вслух, хотя сами тоже изредка обращаются к таким инструментам. Это подрывает доверие к науке в целом. Мы имеем дело не только с новой технологией, но и с этической дилеммой: инструмент, который должен был бы упрощать работу, становится источником подозрений и обвинений.
В образовании ситуация похожая. Преподаватели активно пользуются ИИ для подготовки курсов, программ или отчетов, но вместе с тем тратят много времени на поиск следов ChatGPT в студенческих работах.
Иногда это действительно заметно: в некоторых текстах есть типичные признаки машинной генерации — слишком правильная структура, излишняя уверенность в формулировках или универсальные фразы, которые вроде бы подходят ко всему и ни к чему конкретно. Но постоянная погоня за «разоблачением» не решает проблему — она лишь усиливает атмосферу недоверия в академической среде. Вместо того чтобы учить ответственному использованию новых технологий, мы рискуем воссоздать устаревшую модель наказаний и запретов, где страх преобладает над здравым смыслом.
Как когда-то мы учились работать с калькулятором или поисковой системой, так сегодня должны овладеть генеративным ИИ. Ведь главное — не сам инструмент, а то, как именно мы его применяем и готовы ли говорить об этом открыто.
Как реагируют регуляторы
Комитет по этике публикаций (Committee on Publication Ethics, COPE) почти два года назад четко заявил: ИИ не может быть автором, не несет ответственности за содержание и не имеет права согласовывать окончательную версию рукописи. В то же время если исследователь использовал ИИ для перевода, редактирования или поиска литературы, это следует прозрачно указать.
Международный комитет редакторов медицинских журналов (International Committee of Medical Journal Editors, ICMJE) обновил рекомендации, обязав авторов описывать, как именно был использован ИИ. Редакции также призывают рецензентов соблюдать этические нормы: не загружать чужие рукописи в ИИ-сервисы и не передавать их машине без согласия авторов.
Самые крупные научные издательства также реагируют на новые вызовы. Например, Elsevier требует отдельного раздела Declaration of Generative AI, где будет указано, какой инструмент был использован и с какой целью. Springer Nature запрещает генерированные изображения и подчеркивает, что автором может быть только человек. Wiley настаивает на подробном документировании всех случаев использования ИИ — от разработки идеи до финального оформления.
Свои подходы формируют и университеты: одни позволяют использование генеративного ИИ под наблюдением преподавателя, другие — только для технических заданий, таких как перевод или редактирование.
Впрочем, общего стандарта до сих пор нет. Неопределенность остается: где именно и в какой форме указывать привлечение ИИ — в тексте, в примечании, отдельном файле или метаданных? Авторы не всегда понимают, что именно нужно указать, а редакторы и рецензенты — как это оценивать. Читатели же не уверены, насколько можно доверять таким материалам.
В этой ситуации особенно важно выработать четкие и понятные этические правила, которые смогут соблюдать все участники научного процесса.
Предложенные решения
Одним из решений сначала считали так называемые детекторы ИИ — инструменты, которые должны были определять, сгенерирован ли текст машиной. Но практика показала их ограниченную надежность. Они часто ошибаются: могут «наказать» пользователей за обычное редактирование или перевод, в то же время не распознавая действительно сгенерированные фрагменты. Исследования также указывают на вероятную предвзятость к текстам авторов, для которых английский — не родной язык. Ни один из таких детекторов не обеспечивает гарантий, ведь языковые модели постоянно меняются, а человеческая речь слишком сложная и гибкая.
Другая идея — маркировать тексты, созданные ИИ, с помощью водяных знаков. Но это может привести к обратному эффекту: усилить стигматизацию и разделить тексты на «допустимые» и «подозрительные». Вместо формирования культуры ответственного использования такая практика может закрепить атмосферу недоверия.
На самом деле проблема не в самом генеративном ИИ, а в том, что мы еще не научились открыто и честно объяснять, как именно им пользуемся. Без такой прозрачности грань между человеческой работой и машинной помощью становится все менее заметной.
Еще одна из обсуждаемых идей — требовать от авторов предоставлять «промпты» (запросы к чат-ботам), чтобы лучше понимать, как именно был использован ИИ. На первый взгляд это выглядит логично, но на практике такое требование вызывает ряд сложностей.
Во-первых, работа с языковыми моделями обычно является итеративной: пользователи меняют формулировки, добавляют уточнения, обращаются к посторонним инструментам. В итоге создается длинная цепочка запросов, которую сложно или же невозможно воссоздать точно.
Во-вторых, запросы нередко содержат неопубликованные данные, фрагменты исследований или другую конфиденциальную информацию. Хранение или публикация таких журналов может нарушить этические, договорные или правовые нормы.
Поэтому промпты, скорее, фиксируют ход работы, чем гарантируют ее воспроизводимость. Они не заменяют стандарты научной добропорядочности и не обеспечивают прозрачность автоматически.
На этом фоне все очевиднее: простых решений нет. Маркировка делает использование ИИ заметным, но не обязательно ответственным. Детекторы и водяные знаки технически нестабильны и не всегда справедливы. Требование раскрывать запросы к чат-ботам создает риски для конфиденциальности и может противоречить этическим нормам. А общие формулировки наподобие «я использовал ChatGPT» слишком размыты, чтобы обеспечить реальную прозрачность.
Полный запрет, в свою очередь, — тоже не выход. Он не решает проблему, а только тормозит адаптацию научных практик к новой реальности. И именно поэтому стоит сосредоточиться не на наказании, а на создании понятных и честных правил игры.
Как говорить о ИИ честно и без страха: решение GAIDeT
Чтобы сделать использование ИИ в науке прозрачным, нужна простая и понятная система, дающая возможность четко зафиксировать, какие именно задачи выполнялись с помощью искусственного интеллекта, — без стигмы, лишней бюрократии или страха выглядеть нечестным. Одно из таких решений — GAIDeT (Generative AI Delegation Taxonomy), таксономия делегирования генеративного ИИ.
Она построена по аналогии с CRediT (Contributor Role Taxonomy), которая описывает вклад человеческих авторов в публикации — например, «написание», «анализ данных» или «визуализация». GAIDeT вместо этого позволяет указать, какие именно функции были делегированы ИИ: редактирование, перевод, поиск литературы, подготовка таблиц и т.п.
Для удобства создан Генератор деклараций GAIDeT — инструмент, дающий возможность выбрать из списка соответствующие задачи и сформировать готовый текст, который можно вставить в статью или дипломную работу.
В центре такого подхода остается человек: именно он решает, как и когда применять ИИ, и именно он несет ответственность за результат. GAIDeT только делает это взаимодействие прозрачным, понятным и воспроизводимым.
Кто уже поддержал: от журналов до университетов
В научной среде все больше признают: прозрачное использование генеративного ИИ — не факультативная опция, а необходимое условие доверия. Многие журналы уже призывают авторов открыто указывать, какой была роль ИИ в подготовке материалов.
Например, несколько медицинских журналов Харьковского национального университета имени В.Каразина уже интегрировали GAIDeT в свои редакционные политики. Отныне рядом с информацией об авторах, финансировании и конфликте интересов появляется отдельный раздел — «Раскрытие вклада ИИ». Это помогает сделать процесс рецензирования более прозрачным: редакторы, рецензенты и читатели видят полную картину, без предположений и подозрений.
GAIDeT также обсуждают на ряде международных платформ, в частности в Research Professional News (Clarivate), Future Campus, Leiden Madtrics, Scholarly Kitchen и Times Higher Education — изданиях, активно формирующих научную политику и стандарты в сфере высшего образования.
В Украине GAIDeT также постепенно входит в профессиональное обращение. Его обсуждают на специализированных площадках — от Летней школы «ИИ + образование + наука 2.0» под эгидой Инновационного университета до Украинского форума качества образования (UQAF-2025), организованного НАОКВО. Некоторые заведения уже начали внедрять GAIDeT в свои политики по использованию ИИ в образовании и науке. Среди них — Бердянский государственный педагогический университет и Киевский столичный университет имени Бориса Гринченко.
Один из следующих шагов развития GAIDeT — внедрение информации об использовании генеративного ИИ непосредственно в метаданные научных публикаций. Это даст возможность сделать такие вклады машиночитаемыми: не только заметными для читателя, но и доступными для библиометрических систем, репозитариев и поисковых сервисов. Для этого уже создана соответствующая онтология, и сейчас продолжаются первые этапы ее тестирования.
Почему это важно для всех нас
На первый взгляд, тема использования генеративного ИИ в науке может казаться сугубо профессиональной — делом исследователей, рецензентов и редакторов. Но на самом деле она касается каждого. От прозрачности научных практик зависят и доверие к учебникам, и безопасность лекарства, и надежность технологий, входящих в нашу повседневную жизнь.
GAIDeT предлагает инструмент, помогающий не контролировать, а понимать. Речь идет не о наказании за использование генеративного ИИ, а о создании условий, в которых прозрачность является частью нормальной научной практики.
Для Украины этот вопрос приобретает еще большее значение. Мы строим открытую и современную науку, которая хочет интегрироваться в мировое пространство. И важно, чтобы она ассоциировалась не с ограничениями или недоверием, а с ответственностью, достоинством и открытостью.
Человек и машина уже работают вместе. Но ключевая роль остается за человеком — он принимает решения, отвечает за содержание и объясняет, как именно использовал ИИ. GAIDeT дает для этого язык. И именно такой откровенный язык — перед коллегами, читателями и обществом — формирует доверие к науке.
