Олександра Ярошенко: «Ніхто не може дати точної інформації, скільки наукових статей пишеться у ChatGPT»
Олександра Ярошенко: «Ніхто не може дати точної інформації, скільки наукових статей пишеться у ChatGPT»

Олександра Ярошенко: «Ніхто не може дати точної інформації, скільки наукових статей пишеться у ChatGPT»

Викладачка Могилянської школи журналістики НАУКМА розповіла про виклики та міфи щодо штучного інтелекту.

Активне використання штучного інтелекту в наукових колах створює ситуацію, коли велика кількість академічної літератури ним же генерується і оцінується. Про це під час міжнародної конференції «Медіаграмотність в умовах війни та глобальних трансформацій» повідомила викладачка Могилянської школи журналістики НАУКМА Олександра Ярошенко.

В рамках дискусії «Цифровізація та розвиток ШІ як виклики для сфери медіаграмотності» вона розповіла, що робота рецензентів у наукових журналах зазвичай не оплачується, тож рецензенти можуть «по-тихому» проводити експертне оцінювання наукової роботи за допомогою ШІ. Також немає точної інформації, скільки наукових робіт пишеться за допомогою штучного інтелекту, зокрема ChatGPT. «Це створює абсурдну і страшну ситуацію, коли генерується велика кількість академічної літератури, оцінується також штучним інтелектом, а потім поступає в друк. Це може призвести до дивних наслідків у науці»,  каже Олександра Ярошенко.

На її думку, якщо вже є поняття «штучний інтелект», то час вводити термін «штучного тексту», тобто матеріалу, написаного не людиною.

Найбільшим викликом для молодих журналістів, за словами Олександри Ярошенко, брак знань про штучний інтелект: «Вони пишуть про штучний інтелект, але дуже часто називають ним все, що просто є комп’ютерною програмою або роботом. Потрібна ввідна інформація для молодих спеціалістів, не пов’язаних з ІТ, щоб зрозуміти, чим усі ці речі відрізняються. Наприклад, є великі складні роботи, які збирають полуницю, але в них немає штучного інтелекту, а є такий маленький смішний домашній пилосос, в якому є штучний інтелект, тому що він сканує поверхню і приймає рішення, як йому об’їжджати меблі».

На її думку, для студентів варто проводити окремі заняття про етику штучного інтелекту, щоб вони не лише розуміли, як його використовувати, а й не поширювали шкідливі міфи про нього.

«Те, що ШІ захопить людство  це лише один зі смішних міфів. Є набагато шкідливіші, наприклад, що штучний інтелект чекає на свого користувача, коли він знов залогіниться і почне з ним спілкуватися. Це вводить в оману молодь, яка починає емоційно прив’язуватися до нелюдського спілкування з чатботом»,   каже викладачка.

Нагадаємо, що під час конференції «Медіаграмотність в умовах війни та глобальних трансформацій» директорка Департаменту інформаційної політики та інформаційної безпеки Міністерства культури та стратегічних комунікацій України Ганна Красноступ розповіла, як дослідження з визначення рівня медіаосвіти української аудиторії допомагають Міністерству культури та стратегічних комунікацій формувати Стратегію з медіаграмотності. 

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
Долучитись
Теги по теме
наука
Источник материала
loader
loader