Технологія ШІ розвивається. «Визначати штучно згенеровані зображення стає дедалі складніше», — Оксана Полулях у подкасті «Медіуми»
Технологія ШІ розвивається. «Визначати штучно згенеровані зображення стає дедалі складніше», — Оксана Полулях у подкасті «Медіуми»

Технологія ШІ розвивається. «Визначати штучно згенеровані зображення стає дедалі складніше», — Оксана Полулях у подкасті «Медіуми»

У випуску — про те, як штучний інтелект створює нову реальність, яка одночасно вражає своїми можливостями та викликає тривогу через потенційні загрози.

Чому штучний інтелект став універсальним інструментом для навчання, роботи, творчості й розваг, але водночас може бути використаний для маніпуляцій та дезінформації? Які виклики стоять перед українцями в умовах війни, коли маніпулятивний контент створюється з метою дестабілізації суспільства? Як розпізнати небезпеку у постах і відео, які виглядають невинно, але приховують маніпулятивний задум? Про все це ведучі подкасту «Медіуми» Наталя Соколенко та Вадим Міський поговорили з Оксаною Полулях, фактчекеркою проєкту StopFake.org.

А також про те, як фейкові сторінки у соцмережах стають інструментом для збору аудиторії, яка згодом піддається впливу пропаганди та чому технології генеративного ШІ вже стали частиною сучасного інформаційного простору.

Підписатися на подкаст «Медіуми» можна на Apple Podcasts, Spotify, SoundCloud, MEGOGO Audio, NV Подкасти, YouTube Music, YouTube та інших подкастингових платформах.

00:00 «Ми спостерігаємо засилля контенту, створеного штучним інтелектом, у соціальних мережах»;

06:27 «До війни ми не зустрічалися з зображеннями чи відео, згенерованими штучним інтелектом, зараз ми бачимо такий контент щодня»;

08:10 «ШІ може бути як корисним, так і небезпечним»;

12:10 «Блогери-антивакцинатори відкрито не поширюють російську дезінформацію, проте вкидають маніпулятивну інформацію»;

13:49 «У нейромереж найкраще виходить малювати обличчя людей. Їхня база даних складається з величезних масивів зображень людей»;

16:45 «Технологія розвивається. Визначати штучно згенеровані зображення стає дедалі складніше»;

18:30 «Уважно дивіться на деталі, саме вони видають згенеровані зображення»;

20:30 «Детектори ШІ не завжди працюють. Вони можуть бути додатковим інструментом»;

24:22 «Уперше українці масово зіштовхнулися з дипфейк-відео у березні 2022 року»;

27:44 «Рано чи пізно на національному рівні доведеться регулювати використання ШІ»;

29:32 «Ми спостерігаємо насичення інформпростору зображеннями, згенерованими ШІ — це розмиває реальність».

«Ми спостерігаємо засилля контенту, створеного штучним інтелектом, у соціальних мережах»

Вадим Міський: Поговорімо про підроблену реальність — як і навіщо штучний інтелект або контент, згенерований штучним інтелектом, може маніпулювати нашими емоціями.

Почати хотів би з того, що штучний інтелект перетворився на такого універсального асистента. Ще два роки тому ми цього не мали. Ми не мали настільки розповсюджених моделей генеративного штучного інтелекту для масового вжитку, які можуть допомагати з текстом, відео, картинками, обчисленнями. Це дозволяє сьогодні розв’язувати для просунутого користувача інтернету багато завдань. Штучний інтелект може допомогти в навчанні, у роботі, пояснити складну тему, зробити резюме з великого тексту, запропонувати креативні ідеї, бути партнером у розробці проєктів або навіть слугувати розвагою. Наприклад, штучний інтелект може пограти з тобою в якусь гру. І все це — з постійним доступом у режимі 24/7. Коли задоволення потреб стає таким легким і навіть набуває ігрового формату взаємодії — це те, чого користувачі очікують від будь-якого сучасного сервісу. Це тренд, який, вочевидь, залишатиметься актуальним в Україні та світі. Ми вже не повернемося в часи до штучного інтелекту, тому нам слід навчитися жити з ним. Хто вміє застосовувати штучний інтелект, той уже має певні конкурентні переваги. Але це породжує і виклики.

Зокрема, ті, хто не вміє відрізняти згенеровану штучним інтелектом інформацію, можуть потрапити у пастку маніпуляцій або брехні. Є значна частина людей, які поки що не здатні з цим впоратися.

Ось, наприклад, дослідження Чиказького університету, яке Оксана цитує в одному зі своїх матеріалів. Там зазначено, що лише 60% інтернет-користувачів можуть визначити, чи було зображення створено за допомогою штучного інтелекту. Науковці пропонували людям порівняти два зображення і виявили, що лише 60% змогли правильно визначити згенероване зображення.

Наталка Соколенко: Чесно кажучи, я здивована. Аж 60% думають, що вони вміють відрізнити. Ти в це віриш?

Вадим Міський: Мені здається, можливо, вони опитували більш грамотних людей. Цікаво було б щось подібне зробити в Україні. Я думаю, що можемо взяти це дослідження на замітку. Але є й інші дослідження, які стосуються вже безпосередньо України. І результати в них дуже різні.

От, наприклад, Kantar Ukraine у лютому 2024 року показало, що 79% респондентів в Україні знають, що таке штучний інтелект, але тільки 42% впевнені у своїх навичках розпізнавати подібний контент. Мені здається, це дуже високі показники, тому що «Детектор медіа» у цей же час проводив своє дослідження, і результати були значно песимістичнішими. Ми запитали: «Чи, на вашу думку, штучний інтелект може поширювати дезінформацію та генерувати неправдивий контент? Чи можна його для цього використовувати?» Ось що відповідають люди: 46% — губляться, коли чують таке запитання і вибирають відповідь: «Важко сказати». Третина, а саме 27%, говорять: «Так, я знаю про випадки, коли була поширена неправда, згенерована штучним інтелектом, але мені було би важко це ідентифікувати». Ще 15% відповідають: «Ні-ні-ні, ви що! Штучний інтелект? Яка ж від нього загроза? Жодної загрози він не несе». І тільки 12% українців зазначають: «Так, звісно, штучний інтелект може використовуватися для цього, але я регулярно перевіряю інформацію і володію відповідними навичками роботи зі штучним інтелектом». Отже, лише 12% мають такі навички, а 88% або губляться, або вважають, що жодної загрози немає, або зізнаються, що не змогли б відрізнити маніпулятивний контент.

Власне, хотілося б, відштовхнувшись від цих показників, які ми маємо в Україні, розібратися в тому, чому штучний інтелект — ті зображення, відео, тексти, які він генерує — настільки допомагає створювати маніпулятивний контент і чому так важко його відрізнити.

Оксана Полулях: Дійсно, ця статистика хвилює, особливо зважаючи на те, що штучний інтелект постійно вдосконалюється. Протягом останніх трьох років ми постійно зіштовхуємося з контентом, створеним за допомогою штучного інтелекту, і бачимо, як він стає дедалі досконалішим, його все важче виявити та спростувати.

Проте ця тенденція — це загальносвітове явище, а не лише проблема України. Ми спостерігаємо засилля контенту, створеного штучним інтелектом, у соціальних мережах. Але коли це відбувається в умовах війни, ситуація набуває загрозливого характеру. Йдеться не лише про інформаційну грамотність чи про те, що ви можете стати жертвами шахраїв. 

«До війни ми не зустрічалися з зображеннями чи відео, згенерованими штучним інтелектом, зараз ми бачимо такий контент щодня»

Оксана Полулях: Ви також можете потрапити під вплив релігійних організацій, які часто використовують згенеровані штучним інтелектом відео й інший контент.

Наталка Соколенко: Правда?

Оксана Полулях: Нещодавно вийшло дослідження Інституту масової інформації, яке стосувалося саме цього. Вони досліджували, як релігійні організації за допомогою відеороликів, згенерованих штучним інтелектом, впливали на людей. У цих відео були зображені нібито українські військові — таким чином організації набирали собі людей, пропонуючи переходити за посиланням.

Вадим Міський: Так, «ці четверо братів, які служать на фронті». Усі з однаковими обличчями — четвернята. «Постав сердечко і помолися Богові». Ми знаємо такі випадки, це трапляється.

Оксана Полулях: Як на мене, у цій статистиці тривожно не лише те, що багато людей не здатні розрізнити, чи зображення справжнє, чи створене за допомогою штучного інтелекту. Тривожним є і те, що близько 20% людей узагалі не знають, що таке штучний інтелект. Вочевидь, вони навіть не уявляють, з якою загрозою можуть зіштовхнутися, будучи користувачами соціальних мереж.

Наприклад, якщо до війни ми як фактчекери не зустрічалися з зображеннями чи відео, згенерованими штучним інтелектом, то зараз ми бачимо такий контент щодня або кілька разів на тиждень. Ми регулярно стикаємося з подібним матеріалом і спостерігаємо, як його часто використовують у пропагандистських цілях. Це найбільше турбує нас як українців, особливо під час війни, коли інформаційний простір насичений, а контенту надзвичайно багато. У таких умовах людині дуже легко загубитися: де правда, а де брехня.

«ШІ може бути як корисним, так і небезпечним»

Наталка Соколенко: А якщо взяти життя пересічної людини, яка живе в умовах, скажімо, звичайних, не екстремальних. Хоча зараз у всьому світі вистачає своїх викликів — то чи може штучний інтелект становити загрозу? Які це можуть бути виклики?

Оксана Полулях: Насправді штучний інтелект може бути як корисним, так і небезпечним. Для нас як фактчекерів він приносить користь, адже ми використовуємо різні інструменти на основі штучного інтелекту — для перевірки згенерованих зображень чи відео, перекладу текстів, їхнього аналізу. Проте для звичайної людини, користувача соціальних мереж, ситуація складніша. Кожен майже щодня стикається з контентом, створеним штучним інтелектом. І це стосується не лише відео чи фото, а й текстів.

Також активно використовують системи, де боти розсилають і масштабують різні тези за допомогою однотипних коментарів. Це теж працює на основі штучного інтелекту. Звичайна людина, яка споживає такий контент некритично, може, наприклад, стати жертвою шахраїв. Існують дослідження в Сполучених Штатах, які показують, що у них поширюють схожий контент, як і в нас в Україні. Але адаптований до їхніх умов. Наприклад, дописи типу: «Привітайте дідуся з днем народження, його сьогодні ніхто не привітав».

Наталка Соколенко: У них теж таке є таке, в США?

Оксана Полулях: Так, або, наприклад, дописи з зображеннями людей з інвалідністю: «Будь ласка, підтримайте, мені потрібна ваша допомога чи привітання». Ці дослідження показують, що часто сторінки, які поширюють такий контент, використовують його для збільшення охоплення, збору лайків тощо. Потім ці сторінки можуть бути перейменовані й змінити тематику, почавши поширювати зовсім інший контент, зокрема політичний.

Ця стратегія є загальною не лише для Сполучених Штатів, а й для інших країн, зокрема й України. У нашій країні більша частина такого контенту стосується війни. Наприклад, ми всі бачили фотографії військових, які просять підтримки, або дописи про «двох сестер, які служать у Збройних силах України» з закликом: «Привітайте їх, будь ласка».

Вадим Міський: Чи «ця пара сьогодні побралася й ніхто їх не привітав», так?

Оксана Полулях: Так. І на перший погляд — що тут такого загрозливого, якщо просто залишити привітання чи прокоментувати? Проте стратегія однакова. Ці сторінки, які поширюють такий контент, залучають дедалі більше аудиторії, збільшують охоплення. Надалі доля таких сторінок дуже різна. Часто ми спостерігаємо, як ці сторінки, які регулярно поширюють подібний контент, згодом змінюють назви, починають публікувати інший матеріал і, зрештою, можуть використовуватися у пропагандистських цілях. Центр протидії дезінформації при РНБО попереджає, що таким чином росіяни можуть залучати людей, які є більш вразливими до впливу. Вони створюють такі майданчики, щоб пізніше просувати свої цілі.

«Блогери-антивакцинатори відкрито не поширюють російську дезінформацію, проте вкидають маніпулятивну інформацію»

Вадим Міський: До речі, тут мені згадався приклад антивакцинаторських сторінок. Тоді ще не було такого масового використання штучного інтелекту, але технологія виглядала схожою. Навколо якоїсь тригерної для людей теми створювали спільноту, постійно публікували щось, щоб вона зростала, викликала емоції, провокувала дискусії. А потім ці сторінки використовували для цілей, зовсім далеких від початкової теми: для пропаганди або шахрайства. Ті сторінки потім перейменовували — й те, що починалося як антивакцинаторська історія, завершувалося зовсім іншим.

Оксана Полулях: Нещодавно я була у відрядженні до Північної Македонії, ми ділилися досвідом і виявилося, що у них ситуація схожа. Антивакцинатори часто просувають проросійську дезінформацію. Стратегія та сама: збирається вразлива аудиторія, яка вірить у конспірологічні теорії тощо. Згодом, коли тема вакцинації від COVID-19 перестала бути актуальною, ці сторінки переформатувалися у групи, які поширюють російську пропаганду.

Те саме ми спостерігаємо і в Україні. Багато блогерів-антивакцинаторів відкрито не поширюють російську дезінформацію, проте вкидають маніпулятивну інформацію. Наприклад, вони виступають проти мобілізації, поширюють вирвані з контексту відеоролики про мобілізацію, корупцію тощо. Таким чином, вони підтримують пропагандистські тези та цілі Кремля.

«У нейромереж найкраще виходить малювати обличчя людей. Їхня база даних складається з величезних масивів зображень людей»

Вадим Міський: Хотілося б трохи детальніше розібратися в тому, як працює штучний інтелект і спробувати відкрити цей «чорний ящик» для наших слухачів. Я з захватом спостерігав за тим, як штучний інтелект використовується у виробництві аудіовізуального контенту Лексом Фрідманом, який нещодавно взяв інтерв’ю у Зеленського. Ми бачили це інтерв’ю: постійне перемикання між трьома мовами — українською, англійською та російською.

Наталка Соколенко: І нецензурною. Її теж треба було якось перекладати, а Фрідман, здається, був незадоволений тим, як жива людина йому це переклала.

Вадим Міський: Але найцікавіше відбулося наприкінці, коли з’явився готовий продукт. Там було три окремі аудіодоріжки: російська, англійська й українська. І в ті моменти, де Зеленський говорить українською, він звучить українською, а там, де англійською, його голос дубльований українською мовою. У цьому допомогла програма ElevenLabs.

До речі, ми теж працювали з цією програмою, коли створювали телеурок для українців в ефірі телемарафону. Ми тоді зробили дипфейк, де Путін оголошує капітуляцію, щоб продемонструвати, наскільки ця технологія проста у використанні. Зокрема, для генерації голосу ми використали саме ElevenLabs і показали українцям в ефірі, що це доволі проста річ. Зробити таке неважко, тому варто бути уважним до кожного шматочка контенту, який ви бачите. Але якщо повернутися до того, що ми побачили в інтерв’ю Зеленського у Фрідмана, то стає зрозуміло: ці технології вже дуже близько до нас. Вони стали частиною професійного продакшну й активно використовуються. Як штучному інтелекту вдається настільки точно імітувати роботу людини й бути настільки схожим на неї?

Оксана Полулях: Ми всі знаємо, що існують різні нейромережі. Наприклад, якщо говорити про зображення, то часто українці користуються такими, як Midjourney, DALL-E або від Bing. Насправді їх дуже багато, вони різноманітні — якісь складніші, якісь простіші. Зазвичай вони працюють так: ви детально описуєте, що хочете побачити на зображенні — а нейромережа генерує його. Можливо, користувачі таких нейромереж помітили, що найкраще у них виходить малювати обличчя людей. Це відбувається тому, що їхня база даних складається з величезних масивів зображень саме людей. Тож наразі найкраще нейромережі вдається створювати зображення людських облич.

Вадим Міський: Дивно, що доволі простіші частини тіла, наприклад, руки, постійно виходять із неправильною кількістю пальців, а ось обличчя — зовсім інша справа. Навіть для художника обличчя намалювати завжди важче. Це потребує більше часу, глибшого навчання — пропорції, деталі...

Наталка Соколенко: Руки теж малювати непросто, але ти правильно зауважив: обличчя все ж складніше, адже там є очі, рот... І виходить це краще, ніж із руками.

Оксана Полулях: Так. 

«Технологія розвивається. Визначати штучно згенеровані зображення стає дедалі складніше»

Оксана Полулях: Якщо згадаємо ті зображення нібито військових, які просять їх привітати чи підтримати. Якщо придивитися, можна помітити: обличчя у них досить добре промальовані. А ось решта, особливо військова форма, виглядає доволі загально. Тобто ми бачимо щось схоже на військову форму, якийсь камуфляж. Але якщо придивитися, постає питання: який це камуфляж і чи існує він узагалі? До того ж часто можна помітити, що замість реальної військової форми це буває щось на зразок комбінезона, тобто якесь суцільне вбрання.

Або, наприклад, ті самі патчі — їхній розмір буває невідповідним реальному. Або ж різні наліпки, які показують, до якого підрозділу належить військовий. Якщо ми говоримо про зображення, згенеровані штучним інтелектом, то ці елементи виглядають дуже умовно. Ви або взагалі нічого не роздивитесь, або побачите, що вони розпливаються і виглядають дуже спрощено.

Те саме стосується тексту: штучний інтелект часто пропускає літери, текст виходить викривленим чи недосконалим. Річ у тому, що нейромережа зосереджує увагу на обличчі, але продовжує робити помилки в таких деталях. Проте ми вже помічаємо прогрес. Наприклад, якщо пів року тому проблема з кількістю пальців була масовою — шість пальців на зображеннях здавалося звичною річчю, — то зараз таких зображень набагато менше.

Вадим Міський: Тобто штучний інтелект прогресує?

Оксана Полулях: Так, технологія розвивається — і тому визначати штучно згенеровані зображення стає дедалі складніше.

«Уважно дивіться на деталі, саме вони видають згенеровані зображення»

Наталка Соколенко: Я хотіла поставити сакраментальне питання: «що робити, дорога редакціє»?

Оксана Полулях: По-перше, ця технологія досить активно розвивається і нам стає все складніше її розпізнавати. Що може зробити простий користувач мережі? Уважно дивіться на деталі, адже саме вони часто видають згенеровані зображення. Звертайте увагу на те, як зображені кінцівки: чи правильна кількість пальців, рук і так далі.

Часто є проблеми з освітленням — трапляються помилки з тінями, які можуть падати неправильно, або ж певні ділянки тіла підсвічені незрозуміло як. Ми ж знаємо, що в нас сонце одне і світить лише з одного боку.

Зверніть увагу на деталі одягу. Наприклад, прикраси на жінках можуть дивно висіти на вухах або «плавати» в повітрі. Годинники можуть некоректно прилягати до шкіри. Зверніть увагу на одяг, він також може неправильно прилягати. Або шоломи на головах можуть виглядати так, ніби мають деталі, яких насправді не існує.

Не забувайте про фон. Він буває дуже умовним: напіврозмитий, із невиразними деталями. Штучний інтелект може «спростити» роботу, копіюючи пікселі. Наприклад, цегляна стіна на фоні може виглядати абсолютно однаковою по всій поверхні.

«Детектори ШІ не завжди працюють. Вони можуть бути додатковим інструментом»

Вадим Міський: Але ж те, що створив один штучний інтелект, інший штучний інтелект може розпізнати. І це стосується не лише зображень чи відео, а й тексту. Зараз існують текстові детектори штучного інтелекту. Припустимо, якщо ми стикаємося з практичним завданням — аналізувати резюме кандидатів на роботу, мотиваційні листи, тексти, які нам надіслали, чи навіть дипломи або докторські дисертації, — це теж можна зробити за допомогою штучного інтелекту, здатного виявляти інший штучний інтелект. Як це працює?

Оксана Полулях: Проте, на жаль, я вас, напевно, засмучу, оскільки цей інструмент існує, але він не настільки дієвий, як би нам хотілося. І він не може з такою стовідсотковою вірогідністю сказати, чи це зображення дійсно було згенероване штучним інтелектом чи ні. Звісно, існує багато таких детекторів, і якщо говорити про зображення, вони здатні з певною вірогідністю сказати, чи були ці зображення згенеровані штучним інтелектом. Деякі з цих детекторів навіть можуть визначити нейромережу, за допомогою якої було створено ці зображення.

Проте, на жаль, ці детектори не завжди працюють. Дуже часто, якщо зображення було завантажене, а потім знову вивантажене, воно втрачає свою якість. Тому ці детектори погано працюють із зображеннями низької якості.

Ще одне — якщо ви знайшли зображення і впевнені, що воно було згенеровано штучним інтелектом, і використовуєте кілька різних детекторів, вони можуть показати різні результати. Як допоміжний засіб це непоганий інструмент і його варто використовувати, але все працює в комбінації. Ви повинні самостійно візуально проаналізувати зображення, з яким маєте справу, і використовувати ці детектори. Також вам потрібно самостійно провести певну роботу: подивитися, хто поширює це зображення, на якій сторінці воно з’явилося. Наприклад, якщо ми говоримо про Facebook, ми можемо зайти та подивитися на прозорість сторінки, подивитися, хто є модераторами цієї сторінки, з яких вони країн, чи змінювала сторінка свою назву, коли вона була створена, чи має активну рекламу тощо. Ця інформація може нам допомогти.

Якщо ж ці зображення поширюються через соціальні мережі, які дозволяють викачати метадані, ми можемо перевірити метадані — і це дасть нам певну інформацію. У Facebook, наприклад, ми не можемо отримати метадані зі збереженої фотографії.

Що ж стосується відеороликів, то ситуація в принципі така сама. Детектори можуть бути додатковим інструментом і допомогти визначити, чи було відео згенероване штучним інтелектом, а також яка технологія була використана. Наприклад, зараз часто росіяни використовують технології маскування, коли накладається маска на обличчя актора, створюючи фейковий контент. Ці детектори також можуть визначити, чи аудіо було згенероване штучним інтелектом. Однак, знову ж таки, часто виникають помилкові результати, тому для точнішого визначення потрібно використовувати різні методи й лише в сукупності вони можуть дати точний результат.

І та ж сама історія з текстом. На жаль, часто ці детектори, які ми використовуємо для перевірки тексту, можуть давати помилку. Проте, я думаю, що з часом це теж буде виправлено. 

«Уперше українці масово зіштовхнулися з дипфейк-відео у березні 2022 року»

Оксана Полулях: Я повернуся до відео. Я просто наведу два приклади. Уперше українці масово зіштовхнулися з цими дипфейк-відео у березні 2022 року, коли поширилося відео з Зеленським. Потім були подібні відео досить низької якості з Залужним і Сирським. І звичайний користувач мережі може побачити, що щось не так: міміка не така, мова — наголоси неправильні тощо. Ми можемо зрозуміти, що щось не так, і запідозрити, що це відео було згенеровано штучним інтелектом.

Проте, наприклад, рік тому російська пропаганда запустила серію відеороликів. Головним героєм був нібито український військовий під псевдонімом Воха. Він був буцімто з синдромом Дауна, там показувалося, як начебто інші військові його булять, обзивають чи знущаються з нього. Ці відеоролики поширювали не лише в російськомовному чи українському сегменті, але й досить активно залетіли на англомовне середовище. Вони були емоційно насичені й активно обговорювалися, оскільки головним героєм була людина з синдромом Дауна.

Вадим Міський: Вони, до речі, були дуже реалістичні, що, чесно кажучи, навіть з окремих відео у мене складалося враження, що це просто постановне відео, а не створене штучним інтелектом. Тобто у вас є впевненість, що це був саме штучний інтелект?

Оксана Полулях: Телебачення Торонто проробило дуже велику роботу. Вони аналізували ці відео й довели, що вони були створені за допомогою масок. Тобто використовувався актор, на якого потім накладалася ця маска. І тут найцікавіше, що вони пішли далі. Адже, напевно, у когось могли виникнути сумніви, оскільки цей дипфейк був дуже якісним, відео мало дуже високу якість. Вони почали аналізувати, звідки поширювалися ці відео і хто ж є їхнім автором. Це якраз дуже цікаво, оскільки їм вдалося виявити мережу, яка діє на окупованій території Луганщини. Усі автори працюють у тамтешній так званій «народній міліції». Тобто вони виявили конкретних людей, які займалися створенням і поширенням цих відеороликів у групах телеграм-каналів.

Це яскравий приклад того, що варто, аналізуючи такий контент, комбінувати різні методи перевірки. Адже просто перевірити й сказати: «От якийсь детектор штучного інтелекту показав, що це відео з великою ймовірністю було створене нейромережею» — насправді недостатньо, бо ці детектори помиляються.

Вадим Міський: До речі, у цьому жанрі працює і «Пан Роман». Це образ, створений для TikTok-акаунта. Блогер Роман Чихарівський створив цей образ — це дуже цікаво. Він не приховує свого справжнього обличчя, дає інтерв’ю й відкрито говорить, що це вигадка — комічний персонаж, який мешкає в мережі та поширює вигадані історії. Але подібний підхід можуть використовувати й без розкриття того, хто стоїть за цим процесом.

«Рано чи пізно на національному рівні доведеться регулювати використання ШІ»

Наталка Соколенко: Як ви вважаєте, чи дійдемо ми до того, що виникне необхідність у національному й міжнародному законодавстві, яке покладатиме відповідальність на тих, хто використовує штучний інтелект для обману людей?

Оксана Полулях: Насправді Big Tech, великі корпорації, такі як Google, Meta тощо — вже думають про те, як це врегулювати. Оскільки ми бачимо, що штучний інтелект несе багато загроз — від шахрайства до загроз національній безпеці. Є дослідження, які показують, що такі країни як Росія, Іран, Китай усе частіше впроваджують різні технології штучного інтелекту у своїх інформаційних кампаніях.

Зараз триває дискусія про те, щоб хоча б маркувати публікації, які містять елементи, створені за допомогою штучного інтелекту. Наприклад, якщо це відео чи фотографія, то вони мають бути позначені спеціальним значком, який інформує, що контент створено штучним інтелектом. Проте, я думаю, що рано чи пізно на національному рівні доведеться регулювати ці питання, тому що ми вже бачимо, які загрози несе безконтрольне використання штучного інтелекту. Особливо в Україні під час війни, коли Росія активно використовує штучний інтелект у своїх кампаніях. Я думаю, перші кроки у цьому напрямку мають зробити такі компанії як Google і Meta, і рухатися до врегулювання ситуації.

«Ми спостерігаємо насичення інформпростору зображеннями, згенерованими ШІ — це розмиває реальність»

Вадим Міський: Що, на вашу думку, варто враховувати журналістові, коли він використовує штучний інтелект у своїй роботі? Чи є щось, що точно повинно бути червоною лінією? Як нам не перетворитися на людей, які використовують цей добрий інструмент у злочинний спосіб?

Оксана Полулях: Я думаю, що передусім варто думати про наслідки. У цьому контексті доречно згадати, як торік акаунт Верховної Ради поширив після чергової російської атаки по Дніпру зображення, згенероване штучним інтелектом. Хлопчика, який нібито втратив свою родину внаслідок цього удару. Це, як на мене, яскравий приклад того, що використання штучного інтелекту несе за собою відповідальність.

Можливо, це зображення чи відео, згенероване штучним інтелектом, могло стати гарною ілюстрацією того, що ви хочете сказати. Проте варто замислитися: чи використання такого інструменту — згенерованого зображення — не матиме шкідливіших наслідків, ніж, скажімо, ілюстрування публікації реальною фотографією?

Очевидно, що ми не зможемо уникнути використання інструментів на основі штучного інтелекту, їх буде все більше у нашому житті та роботі. Ми як фактчекери також регулярно використовуємо різні інструменти. Проте важливо ставитися до цього відповідально. І це стосується не лише журналістів, але й пересічних користувачів мережі. Генеруючи такий контент або поширюючи його, варто завжди думати про наслідки, які це може спричинити.

Наталка Соколенко: У мене є пропозиція: до Кодексу журналістської етики треба додати пункт, який регулює використання штучного інтелекту журналістською спільнотою. Мені здається, час настав.

Вадим Міський: Так, є ж рекомендації, які ще восени 2023 року дала Комісія журналістської етики. Але, вочевидь, ми вже підходимо до того моменту, коли треба включати це і до самого Кодексу, бо це досить основоположна історія.

Оксана Полулях: Так, мені здається, хоча б найпростіше, що може зробити журналіст, якщо він використовує згенеровані штучним інтелектом зображення чи відео — промаркувати їх і вказати, що фото було згенероване штучним інтелектом. І все ж таки варто надавати перевагу реальним фото і відео, якщо вони доступні. Адже те, що ми зараз спостерігаємо — насичення інформаційного простору зображеннями, згенерованими штучним інтелектом, — розмиває реальність і зрештою її спотворює.

в попередніх випусках подкасту «Медіуми» говорили з Катериною Городничою про те, як клікбейт став бізнесом у глобальному медіапросторі, Павлом Бєлоусовим про те, чому медіаграмотність неможлива без цифрової грамотності, Оксаною Волошенюк про те, як українські діти в школі опановують навички критичного мислення, Денисом Зеленовим про роботу соцмереж «24 каналу» і штучний інтелект, Мариною Кафтан про те, чому критичне мислення — головна зброя проти інформаційних атак, Лідією Смолою про те, як алгоритми соцмереж підштовхують до емоційних рішень і що робить нас легкою мішенню для інформаційних атак, Ольгою Кравченко про конференцію «Стійкі разом: розвиток медіаграмотності в Україні», Дмитром Литвином про «Укрінформ», «УП», телемарафон та «офреки» для журналістів, Крістіною Гаврилюк із Мінцифри про те, чи здатні DMA і DSA змінити правила гри на європейському ринку цифрових послуг, Олександром Педаном про співпрацю з Суспільним, новий проєкт замість «УніверCheck» та інші ідеї Pedan buro, Катериною Котвіцькою з Megogo Audio про аналіз поточної ситуації та трендів у сфері дистрибуції аудіоконтенту онлайн, Галою Котовою з Viber про те, як досвід роботи під час пандемії допоміг команді Rakuten Viber зростати після початку широкомасштабного вторгнення.

 

The podcast "Mediums" was recorded by Detector Media as part of a project in partnership with UNESCO and with the support of Japan. The authors are responsible for the selection and presentation of the facts contained in this publication. The views expressed are solely those of the authors and do not necessarily reflect the position of UNESCO or Japan.

Подкаст «Медіуми» був записаний / створений «Детектором медіа» в межах проєкту у партнерстві з ЮНЕСКО та за підтримки Японії. Автори несуть відповідальність за вибір і подання фактів, наведених у цьому подкасті. Висловлені погляди належать винятково авторам і не обов’язково відображають позицію ЮНЕСКО чи Японії.

Колаж: «Детектор медіа»

Команда «Детектора медіа» понад 20 років виконує роль watchdog'a українських медіа. Ми аналізуємо якість контенту і спонукаємо медіагравців дотримуватися професійних та етичних стандартів. Щоб інформація, яку отримуєте ви, була правдивою та повною.

До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування спільних ідей та отримувати більше ексклюзивної інформації про стан справ в українських медіа.

Мабуть, ще ніколи якісна журналістика не була такою важливою, як сьогодні.
Долучитись
Источник материала
loader
loader