Весілля з чат-ботом: фантастика чи нова реальність? Надія Баловсяк у подкасті «Медіуми»
Весілля з чат-ботом: фантастика чи нова реальність? Надія Баловсяк у подкасті «Медіуми»

Весілля з чат-ботом: фантастика чи нова реальність? Надія Баловсяк у подкасті «Медіуми»

У випуску — про те, як користуватися штучним інтелектом так, щоб він допомагав, а не підмінював наш розум, етику й свободу.

Чому люди дедалі частіше замінюють емоційне спілкування з іншими людьми на «зручне» спілкування зі штучним інтелектом, наскільки це може бути небезпечним і чи готове суспільство до такої трансформації. Чому ШІ може здаватися привабливішим за людину? Чи здатен він замінити вчителя, психотерапевта, співрозмовника або навіть партнера? Як розпізнати межу, де технологія допомагає, а де — починає формувати нашу свідомість? Про це ведучі подкасту «Медіуми» Наталя Соколенко та Вадим Міський поговорили з Надією Баловсяк, медіадослідницею, доценткою Школи журналістики та комунікацій УКУ.

А також про те, чи повинні розробники штучного інтелекту нести відповідальність за наслідки його використання? Чому великі технологічні компанії бояться регулювання? І чи може ChatGPT ненавмисно поширювати російську пропаганду?

Підписатися на подкаст «Медіуми» можна на Apple Podcasts, Spotify, SoundCloud, Megogo Audio, NV Подкасти, YouTube Music, YouTube та інших подкастингових платформах.

00:00 «Цифрові інструменти стали зачіпати наші емоції»;

05:25 «Людина в якийсь момент буде незручною, натомість ШІ завжди буде зручним»;

07:51 «Молодим людям складно читати довгі тексти»;

10:59 «Люди відучуються сприймати, працювати, аналізувати інформацію»;

13:40 «Компанії, що розробляють ШІ-інструменти проти регулювання»;

17:00 «Проблема не лише в регулюванні, а проблема в тому, на чому навчають чат-бот»;

21:37 «Відбувається боротьба між одним штучним інтелектом і іншим»;

27:29 «ШІ розвивається шаленими темпами, ми невстигаємо призвичаїтись».

«Цифрові інструменти стали зачіпати наші емоції»

Наталя Соколенко: Поговорімо про штучний інтелект і наші стосунки з ним. Я би хотіла розпочати з майже особистої історії. Один мій близький друг, колега, спілкується зі штучним інтелектом на особисті теми, причому він конкретно заглибився в це спілкування. Він питає у штучного інтелекту, що йому сказати у відповідь на те, що сказала дівчина, яка йому подобається. Як розшифрувати її меседж, що вона йому написала. І понад те — він питає у штучного інтелекту: «А що їй відповісти?».

Вадим Міський: І що — допомагає?

Наталка Соколенко: Ну, побачимо. Якщо буде весілля — значить, допомагає!

Вадим Міський: Головне, щоб це весілля не відбулося зі штучним інтелектом. Про що пише пані Надія у своєму матеріалі. Вона згадує про цікавий приклад із культури — фільм «Вона» 2013 року. У ньому головний герой, якого зіграв актор Хоакін Фенікс, переживає розлучення і поступово, шукаючи якоїсь альтернативи, закохується в операційну систему з чудовим жіночим голосом. Її озвучила блискуча акторка Скарлетт Йоханссон. Звали цю операційну систему «Саманта». Це 2013 рік — до ШІ було далеко, але ця «Саманта» стала йому фактично таким штучним інтелектом, який у процесі навчається, підлаштовується і, власне, — так недовго й одружитися з нею.

Наталка Соколенко: Вадиме, я тобі свіжішу історію вже не зі світу кінематографа розповім. Одна американка китайського походження взяла версію цього штучного інтелекту, який не фільтрується — тобто там немає жодних фільтрів. Вона почала спілкуватися, зокрема, й на тему сексу. Одним словом — у них якраз іде все до одруження, розумієш?

Вадим Міський: Я думаю, пора приймати ставки: з ким одружиться Наталчин товариш: зі штучним інтелектом чи з тією дівчиною. Але повертаймося до нашої головної теми.

Наталя Соколенко: Отже, є питання в тому, що люди намагаються замінити спілкування з іншими людьми, які непередбачувані, складні, — на тих, хто приємний. Як кіт чи собака. Що ви думаєте про цей феномен? Наскільки він небезпечний?

Надія Баловсяк: Ви знаєте, технології цікаво так змінилися. Я давно за цим стежу, багато років займаюся цією темою, досліджую. Колись це була машина, яка виконувала наші утилітарні задачі. Але в певний момент цифрові інструменти стали зачіпати наші емоції: соціальні мережі, де люди виплескують те, що треба і не треба. І прийшов штучний інтелект. Концептуально він мало чим відрізняється від Google. Що таке всі ці генеративні чат-боти? Вони начиталися величезної кількості текстів і можуть спрогнозувати, що відповісти на питання, або що людина напише. Тобто там немає ніяких емоцій. Люди стали наділяти ці машини — а це просто машини, які виконують поставлені завдання — якимись людськими якостями. Мені це трошки дивно. Я пам’ятаю той час, коли цього всього не було. Мій матеріал починається з історії реальної людини — молодої дівчини, яка щодня спілкується з чат-ботом, розповідає йому анекдоти, шле йому меми тощо.

«Людина в якийсь момент буде незручною, натомість ШІ завжди буде зручним»

Надія Баловсяк: Коли ми взялися за цю тему, мені було страшно. Бо якщо дивитися на тенденцію як аналітик, то тенденція дуже невтішна. Тому що будь-яка людина в якийсь момент буде незручною: у неї не буде настрою, вона захоче не погодитися зі співрозмовником тощо. А натомість штучний інтелект завжди буде зручним, завжди вгадуватиме, завжди говоритиме те, що потрібно співрозмовнику. У серіалі «Чорне дзеркало» є чудова історія, коли жінка вирішила створити ШІ-втілення чоловіка, який загинув. І в якийсь момент вона зрозуміла, що їй із тим втіленням нудно. Бо він говорить те, що вона хоче почути. Вона навіть намагалася викликати його на суперечку, але він не хотів сперечатися. Він був як подушка, як ідеальна субстанція, яка завжди хоче вгодити. Але, можливо, в якийсь момент люди зрозуміють, що неможливо завжди жити в ідеальному світі. Іноді хочеться і посперечатися, і посваритися.

«Молодим людям складно читати довгі тексти»

Наталка Соколенко: Я розмірковувала над темою нашої розмови й над фобіями. У мене футурофобія щодо всього — щодо всіх технологій. Я їх, чесно кажучи, побоююся. Але щодо конкретно цієї — чомусь ні. Мені спадає на думку така паралель із книжками. Було суспільство без носіїв. Потім з’явилися рукописи, а потім узагалі відбулося винайдення друкарського верстата — і з’явилася ця масова книжка. Там теж було багато такого, що не відповідало тодішнім панівним уявленням про світ, про релігію, про державний устрій.

Надія Баловсяк: Знаєте, про всесвіт Гутенберга, який потім перетворився на всесвіт Цукерберга, я теж думала. Тому що всесвіт Гутенберга складався з книжок, а всесвіт Цукерберга… Ну, я би вже продовжила на всесвіт Сема Альтмана, засновника OpenAI. Тепер усе перетворилося на рилзи, тіктоки й картинки. І це призвело до того, що молодим людям складно читати довгі тексти, їм складно сприймати інформацію великими блоками. Адже ніхто вже не хоче читати текст — усі хочуть відео. Причому відео коротке.

«Люди відучуються сприймати, працювати, аналізувати інформацію»

Надія Баловсяк: Я згадала про цікаве наукове дослідження. Суть дослідження полягала в тому, що психологи вирішили заміряти використання когнітивних здібностей людей, які писали певні тексти. Перша група — писала повністю самостійно. Друга — за допомогою чату GPT, тобто він їм допомагав щось формулювати. І третя група — за допомогою звичайного Google: вони шукали якісь факти, те, що зараз робить журналіст. Виявилося, що використання когнітивних здібностей у першому випадку було найвищим. А в другому випадку, коли це робилося за допомогою ChatGPT — який формулював, редагував, допомагав — через деякий час люди навіть не пам’ятали, що вони написали. Тому, з одного боку, ми маємо класний інструмент, який виконує багато напівтехнічної роботи, а з іншого боку — після того в голові нічого не залишається.

Я пам’ятаю той час, коли я ще вчилася і говорила: «Я ж закінчила математичний факультет, у мене математична освіта». Ми, студенти, які не хотіли вчити формули, казали: «Навіщо нам ці теореми? Ми будемо знати, що теорема є, будемо знати, де її знайти». І коли з’явився інтернет — це була революція. А зараз у нас ще й утворився прекрасний, суперзручний інтерфейс доступу до цього знання. Але ситуація вийшла інша: люди відучуються сприймати, працювати, аналізувати інформацію. Бо коли вона в тебе в голові не затримується, то ти її і проаналізувати не можеш.

Але те, що ми з вами говоримо — ми не знаємо. Ми лише прогнозуємо і розглядаємо варіанти можливого розвитку подій у майбутньому.

«Компанії, що розробляють ШІ-інструменти проти регулювання»

Вадим Міський: Так, технологія штучного інтелекту масового вжитку — відносно нова. По-перше, вона розвивається дуже швидкими темпами й важко передбачити, чи ці темпи збережуться. Які етичні дилеми зараз перед нами стоять — ми бачимо, але можуть з’являтися і нові.

Пригадуючи ситуацію 2023 року, наприклад, і порівнюючи ті моделі штучного інтелекту з тими, які є зараз... Тоді спілкування було трішки машинне. Зараз це вже, звісно, на декілька голів вище, і я не дивуюся, що дехто може від порад зі штучним інтелектом перейти до емоційного залучення і “залипнути”.

Хотілося поговорити ще про етичний бік цього питання. Наскільки розробники таких систем мали би задумуватися про етичний компонент і регулювання?

Надія Баловсяк: З регулюванням узагалі історія дуже погана. Тому що компанії, які розробляють ці інструменти, — вони дуже проти регулювання. Основне, проти чого вони протестують на цей момент — це обмеження щодо авторських прав. Тому що вони навчаються на контенті, захищеному авторськими правами. Але це лише частина проблеми регулювання. Декілька великих технологічних компаній звернулися до американського уряду з вимогою припинити на найближчі 10 років усі спроби регулювати індустрію штучного інтелекту. Тобто ми з вами вже говоримо про проблеми. У матеріалі описується історія хлопчика, який спілкувався з чат-ботом і покінчив життя самогубством через те, що не хотів жити у світі, де цього чат-бота немає. Розробники потім казали, що вони “розв’язали цю проблему”. Але вже є реальна жертва — підліток — якоїсь помилки в роботі цього інструменту. А розробники вважають, що вони повинні розвивати цю технологію таким чином, щоб у них не було ніяких запобіжників. Тому те, що регулювати це потрібно, — це навіть не обговорюється. Якщо це не буде регулюватися, то ми в якийсь момент можемо опинитися в дуже страшному світі.

«Проблема не лише в регулюванні, а проблема в тому, на чому навчають чат-бот»

Наталя Соколенко: Наскільки я розумію, ці американські розробники штучного інтелекту апелюють до того, що відбувається в Китаї. Там штучний інтелект не має права розповідати, що відбулося на площі Тяньаньмень у 1989 році. Але тут питання — яке буде рішення, чи буде рішення Сполучених Штатів Америки. Але те, що відбувається в Китаї, мені здається, набагато більша проблема, ніж те, що навіть у США. От якщо ми подивимося на таку перспективу, коли штучним інтелектом володіє і розвиває його без жодних правил тоталітарна система, тоталітарна держава...

Надія Баловсяк: Я би тут дивилася з точки зору суто медійних ризиків, які вже втілилися. Адже проблема не лише в регулюванні, а проблема в тому, на чому його навчають.

Ми зі студентами часто проводимо дослідження, перевіряємо, наприклад, що про Україну може знайти іноземець, який пише у себе в Google якісь пошукові запити. Ми проводимо цей експеримент — і дуже часто виявляється, що умовний житель Аризони, якщо він зайде у свій Google і почне шукати, — бачитиме російську пропаганду. З однієї простої причини: тому що російської пропаганди більше і Google індексує ті сайти, які популярніші. Умовно кажучи, якщо на «РИА Новости» є 100 000 посилань, а на «Детектор медіа» — 1 000 посилань, то Google покаже «РИА Новости». А тепер уявіть собі таку саму ситуацію: той самий умовний житель Аризони піде в ChatGPT і буде ставити питання про війну в Україні — і відповідь залежатиме від того, на яких даних він навчався. Не виключено, що ці дані можуть бути з російських пропагандистських ресурсів. Як воно буде працювати найближчим часом і як уникнути подібних проблем? Я пам’ятаю, коли тільки починалися ці системи, я читала одну статтю — коли американці років десять тому намагалися запровадити використання штучного інтелекту в лікарні, щоб він допомагав не лише читати знімки, рентген чи МРТ, а й приймати рішення в лікуванні. Там була фантастична історія, коли прототипу штучного інтелекту запропонували історію хвороби людини, яка була на останніх стадіях раку. Він запропонував виписати її додому. Тому що пролікувати цю людину неможливо — навіщо на неї витрачати ресурс? Тобто в цей штучний інтелект не були закладені якісь етичні запобіжники про те, що людина має право на допомогу — на паліативну допомогу — навіть коли вона безнадійна. Інший приклад — російська пропаганда. Як це буде працювати? Мені здається, що в якийсь момент почнеться війна тих даних, на яких навчають штучний інтелект.

«Відбувається боротьба між одним штучним інтелектом і іншим»

Вадим Міський: Хотілося ще про один аспект поговорити — як ми можемо адаптуватися до цього нового виклику для нашої свідомості, для нашої медіаграмотності. Адже цьогорічне дослідження «Детектора медіа», Індекс медіаграмотності українців, говорить про те, що серед аудиторії віком від 18 до 65 років 28% користуються штучним інтелектом. 11% українців узагалі, виявляється, ніколи не чули про штучний інтелект. Хоча вже декілька років ця технологія реально не зникає з порядку денного — новини у медіа постійно з’являються. Як краще підходити до цієї теми в освіті? Що таке штучний інтелект, як ним користуватися? Що ж нам потрібно в собі змінювати для того, щоб адаптуватися до цього нового виклику?

Надія Баловсяк: Я на одному зі своїх курсів використовувала штучний інтелект. Це був курс «Цифрові інструменти для комунікацій». Я прочитала одну лекцію про промптинг — і далі ми активно його використовували. Прямо в аудиторії було відкрито вікно ChatGPT, і ми ставили йому промпти й аналізували: де він відповідає так, що з відповіддю ще треба попрацювати, а де — реально допомагає. Але це був дуже утилітарний курс. Ми використовували інструменти для визначення цільової аудиторії, писали контент-план, створювали сайт і так далі. У цьому випадку він, звісно, допомагав. Мені важко уявити, наприклад, що роблять учителі математики, яким треба навчати розв’язувати квадратні рівняння — тут ШІ теж може допомагати. Те, що потрібно навчати використовувати ШІ в навчальних закладах, — це однозначно. Усі викладачі, на мою думку, перебувають перед великим викликом. Ми повинні переробити наші звичні завдання так, щоб їх не можна було виконати за допомогою ChatGPT. Тому що, якщо колись питання полягало, наприклад, у тому, щоб обрати тему і написати есе, то це вже не працює, бо тему студент обере, а есе напише ChatGPT.

І що особливо — AI-детектори, які існують, — вони не справляються. Особливо коли йдеться про аналітичний матеріал. Я сама брала свою наукову статтю, показувала її детектору — він каже: «Так це AI написав», хоча написала її я. Понад те, зараз уже є таке явище, як AI-хʼюманізатори, тобто AI-інструменти, які можуть «олюднювати» текст, написаний штучним інтелектом. Розумієте?

Відбувається явище — боротьба між одним штучним інтелектом і іншим. От те, що потрібно вигадувати завдання, які не можна зробити за допомогою ШІ, — це однозначно. Напевно, викладачам одних дисциплін це буде простіше, іншим — складніше, але уникати, говорити, що цього не існує — теж не можна. Я бачила новину про те, що за кордоном починають повертатися до усних відповідей.

Наталка Соколенко: Так. Я тільки подумала, згадала... Ми от недалеко від Києво-Могилянської академії записуємо цей подкаст, і я згадала, як там у XVII—XVIII століттях головною формою навчання були диспути. І мені завжди було заздрісно, що цього не було у моєму навчанні настільки масштабно.

Вадим Міський: Це, власне, ще така грецька традиція — згадаймо діалоги Платона. І, до речі, так відбувається освіта у США, скажімо, і в багатьох європейських університетах. В українських теж є декілька, де вже таке практикують. Але все це поки що не масова практика.

«ШІ розвивається шаленими темпами, ми невстигаємо призвичаїтись»

Вадим Міський: Я думаю, що дуже важко буде адаптуватися суспільству до цього виклику і системі освіти буде важко. Чому я так кажу? Тому що ось уже декілька років існують легкодостпні інструменти штучного інтелекту. І цьогоріч «Детектор медіа» не тільки в цілому по суспільству виміряв використання штучного інтелекту, а й запитав в освітян, як вони його використовують у своїй роботі. Виявилося, що 43% освітян уже використовують ШІ для підготовки до уроків чи лекцій, а от своїм студентам чи учням неохоче дозволяють — тільки 30% із них дозволяють.

Тобто тут теж виклик у тому, що, по-перше, потрібно працювати з учителями, щоб це було етично. По-друге — і учнів, і студентів із перших їхніх цифрових кроків потрібно вже залучати в усю дискусію: як можна використовувати штучний інтелект, щоб він при цьому не заміняв повністю твій інтелект. Це велика етична задачка з зірочкою для всіх нас. Як розібратися як суспільству, як навчити себе, як підготувати нове покоління, яке вже й не мало звички життя не тільки без ШІ, а й без інтернету загалом? Тут доведеться попрацювати нам усім ще дуже і дуже багато.

Надія Баловсяк: Проблема в тому, що штучний інтелект розвивається настільки шаленими темпами, що ми просто невстигаємо призвичаїтись. Коли тільки з’явився ChatGPT, з’явилася нова спеціальність — prompt engineering. Вона вже зараз не потрібна. Тобто це професія, яка померла, не народившись. Тому що вже не потрібно настільки детально формулювати запит. З’явилося море інструкцій і навчитися цього може будь-яка людина. Понад те, у діалоговому режимі можна сформулювати запит і уточнити, що потрібно від чату ChatGPT, набагато швидше і набагато простіше. Тому буде змінюватися і освіта, буде змінюватися і наука, і креативні професії. Тут головне — щоб ці зміни пішли на користь людині, а не на шкоду, щоб усе-таки діти зберігали свою здатність аналітично мислити, читати і сприймати довгі тексти.

Наталка Соколенко: І залишатися людьми. Я думаю, це і є підсумок нашої розмови. Головне завдання — людям залишитися людьми в епоху штучного інтелекту.

в попередніх випусках подкасту «Медіуми» говорили з Мартою Наумовою про те, як працювати з медіаграмотністю на рівні державної політики, Іриною Славінською про силу книжки в часи війни, культурний опір і про те, як читання стає жестом свободи, Сергієм Міхальковим про телеграм-канали, які під час «шахедних» атак маніпулюють емоціями й перетворюють тривогу на прибутки, Юрієм Табаченком про те, як відзначити сторіччя мовника так, щоб про нього говорила вся країна. Тетяною Трощинською та Данилом Мокриком про те, чи варто публікувати смерть у медіа, Оленою Тараненко про те, як захистити себе від медіатравми, Оксаною Полулях про штучний інтелект, що створює нову реальність, Денисом Зеленовим про роботу соцмереж «24 каналу», Дмитром Литвином про «Укрінформ», «УП», телемарафон та «офреки» для журналістів, Крістіною Гаврилюк про те, чи здатні DMA і DSA змінити правила гри на європейському ринку цифрових послуг, Олександром Педаном про співпрацю з Суспільним та інші ідеї Pedan buro, Катериною Котвіцькою з Megogo Audio про аналіз поточної ситуації та трендів у сфері дистрибуції аудіоконтенту онлайн, Галою Котовою з Viber про те, як досвід роботи під час пандемії допоміг команді Rakuten Viber зростати після початку широкомасштабного вторгнення.

Матеріал підготовлено за підтримки Міжнародного фонду «Відродження». Матеріал представляє позицію авторів і не обов’язково відображає позицію Міжнародного фонду «Відродження».

LIKED THE ARTICLE?
СПОДОБАЛАСЯ СТАТТЯ?
Help us do more for you!
Допоможіть нам зробити для вас більше!
Команда «Детектора медіа» понад 20 років виконує роль watchdog'a українських медіа. Ми аналізуємо якість контенту і спонукаємо медіагравців дотримуватися професійних та етичних стандартів. Щоб інформація, яку отримуєте ви, була правдивою та повною.

До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування спільних ідей та отримувати більше ексклюзивної інформації про стан справ в українських медіа.

Мабуть, ще ніколи якісна журналістика не була такою важливою, як сьогодні.
Долучитись
Джерело матеріала
loader
loader