19 мая, воскресенье
С картинками
Текстовый вид
ru
Украинский
Русский
OpenAI випускає детектор «Deepfake» для дослідників дезінформації
OpenAI випускає детектор «Deepfake» для дослідників дезінформації

OpenAI випускає детектор «Deepfake» для дослідників дезінформації

Оскільки експерти попереджають, що зображення, аудіо та відео, створені штучним інтелектом, можуть вплинути на осінні вибори , OpenAI випускає інструмент, призначений для виявлення контенту, створеного його власним популярним генератором зображень DALL-E . Але відомий стартап штучного інтелекту визнає, що цей інструмент є лише невеликою частиною того, що знадобиться для боротьби з так званими глибокими фейками в найближчі місяці та роки.

У вівторок OpenAI заявив, що поділиться своїм новим детектором глибоких фейків з невеликою групою дослідників дезінформації, щоб вони могли протестувати інструмент у реальних ситуаціях і допомогти визначити шляхи його вдосконалення.

«Це поштовх до нових досліджень», — сказала Сандхіні Агарвал, дослідниця OpenAI, яка займається безпекою та політикою. «Це дійсно потрібно».

OpenAI заявив, що його новий детектор може правильно ідентифікувати 98,8 відсотка зображень, створених DALL-E 3, останньою версією його генератора зображень. Але компанія заявила, що інструмент не призначений для виявлення зображень, створених іншими популярними генераторами, такими як Midjourney і Stability.

Зображення
Стандарт, розроблений Коаліцією за походження та автентичність вмісту, показує, коли та як були створені або змінені зображення.Кредит...через OpenAI

Оскільки цей вид детектора глибоких фейків керується ймовірностями, він ніколи не може бути ідеальним. Отже, як і багато інших компаній, некомерційних організацій і академічних лабораторій, OpenAI працює над розв'язанням проблеми іншими способами.

Як і технічні гіганти Google і Meta, компанія приєднується до керівного комітету Коаліції з питань походження та автентичності вмісту (C2PA), намагаючись розробити облікові дані для цифрового контенту. Стандарт C2PA — це своєрідна «харчова мітка» для зображень, відео, аудіокліпів та інших файлів, яка показує, коли та як вони були створені чи змінені — зокрема за допомогою ШІ.

OpenAI також заявив, що розробляє способи «водяних знаків» створюваних ШІ звуків, щоб їх можна було легко ідентифікувати миттєво. Компанія сподівається, що ці водяні знаки буде важко видалити.

Спираючись на такі компанії, як OpenAI, Google і Meta, індустрія штучного інтелекту стикається з дедалі більшим тиском щодо того, який вміст створюють її продукти. Експерти закликають індустрію запобігти створенню користувачами оманливих і шкідливих матеріалів — і запропонувати способи відстеження їх походження та поширення.

У рік, наповнений великими виборами в усьому світі, заклики до способів моніторингу походження контенту ШІ стають дедалі відчайдушнішими. В останні місяці аудіо та зображення вже вплинули на політичну кампанію та голосування в таких місцях, як Словаччина, Тайвань та Індія.

Новий детектор глибоких фейків OpenAI може допомогти подолати проблему, але не вирішить її. Як сказала пані Агарвал: «У боротьбі з дипфейками «не існує срібної кулі».

Источник материала
Поделиться сюжетом