Microsoft представила «водяні знаки» для згенерованого контенту та інструмент автоматичної модерації на основі ШІ
Microsoft представила «водяні знаки» для згенерованого контенту та інструмент автоматичної модерації на основі ШІ

Microsoft представила «водяні знаки» для згенерованого контенту та інструмент автоматичної модерації на основі ШІ

З появою генеративних ШІ, здатних створювати високоякісні зображення, гостро позначилася проблема швидкого розпізнавання фейків. Нещодавню підробку вибуху в Пентагоні досить легко розпізнати за деталями, проте багато хто навіть не намагається це робити – фейк поширився дуже швидко.

Microsoft впроваджує специфікацію Coalition for Content Provenance and Authenticity (C2PA) на основі криптографічних методів, яка дозволить сайтам ідентифікувати зображення, створені ШІ, та позначати тим чи іншим чином. Стандарт розроблено спільно з Adobe, ARM та Intel. Microsoft впроваджує його насамперед у своїх продуктах, таких як Bing Image Creator на основі DALL-E 2.

Microsoft C2PA

Щоб розпізнавати зображення, розроблені програмами інших компаній, потрібна підтримка з їхнього боку. Adobe підтримує C2PA у своїх інструментах генеративного ШІ, але інший важливий гравець, Stability AI, заявив про готовність прийняти власну схожу специфікацію Google має намір використовувати вбудовані метадані для позначення візуальних медіа, створених ШІ. Shutterstock і Midjourney також розробили власні рекомендації щодо позначення ШІ-контенту. Зусилля цих та інших компаній ще належить об’єднати.

Крім розпізнавання створених ШІ зображень, Microsoft розробляє засоби автоматичної модерації неприйнятного текстового та візуального контенту за допомогою штучного інтелекту. Інструмент Azure AI Content Safety працює з картинками та текстом багатьма мовами, сигналізуючи модераторам про неприйнятний вміст та привласнює йому індекс серйозності.

«Нові моделі ШІ здатні набагато краще розуміти контент та культурний контекст. Вони від початку багатомовні та дають чіткі пояснення, дозволяючи користувачам зрозуміти, чому контент було позначено чи видалено».

В основі Azure AI Content Safety лежить система безпеки, з якою вже працюють чатбот Microsoft у Bing та Copilot. Система захищає від упередженого, сексистського, расистського, ненависницького, жорстокого контенту та інтегрована в Azure OpenAI Service.

Джерело: TechCrunch та TechCrunch

Теги за темою
Microsoft
Джерело матеріала
loader
loader