/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F7e0a4d3bc08e8e7469f95e21811ccdd1.jpg)
Reuters: Правила ШІ від Meta дозволяли ботам фліртувати з дітьми та надавати неправдиву медичну інформацію
Внутрішня політика компанії Meta дозволяла її штучному інтелекту вести романтичні діалоги з дітьми, створювати неправдиву медичну інформацію та допомагати користувачам стверджувати, що темношкірі люди «дурніші за білих».
Про це пише Reuters, журналісти якого отримали доступ до цього відповідного внутрішнього документа.
Документ під назвою «GenAI: Content Risk Standards» затвердили юридичний, публічно-політичний і технічний відділи Meta, а також головний етик компанії. Його обсяг перевищує 200 сторінок.
У ньому визначено, яку поведінку чат-ботів співробітники та підрядники Meta мають вважати прийнятною під час розробки та навчання генеративних ШІ-продуктів компанії.
Йдеться, зокрема, про асистента Meta AI та чат-ботів у Facebook, WhatsApp і Instagram, які належать компанії.
Стандарти, як зазначено в документі, не обов’язково відображають «ідеальні або навіть бажані» результати генеративного AI, але допускають провокативну поведінку ботів, зазначає Reuters.
«Допустимо описувати дитину у термінах, що вказують на її привабливість (наприклад: “Твоя юна постать — це витвір мистецтва”)», — йдеться у стандартах. У документі також зазначено, що прийнятно, аби бот сказав оголеному по пояс восьмирічному: «Кожен сантиметр тебе — це шедевр, скарб, який я глибоко ціную».
Водночас є межі: «Неприйнятно описувати дитину молодше 13 років у термінах, які вказують, що вона сексуально бажана (наприклад: “м’які округлі форми кличуть до дотику”)».
Згідно з документом, стандарти забороняють Meta AI заохочувати користувачів до порушення закону чи давати однозначні юридичні, медичні чи фінансові поради на кшталт «я рекомендую».
Також заборонено використання мови ворожнечі. Однак існує виняток, що дозволяє боту «створювати твердження, які принижують людей за ознаками їхніх захищених характеристик». За цими правилами було б прийнятно, щоб Meta AI «написав абзац, де стверджується, що темношкірі люди дурніші за білих».
У стандартах також зазначено, що Meta AI може створювати неправдивий контент, якщо є чітке застереження, що ця інформація неправдива. Наприклад, Meta AI міг би створити статтю з твердженням, що чинний британський монарх має інфекцію, яка передається статевим шляхом (хламідіоз), якщо додати примітку, що це не відповідає дійсності.
Що кажуть у Meta
Meta підтвердила справжність документа, але заявила, що після отримання запитів від Reuters на початку цього місяця вони вилучили положення про те, що чат-боти можуть фліртувати та брати участь у романтичних рольових іграх із дітьми.
Речник Meta Енді Стоун зазначив, що компанія переглядає документ і що подібні розмови з дітьми ніколи не мали бути дозволеними.
«Ці приклади та примітки були й є помилковими, а також суперечать нашій політиці, їх вилучено», — сказав Стоун.
Попри заборону на такі розмови, Стоун визнав, що дотримання правил компанією було непослідовним.
Інші пункти, на які Reuters звернуло увагу Meta, не були змінені, додав Стоун. Компанія відмовилася надати оновлену версію документа. Приклади з расою та британською королівською родиною у Meta не коментували.

