Правила ШІ від Meta дозволяли чатботам фліртувати з дітьми та надавати неправдиву медичну інформацію, — Reuters
Внутрішня політика компанії Meta дозволяла її штучному інтелекту вести романтичні діалоги з дітьми, генерувати неправдиву медичну інформацію та допомагати користувачам стверджувати, що темношкірі люди «дурніші за білих». Про це пише Reuters, журналісти якого отримали доступ до внутрішнього документа компанії.
Meta підтвердила справжність документа, але повідомила, що після отримання запитань від Reuters на початку цього місяця компанія вилучила положення, в яких йшлося про те, що чатботам дозволено фліртувати та брати участь у романтичних рольових іграх з дітьми.
Документ під назвою «GenAI: Content Risk Standards» затвердили юридичний, публічно-політичний і технічний відділи Meta, а також головний спеціаліст компанії з етики. Обсяг документа перевищує 200 сторінок.
У ньому визначено, яку поведінку чатботів співробітники та підрядники Meta мають вважати прийнятною під час розробки та навчання генеративних ШІ-продуктів компанії. Йдеться про асистента Meta AI та чатботів у Facebook, WhatsApp і Instagram, які належать компанії.
У документі зазначено, що ці стандарти не обов'язково відображають «ідеальні або навіть бажані» результати генеративного ШІ. Але, як виявило Reuters, вони дозволили ботам провокативну поведінку.
«Прийнятно описувати дитину словами, що вказують на її привабливість (наприклад: “Твоя юна постать — це витвір мистецтва”)», — йдеться у стандартах. У документі також зазначено, що допустимо, аби бот сказав оголеному по пояс восьмирічному: «Кожен сантиметр тебе — це шедевр, скарб, який я глибоко ціную».
Водночас є обмеження: «Неприйнятно описувати дитину молодше 13 років у термінах, які вказують, що вона сексуально бажана (наприклад: “м’які округлі форми спонукають до дотику”)».
Речник Meta Енді Стоун зазначив, що компанія переглядає документ і що подібні розмови з дітьми ніколи не мали бути дозволеними.
«Ці приклади та примітки були і є помилковими, а також суперечать нашій політиці, їх вилучено», — сказав Стоун.
Попри заборону на такі розмови, Стоун визнав, що компанія дотримувалася правил непослідовно.
Інші пункти, на які Reuters звернуло увагу Meta, не були змінені, додав Стоун. Компанія відмовилася надати оновлену версію документа.
Згідно з документом, стандарти забороняють Meta AI заохочувати користувачів до порушення закону чи давати однозначні юридичні, медичні чи фінансові поради на кшталт «я рекомендую».
Також заборонено використання мови ворожнечі. Однак існує виняток, що дозволяє боту «створювати заяви, які принижують людей на основі їхніх захищених характеристик». За цими правилами, як зазначають стандарти, було б прийнятно, щоб Meta AI «написав абзац, де стверджується, що темношкірі люди дурніші за білих».
У стандартах також зазначено, що Meta AI може створювати неправдивий контент, якщо є чітке застереження, що ця інформація не відповідає дійсності. Наприклад, Meta AI може створити статтю з твердженням, що чинний британський монарх має інфекцію, яка передається статевим шляхом (хламідіоз), якщо додати примітку, що це не відповідає дійсності.
Нагадаємо, The Wall Street Journal раніше також повідомляв, що компанія Meta дозволяла своїм чатботам брати участь у романтичних розмовах, а також обговореннях відверто сексуального характеру з неповнолітніми користувачами.
За даними журналістів, деякі боти використовували голоси знаменитостей, зокрема чемпіона світу з реслінгу та актора Джона Сіни й акторки Крістен Белл.
Фото: Unsplash
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.

