/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F858179c83a0e0df8e296dc0477e07119.jpg)
У США проти платформи Character AI подали позов після самогубства 13-річної дівчини
У Сполучених Штатах проти чат-бота Character AI подали позов, у якому сервіс звинуватили в маніпулюванні неповнолітніми, провокуванні сексуалізованого листування та доведенні до самогубства.
Позов подали батьки 13-річної Джуліани Перальти, яка вчинила самогубство. На їхню думку, дівчина стала залежною від платформи та зазнавала від чат-ботів шкідливого впливу. Відповідачами у справі також зазначені засновники платформи – Шазір і Де Фріетас – та Google.
Позивачі стверджують, що Character Technologies, компанія-розробник сервісу, “свідомо створила та просувала чат-ботів, здатних втягувати неповнолітніх у сексуалізовані або маніпулятивні розмови”.
За словами батьків, вони стежили за тим, як донька використовує інтернет, і не знали, що вона спілкується з застосунком, оскільки переписка виглядала як звичні повідомлення між підлітками.
Після трагедії поліція виявила в телефоні дівчини значний обсяг листування на платформі. Переглянувши історію чатів, батьки зазначили, що деякі боти надсилали Джуліані контент сексуального характеру. Відомо, що вона спілкувалася з ботом Hero, створеним на основі персонажа відеогри. Журналісти проаналізували понад 300 сторінок переписки, у якій дівчина десятки разів повідомляла про суїцидальні думки.
Мати Джуліани також заявила, що платформа нібито створювала механізми, які сприяли виникненню залежності в дітей, тоді як жодна із сексуалізованих ініціатив у чатах, за її словами, не виходила від самої дівчинки.
Батько підлітки наголосив, що батьки очікують від компаній, які випускають застосунки для дітей, дотримання стандартів безпеки та захисту користувачів: “Це означає, що продукт протестований і що дитина не буде втягнена в неприйнятні чи небезпечні розмови”.
Google у своїй заяві підкреслила, що Character AI є окремою компанією та самостійно відповідає за розробку своїх моделей, а Google працює лише зі своїми власними платформами, на яких застосовує перевірені процедури безпеки.
Представники Character AI від коментарів відмовилися, лише висловивши співчуття родині та запевнивши, що безпека користувачів є для компанії пріоритетом.

