Відеосервіс Reels у соцмережі «Інстаграм» розміщував непристойний контент поруч із рекламою відомих американських брендів. Це виявилося під час експерименту, в ході якого створили тестові облікові записи у соцмережі, що імітували поведінку дорослих чоловіків, яких цікавлять сексуальний контент для дорослих і ризикований контент з неповнолітніми, повідомив The Wall Street Journal.
Вдатися до такого експерименту стимулювало те, що за спотереженням журналістів, серед підписників популярних підлітків було багато дорослих чоловіків, які також цікавилися контентом сексуального зарактеру.
Рекомендації Reels-відео, які «Інстаграм» добирав для цих тестових акаунтів, включали «неймовірні дози непристойного контенту», а поміж такого контенту демонструвалися рекламні оголошення великих брендів.
«Система Інстаграму подавала в ті тестові облікові записи неймовірні дози непристойного контенту, включно з ризикованими кадрами з дітьми, а також відверто сексуальними відео для дорослих — і рекламою деяких найбільших американських брендів. … У потоці відео, рекомендованих Інстаграмjv, реклама додатка для знайомств Bumble з’явилася між відео, на якому хтось гладить обличчя латексної ляльки в натуральну величину, і відео молодої дівчини з прихованим обличчям, яка піднімає свою сорочку, щоб показати, що під нею. В іншому випадку рекламний ролик Pizza Hut слідував за відео чоловіка, який лежить на ліжку, обіймаючи рукою 10-річну, як було сказано в підписі, дівчинку», — йдеться у публікації.
Канадський центр захисту дітей окремо провів аналогічний тест і отримав схожий результат. Правозахисники дійшли висновку, що «Інстаграм» регулярно показує відео та фотографії з сексуальним зображення дітей без загального показу наготи. Як зазначили в організації, часто такий контент використовуються кривдниками для просування незаконного контенту, поширюваного на закритих форумах, та залучення людей в онлайн-спільноти, присвячені сексуальному насильству над дітьми.
«Знову і знову ми бачили, як алгоритми рекомендацій спонукають користувачів виявляти ці онлайн-спільноти з експлуатації дітей, а потім потрапляти в них», — зауважила виконавча директорка центру Ліанна МакДональд.
У Meta, коментуючи результати тестів, заявили, що ця перевірка не відображає того, що бачать мільярди її користувачів. У компаніїя відмовилася коментувати, чому алгоритми зібрали потоки окремих відео, які показують дітей, секс і рекламу. Натомість заявили, що надають рекламодавцям контроль над тим, поруч з яким контентом з’являється їхня реклама, і старанно видаляють контент, що порушує стандарти спільноти: до чотирьох мільйонів відео на місяць.
«Наші системи ефективно зменшують кількість шкідливого вмісту, і ми інвестували мільярди в рішення щодо безпеки», — заявила віце-президентка Meta Саманта Стетсон, яка відповідає за зв’язки з рекламною індустрією.
Після тестування журналісти зв’язалися з компаніями, чия реклама демонструвалася поряд з неприйнятними відео. Деякі з них повідомили, що Meta попередила їх про проблему і вже проводить розслідування. Проте Bumble і Tinder відмовилися від розміщення реклами в Інстаграмі.
Нагадаємо, у червні The Wall Street Journal повідомив, що алгоритми рекомендацій інстаграму пов’язують і просувають акаунти, які шукають та продають контент із сексуальним насильством над дітьми. Дослідники виявили, що інстаграм дозволяв людям шукати відверті хештеги, такі як #pedowhore і #preteensex, і сконтактовував їх з обліковими записами, які використовували ці терміни для реклами матеріалів дитячого сексу на продаж. У таких облікових записах з відверто сексуальними назвами часто стверджувалося, що їх власниками є діти.
На фото — застосунок «Інстаграм» на смартфоні
Фото: Unsplash
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.