Instagram активно сприяє поширенню самоушкоджень серед підлітків
Instagram активно сприяє поширенню самоушкоджень серед підлітків

Instagram активно сприяє поширенню самоушкоджень серед підлітків

Meta активно сприяє процвітанню контенту про самоушкодження в Instagram, не видаляючи відверті зображення та заохочуючи тих, хто залучається до такого вмісту, дружити один з одним, згідно з новим дослідженням, яке визнало його модерування «вкрай неадекватним».

Данські дослідники створили приватну мережу самоушкоджень на платформі соціальних медіа, включаючи підроблені профілі людей віком від 13 років, у яких вони поділилися 85 матеріалами, пов’язаними з самоушкодженнями, які поступово наростали, включаючи кров, леза бритви. та заохочення до самоушкодження.

Мета дослідження полягала в тому, щоб перевірити заяву Meta про те, що вона значно вдосконалила свої процеси для видалення шкідливого вмісту, який, за її словами, тепер використовує штучний інтелект (ШІ). Технічна компанія стверджує, що видаляє близько 99% шкідливого контенту до того, як про нього буде повідомлено.

Але Digitalt Ansvar (Цифрова звітність), організація, яка сприяє відповідальному цифровому розвитку, виявила, що під час місячного експерименту не було видалено жодного зображення.

Коли він створив власний простий інструмент ШІ для аналізу контенту, він зміг автоматично ідентифікувати 38% зображень самоушкоджень і 88% найсильніших. Це, за словами компанії, показало, що Instagram мав доступ до технології, здатної розв'язати проблему, але «вирішив не використовувати її ефективно».

За словами Digitalt Ansvar, неадекватна модерація платформи свідчить про те, що вона не відповідає законодавству ЄС.

Закон про цифрові послуги вимагає від великих цифрових служб ідентифікувати системні ризики, зокрема передбачувані негативні наслідки для фізичного та психічного добробуту.

Представник Meta сказав: «Вміст, який заохочує до самоушкоджень, суперечить нашій політиці, і ми видаляємо цей вміст, коли його виявляємо. У першій половині 2024 року ми видалили в Instagram понад 12 мільйонів матеріалів, пов’язаних із самогубствами та самоушкодженнями, 99% із яких ми видалили завчасно.

«На початку цього року ми запустили підліткові облікові записи в Instagram , завдяки яким для підлітків буде встановлено найсуворіші умови контролю конфіденційного вмісту, тому ймовірність того, що їм буде рекомендовано конфіденційний вміст, є ще меншою, а в багатьох випадках ми взагалі приховуємо цей вміст».

Датське дослідження, однак, виявило, що замість того, щоб намагатися закрити мережу самоушкоджень, алгоритм Instagram активно допомагав їй розширюватися. Дослідження показало, що 13-річні підлітки стали друзями з усіма членами групи самоушкоджень після того, як вони зв’язалися з одним із її учасників.

Це, як йдеться в дослідженні, «свідчить про те, що алгоритм Instagram активно сприяє формуванню та поширенню мереж самоушкоджень».

Розмовляючи з Observer , Ask Hesby Holm, виконавчий директор Digitalt Ansvar, сказав, що компанія була шокована результатами, оскільки думала, що, оскільки зображення, які вона ділиться, стають більш серйозними, вони викликають тривогу на платформі.

«Ми думали, що, роблячи це поступово, ми досягнемо порогу, коли штучний інтелект або інші інструменти зможуть розпізнавати або ідентифікувати ці зображення», — сказав він. «Але великий сюрприз – вони цього не зробили».

Він додав: «Це викликало занепокоєння, тому що ми думали, що у них є якийсь механізм, який намагається з’ясувати та ідентифікувати цей вміст».

Источник материала
loader
loader