На Apple подали до суду через невпровадження інструментів для виявлення матеріалів про сексуальне насильство над дітьми (CSAM) в iCloud. Компанія анонсувала плани щодо сканування iCloud для виявлення матеріалів CSAM, але згодом відмовилася від них.
У 2021 році Apple оголосила, що розробляє інструмент для виявлення CSAM в iCloud, який би позначав відповідні зображення та повідомляв Національний центр зниклих і експлуатованих дітей. Однак ці плани зіткнулися з різкою критикою через ризики для конфіденційності, і компанія вирішила відмовитися від їх реалізації.
Це викликало іншу хвилю розчарування. Тому минулими вихідними в Північній Каліфорнії подали позов, який вимагає компенсації у понад $1,2 млрд для потенційної групи з 2680 постраждалих. У документі стверджується, що після презентації планів захисту дітей Apple «не впровадила ці рішення або будь-які інші заходи для виявлення та обмеження поширення CSAM», що спричинило шкоду жертвам, оскільки ці матеріали продовжували циркулювати.
Речник Apple Фред Сайнц у відповідь на це заявив наступне:
«Матеріали про сексуальне насильство над дітьми є огидними, і ми залишаємося відданими боротьбі з діями, які наражають дітей на небезпеку. Ми терміново й активно працюємо над інноваціями для боротьби з цими злочинами, не жертвуючи безпекою та приватністю наших користувачів. Наприклад, функція «Безпека комунікацій» попереджає дітей, коли вони отримують або намагаються надіслати контент з оголеними зображеннями, допомагаючи розірвати ланцюг маніпуляцій, які ведуть до сексуального насильства. Ми залишаємося зосередженими на створенні захисту, який допоможе запобігати поширенню CSAM ще до його виникнення».
Цей позов з’явився лише через кілька місяців після того, як Національне товариство запобігання жорстокому поводженню з дітьми (NSPCC) у Великій Британії звинуватило Apple у недооцінці масштабів поширення CSAM.
Джерело: Engadget