Українська правда

Apple звинуватили у відмові впровадити систему виявлення контенту, пов’язаного з насильством над дітьми

Apple звинуватили у відмові впровадити систему виявлення контенту, пов’язаного з насильством над дітьми
iCloud Photos
0

На Apple подали до суду через її рішення не впроваджувати систему CSAM, яка б сканувала фотографії з iCloud на наявність матеріалів про сексуальне насильство над дітьми. Про це пише TechCrunch.

У 2021 році Apple вперше анонсувала систему для виявлення контенту CSAM у бібліотеках iCloud. Вона мала використовувати цифрові підписи Національного центру допомоги дітям. Однак ініціатива викликала критику через побоювання, що це може створити бекдор для урядового нагляду за користувачами. У підсумку Apple відмовилася від впровадження системи та тепер змушена захищати свою позицію в суді.

У позові стверджується, що бездіяльність Apple у боротьбі з поширенням незаконного контенту змушує жертв повторно переживати свою травму. Зазначається, що компанія анонсувала "широко розрекламований вдосконалений дизайн для захисту дітей", але не реалізувала його та не вжила жодних заходів для виявлення та обмеження такого контенту.

Позов подала 27-річна жінка, яка використовує псевдонім. Вона стверджує, що в дитинстві зазнала сексуального насильства від члена сім'ї, який поширив ці зображення в інтернеті. Жертва заявляє, що досі майже щодня отримує повідомлення від правоохоронних органів про те, що когось звинувачують у зберіганні цих зображень.

Адвокат Джеймс Марш, який бере участь у судовому процесі, каже, що існує потенційна група з 2 680 жерв, які можуть отримати компенсацію у цій справі.

Поділитися:
Посилання скопійовано
Реклама:
Реклама: