Apple відмовилася від сканування фотографій користувачів на предмет сексуального насильства над дітьми

Минулого року компанія Apple повідомляла, що має намір впровадити сканування фотографій користувачів на предмет сексуального насильства над дітьми (CSAM — child sexual abuse material). Це мало відбуватися прямо на пристроях користувачів. 

Функція мала сканувати зображення окремих користувачів та в разі виявлення подібних фото сповіщати про це технічний відділ, який надалі мав звернутися в правоохоронні органи.

Звісно, це здійняло хвилю обурення. Експерти з питань безпеки та конфіденційності зійшлися на тому, що функцію сканування можна переналаштувати для полювання на інші види вмісту. Вони також стверджували, що в кінцевому випадку функціональність могла стати «слизьким шляхом до ширших зловживань стеженням, і може швидко стати лазівкою для поліції».

На той момент Apple намагалася боротися з подібними заявами, але зрештою повідомила, що відкладе впровадження такої функціональності. Тепер, разом з запровадженням наскрізного шифрування, в повідомленні виданню Wired, компанія дає зрозуміти, що піде іншим шляхом:

Після тривалих консультацій з експертами для збору відгуків про ініціативи щодо захисту дітей, які ми запропонували минулого року, ми поглиблюємо наші інвестиції у функцію безпеки зв’язку, яку ми вперше зробили доступною в грудні 2021 року. Крім того, ми вирішили не рухатися далі з нашим раніше запропонованим інструментом виявленням сексуального насильства для фотографій iCloud. Дітей можна захистити без компаній, які перевіряють особисті дані, і ми продовжуватимемо співпрацювати з урядами, захисниками дітей та іншими компаніями, щоб допомогти захистити молодих людей, зберегти їхнє право на конфіденційність і зробити інтернет безпечнішим місцем для дітей і для всіх нас.

Поширення CSAM є серйозною проблемою, яка з часом тільки погіршується. Намір Apple спробувати вплинути на це мав очевидно добрі наміри, але обраний інструмент навряд був слушним для цього.