Минулого року компанія Apple повідомляла, що має намір впровадити сканування фотографій користувачів на предмет сексуального насильства над дітьми (CSAM — child sexual abuse material). Це мало відбуватися прямо на пристроях користувачів. 

Функція мала сканувати зображення окремих користувачів та в разі виявлення подібних фото сповіщати про це технічний відділ, який надалі мав звернутися в правоохоронні органи.

Звісно, це здійняло хвилю обурення. Експерти з питань безпеки та конфіденційності зійшлися на тому, що функцію сканування можна переналаштувати для полювання на інші види вмісту. Вони також стверджували, що в кінцевому випадку функціональність могла стати «слизьким шляхом до ширших зловживань стеженням, і може швидко стати лазівкою для поліції».

На той момент Apple намагалася боротися з подібними заявами, але зрештою повідомила, що відкладе впровадження такої функціональності. Тепер, разом з запровадженням наскрізного шифрування, в повідомленні виданню Wired, компанія дає зрозуміти, що піде іншим шляхом:

Після тривалих консультацій з експертами для збору відгуків про ініціативи щодо захисту дітей, які ми запропонували минулого року, ми поглиблюємо наші інвестиції у функцію безпеки зв’язку, яку ми вперше зробили доступною в грудні 2021 року. Крім того, ми вирішили не рухатися далі з нашим раніше запропонованим інструментом виявленням сексуального насильства для фотографій iCloud. Дітей можна захистити без компаній, які перевіряють особисті дані, і ми продовжуватимемо співпрацювати з урядами, захисниками дітей та іншими компаніями, щоб допомогти захистити молодих людей, зберегти їхнє право на конфіденційність і зробити інтернет безпечнішим місцем для дітей і для всіх нас.

Поширення CSAM є серйозною проблемою, яка з часом тільки погіршується. Намір Apple спробувати вплинути на це мав очевидно добрі наміри, але обраний інструмент навряд був слушним для цього.