Отказ Apple от системы проверки фотографий iCloud на детскую порнографию спровоцировал новые споры
В декабре Apple объявила, что прекращает разработку CSAM — инструмента сканирования фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной эксплуатации несовершеннолетних, путем автоматического сравнения снимков по хэш-суммам с базой.
Анонсированный еще в августе 2021 года проект сразу вызвал споры — впервые Apple приостановила его в сентябре из-за беспокойства групп по цифровым правам и исследователей относительно потенциальных проблем с конфиденциальностью для всех пользователей iCloud.
Впрочем, на этой неделе другая группа по безопасности Heat Initiative заявила, что начинает кампанию, которая потребует от Apple «находить, сообщать и удалять» материалы сексуального насилия над детьми из iCloud и предлагать пользователям больше инструментов для сообщения о нарушении.
Apple, на удивление, ответила на призыв (компания редко комментирует свои решения, поэтому заявление, похоже, можно трактовать как готовность компании к публичной дискуссии).
«Материалы с сексуальным насилием над детьми ужасны и мы стремимся разорвать цепь принуждения и влияния, которое делает детей восприимчивыми к этому. Однако сканирование конфиденциальных данных iCloud для каждого пользователя создало новые векторы угроз, которые злоумышленники могли бы найти и использовать», — написал Эрик Нойеншвандер, директор по конфиденциальности пользователей и безопасности детей Apple.
Группу Heat Initiative возглавляет Сара Гарднер, бывший вице-президент по внешним связям некоммерческой организации Thorn, работающей над использованием новых технологий для борьбы с эксплуатацией детей в Интернете и секс-торговлей. В 2021 году Thorn похвалила план Apple разработать функцию сканирования iCloud CSAM, а нынешнее решение о ее прекращении, как написала Гарднер в письме генеральному директору Тиму Куку, «разочаровывает».
«Верим, что этот инструмент не только позиционирует Apple как мирового лидера в сфере конфиденциальности пользователей, но и поможет искоренить миллионы изображений и видео сексуального насилия над детьми с iCloud. Сексуальное насилие над детьми – это сложная проблема, о которой никто не хочет говорить. Мы здесь, чтобы убедиться, что этого не произойдет», — пишет Гарднер.
Apple считает, что функции обнаружения обнаженного тела на устройствах для таких функций, как Сообщения, FaceTime, AirDrop и т.д., являются более безопасной альтернативой. Компания также начала предлагать API для своих функций Communication Safety, чтобы посторонние разработчики могли включать их в свои программы.
«Мы решили не продолжать предложение гибридного клиент-серверного подхода к обнаружению CSAM для фотографий iCloud несколько лет назад», — ответит Ноэншвандер Heat Initiative. «Мы пришли к выводу, что это практически невозможно реализовать, не поставив под угрозу безопасность и конфиденциальность наших пользователей».
На просьбу Heat Initiative Apple создать механизм отчета о CSAM для пользователей, компания сообщила, что сосредоточена на связи своих уязвимых или пострадавших пользователей непосредственно с правоохранительными органами в каждом отдельном регионе.