Apple: система поиска детского порно не сможет сканировать другой контент

Apple: система поиска детского порно не сможет сканировать другой контент

EPA

Внедряемая Apple в iOS система, которая будет сканировать загруженные в iCloud фото и видео на предмет изображений жестокого обращения с детьми (CSAM-контент), включая детскую порнографию, будет иметь "несколько уровней проверки". Прежде всего, эта система не будет иметь доступа к другому пользовательскому контенту.

Об этом в интервью The Wall Street Journal заявил Крейг Федериги, старший вице-президент Apple по разработке ПО. Новая функция будет проверять только те изображения, которые хранятся в iCloud Photos ("Фото iCloud") при этом само сканирование будет выполняться локально, на устройстве. "Представьте, что кто-то сканирует изображения в облаке. Ну, кто знает, что там сканируют? — сказал Федериги. — В нашем случае речь идет о загружаемой на устройство базе данных. Она доступна людям, и эти изображения одинаковы для всех стран".

Ранее в Apple уже поясняли, что "технология ограничена обнаружением CSAM-контента, хранящегося в iCloud", а любые запросы со стороны правительств, связанные с расширением этой функции (например, чтобы проверялся не только противоправный детский контент, но и другие "неприемлемые" с точки зрения властей материалы), будут отклоняться.

"В Китай мы поставляем ту же базу данных, что в США или Европу, — заверил Федериги. — Если кто-то придет в Apple [с просьбой сканировать другой контент, помимо CSAM], мы ответим отказом".

Apple объявила о введении новых инициатив по защите детей на прошлой неделе. iOS и iPadOS начнут сканировать загруженные в iCloud фото и видео на предмет изображений жестокого обращения с детьми, а в мессенджере iMessage ("Сообщения") несовершеннолетним при получении или попытке отправить фотографию откровенного сексуального характера будет показываться предупреждение. Первыми новые функции заработают в США позднее в этом году.

Уведомление о потенциально противоправном детском контенте, во избежание ложных срабатываний, будет направляться в Apple только по достижении определенного порога совпадений. В компании не раскрывали этого значения, ограничиваясь словами о том, что вероятность ошибки не превышает 1 на 1 триллион аккаунтов в год. Однако Федериги уточнил, что речь идет о "примерно 30 известных детских порнографических изображений".

Источник