Apple убрала большинство упоминаний о спорных функциях CSAM после обновления iOS 15.2
На этой неделе Apple выпустила iOS 15.2 с множеством новых функций, включая функцию безопасности связи для приложения «Сообщения», ориентированную на защиту детей. Однако компания не включила свою вызывающую споры функцию сканирования материалов о сексуальном насилии над детьми в iCloud Photos и, похоже, стерла все упоминания о ее существовании.
Напомним, что iOS 15.2 изначально планировалась с функцией обнаружения материалов о сексуальном насилии над детьми (CSAM). В обновлении должна была быть реализована функция сканирования на устройстве, направленная на поиск материалов CSAM в библиотеке фотографий iCloud пользователя. Компания отметила, что будет делать это на устройстве для максимальной конфиденциальности. Эксперты по конфиденциальности возразили , отметив, что сама концепция сканирования библиотеки фотографий пользователя на предмет запрещенных материалов является нарушением конфиденциальности сама по себе, которое может расшириться, чтобы включить другие материалы, как только будет создан прецедент.

«Ранее мы объявили о планах по созданию функций, направленных на защиту детей от хищников, использующих средства коммуникации для вербовки и эксплуатации детей, а также для ограничения распространения материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, групп по защите интересов, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время для сбора информации и внесения улучшений, прежде чем выпускать эти критически важные функции безопасности детей », – говорится в сообщении Apple, которое ранее было добавлено к оригинальная страница, посвященная безопасности детей .
Как заметил MacRumors , с тех пор компания удалила этот сегмент со страницы и все упоминания о функции сканирования фотографий iCloud. Мы обратились в Apple за разъяснениями по этому поводу.
Apple также внесла небольшие изменения в безопасность общения в функции сообщений. Вместо того, чтобы автоматически уведомлять родителей, если ребенок младше 18 лет выбирает просмотр или отправку обнаженного изображения через приложение «Сообщения», компания теперь сняла требование об уведомлении в ответ на отзывы экспертов.
Вместо этого теперь все лица младше 18 лет будут предупреждены о том, что изображение может содержать конфиденциальные материалы, и получат объяснение того, что такое конфиденциальные фотографии и как они могут быть использованы для причинения вреда, вместо того, чтобы указывать характер самой откровенной фотографии.