Apple отложила планы анализировать изображения на всех устройствах после скандала по поводу нарушения приватности

6 сентября 2021 г. 11:09
 14851

Apple приостанавливает проверку устройств пользователей на наличие материалов, содержащих сексуальное насилие над детьми.

Компания Apple временно приостанавливает реализацию своих противоречивых планов по проверке устройств пользователей на наличие материалов, содержащих сексуальное насилие над детьми (CSAM) после того, как получила резкий отпор сообщества в связи с опасениями, что этот инструмент может быть использован для массовой слежки и нарушить неприкосновенность частной жизни пользователей.

«Основываясь на отзывах клиентов, групп безопасности, исследователей и других, мы решили взять дополнительное время в ближайшие месяцы для сбора информации и внесения улучшений перед выпуском этих критически важных функций безопасности детей» - говорится в заявлении производителя iPhone на его сайте.

В заявлении, однако, не уточняется, какие именно материалы будут собираться, каков характер планируемых изменений или как компания намерена внедрить систему таким образом, чтобы снизить проблемы конфиденциальности и безопасности, которые могут возникнуть после ее развертывания.

Изначально планировалось, что изменения будут введены в iOS 15 и macOS Monterey в конце этого года, начиная с США.

В августе компания Apple подробно описала несколько новых функций, призванных помочь ограничить распространение CSAM на своей платформе, включая сканирование библиотек iCloud Photos пользователей и «Безопасного общения» в приложении «Сообщения» на предмет незаконного контента для предупреждения детей и их родителей при получении или отправке фотографий сексуального характера, а также расширенные подсказки в Siri и Search при попытке пользователей выполнить поиск по темам, связанным с CSAM.

Так называемая технология NeuralHash должна была работать путем сопоставления фотографий на iPhone, iPad и Mac непосредственно перед их загрузкой в iCloud Photos с базой данных известных изображений насилия над детьми, которую ведет Национальный центр пропавших и эксплуатируемых детей (NCMEC), без необходимости обладания изображениями или выяснения их содержания. Учетные записи iCloud, которые пересекали установленный порог в 30 совпадающих хэшей, затем проверялись вручную, их профили планировалось отключать и сообщать о них в правоохранительные органы.

Эти меры были направлены на достижение компромисса между защитой частной жизни пользователей и удовлетворением растущих требований государственных органов в расследованиях, связанных с терроризмом и детской порнографией, а также на решение так называемой проблемы «ухода в тень», когда преступники пользуются защитой шифрования для маскировки своей незаконной деятельности.

Однако эти предложения были практически мгновенно встречены негативной реакцией: Фонд электронных рубежей (EFF) осудил технологического гиганта за попытку создания системы слежки на устройствах, добавив, что «тщательно документированный, тщательно продуманный и узконаправленный бэкдор - это все равно бэкдор».

«Как только эта возможность будет встроена в продукты Apple, компания и ее конкуренты столкнутся с огромным давлением - и потенциально юридическими требованиями - со стороны правительств по всему миру сканировать фотографии не только на предмет CSAM, но и на предмет других изображений, которые правительство сочтет неприемлемыми» - сообщается в открытом письме Центра демократии и технологий (CDT).

«Это могут быть изображения нарушений прав человека, политических протестов, изображения, помеченные компаниями как «террористические» или насильственный экстремистский контент, или даже нелестные изображения тех самых политиков, которые будут оказывать давление на компании. И это давление может распространяться на все изображения, хранящиеся на устройстве, а не только на те, которые загружены в iCloud. Таким образом, Apple заложит основу для цензуры, слежки и преследования на глобальной основе» - говорится в письме.

Однако в электронной переписке , распространенной внутри компании Apple, было обнаружено, что сторонники обеспечения безопасности детей отвергают жалобы активистов по защите частной жизни и исследователей безопасности как «визгливый голос меньшинства».

С тех пор компания Apple постаралась снять возможные опасения, связанные с непредвиденными последствиями, опровергая возможность того, что система может быть использована для обнаружения других форм фотографий по требованию правительств. «Давайте внесем ясность: эта технология ограничена обнаружением CSAM, хранящихся в iCloud, и мы не будем удовлетворять просьбу какого-либо правительства о ее расширении» - заявила компания.

Тем не менее, это не развеяло опасения что сканирование на стороне клиента может привести к тревожным вторжениям в частную жизнь и что оно может быть расширено для дальнейших злоупотреблений, а также послужить образцом для взлома сквозного шифрования. Вызывает опасения и тот факт что исследователи смогли создать «хэш-коллизии» - они же ложные срабатывания - путем реверс-инжиниринга алгоритма, что привело к сценарию, когда два совершенно разных изображения генерировали одно и то же хэш-значение, тем самым обманывая систему, заставляя ее думать, что изображения одинаковые хотя это не так.

«Мои предложения компании Apple: пообщайтесь с техническим и регуляторным сообществами прежде чем делать то, что вы собираетесь. Услышьте голос с широкой общественности. Это не новый модный Touch Bar - это явная компрометация конфиденциальности, которая затрагивает 1 миллиард пользователей» - написал в Твиттере профессор Джонса Хопкинса и исследователь безопасности Мэтью Д. Грин.

«Четко объясните, зачем и что вы сканируете. Переход от сканирования вложений электронной почты к сканированию личной библиотеки фотографий каждого - это огромная дельта. Вы должны обосновывать подобные «эскалации» - добавил Грин.

Источник: https://thehackernews.com

 

Системы Информационной Безопасности