Корпорация Apple отложила на неопределенное время запуск технологии по выявлению на телефонах пользователей фотографий сексуального насилия над детьми после критики за вмешательство в частную жизнь. Об этом 3 сентября сообщает профильное издание TechCrunch со ссылкой на заявление компании.
«С учетом мнения пользователей, правозащитников, исследователей и других лиц, мы решили взять паузу на ближайшие месяцы, чтобы собрать информацию и внести улучшения перед тем, как вводить эти функции, которые очень важны для защиты детей», — говорится в сообщении компании.
Технология NeuralHash может искать на устройстве пользователя изображения сексуального насилия над детьми, даже не имея образца такого снимка или его описания. Решение сканировать именно устройства, а не фото, которые в зашифрованном виде хранятся на облачном сервисе iCloud, по мнению Apple, безопаснее с точки зрения конфиденциальности, чем тотальное сканирование, которое применяют облачные провайдеры.
В компании отметили, что для поиска изображений будут использовать метаданные, предоставленные Национальным центром помощи пропавшим детям и детям в трудной ситуации. В случае определенного количества совпадений данных будут привлекаться сотрудники Apple, которые дешифруют информацию, заблокируют учетную запись пользователя и проинформируют центр, который уже свяжется с правоохранительными органами.
Эксперты по безопасности и защитники конфиденциальности данных выразили тревогу, что эту технологию могут использовать правительства для шантажа пользователей или для поиска другого содержимого на смартфонах, которое власти посчитают нежелательным.
Кроме того, ученые указали на несовершенство системы, которую удалось заставить принимать два разных изображения за одно и то же.
Всего больше сотни политических и правозащитных организаций призвали Apple отказаться от внедрения технологии, а фонд Electronic Frontier Foundation собрал больше 25 тысяч негативных отзывов потребителей.