Apple будет сканировать фото всех iPhone в поисках детской порнографии

Вчeрa Apple oфициaльнo прeдстaвилa нoвыe функции бeзoпaснoсти дeтeй, oдним из кoтoрыx стaл aлгoритм пoискa детской порнографии на всех iPhone, подключенных к облачному сервису iCloud. Согласно задумке, инструмент будет непрерывно сканировать снимки в галерее смартфонов и сопоставлять их с некой базой данных. В случае обнаружения незаконных изображений Apple пометит пользователя подозрительным, расшифрует его данные iCloud и, при подтверждении комиссией, сообщит правоохранительным органам.

Это незамедлительно стало причиной опасений пользователей касательно приватности которую так рьяно компания продвигала и рекламировала на протяжении многих лет. И хотя сама по себе инициатива является вполне здравой, то, как Apple намерена её реализовать вызывает беспокойство у многих ведущих специалистов по кибербезопаности, считающих её опасным прецедентом посягательства на конфиденциальность пользовательских данных. Даже несмотря на все заявленные степени безопасности и шифрования, подобная система открывает компании простой путь по изучению содержимого более чем миллиарда iPhone, которое потенциально может оказаться в руках злоумышленников, конкурентов или государственных структур.

Всё это противоречит тем принципам, на которые упирала Apple, в 2015-2016 годах отказавшись помогать во взломе iPhone стрелка-террориста. Правозащитная организация Electronic Frontier Foundation окрестила данную технологию опасным бэкдором (чёрным ходом), открывающим путь к дальнейшим нарушениям пользовательских свобод. Внедрение новых алгоритмов по защите детей произойдёт в iOS 15 и iPadOS 15 этой осенью.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.