Между защитой и приватностью. Как и почему Apple хочет сканировать ваши фотографии

Нoвыe плaны Apple пo скaнирoвaнию фoтo нa смaртфoнax будут прoтивoдeйствoвaть рaспрoстрaнeнию дeтскoгo пoрнo. Oднaкo сии нoвoсти вызывaют прoтeсты зaщитникoв привaтнoсти.

Пoчeму у Apple рeшили искaть oпaсный кoнтeнт

Кoмпaния Apple сooбщилa o нoвыx шaгax, нaпрaвлeнныx нa зaщиту дeтeй и кoнтeнтa с ними. Этoт aнoнс вызвaл aктивнoe oбсуждeниe срeди тexнoлoгичeскиx экспeртoв, вeдь eдвa ли нe впeрвыe фирмa, кoтoрaя дaвнo дeклaрируeт увaжeниe к привaтнoсти свoиx пoльзoвaтeлeй и иx дaнным, oткрoвeннo зaявилa o внeдрeнии тexнoлoгий скaнирoвaния кoнтeнтa. И xoтя никтo нe сoмнeвaeтся в вaжнoсти тaкиx инструмeнтoв и нeoбxoдимoсти зaщиты дeтeй и oт врeднoгo кoнтeнтa, и oт рaспрoстрaнeния фoтoгрaфий с иx изoбрaжeниями, сии планы Apple назвали ужасными с точки зрения их потенциального использования, в частности, властями разных стран с целью преследования граждан.

Закавычка контента с изображением детей неприемлемого содержания, чаще только — примеры сексуальной эксплуатации детей, становится серьезней с каждым годом. За данным компании Thorn, которая разрабатывает программное порука для обнаружения изображений жестокого обращения с детьми, вслед последние несколько лет доля таких фотографий увеличилась держи 15 000%. В то же счастливый случай аналитики этой компании пришли к выводу, что такое? более 20% подростков в возрасте с 13 до 17 парение присылали другому человеку домашние обнаженные фото. Распространенность такого типа практики среди современных подростков мало-: неграмотный доказывает, что дети делают и пересылают сии снимки осознанно, понимая до сего времени риски и для собственной безопасности, и с целью будущей сексуальной эксплуатации. Как и для решения таких проблем команда Apple анонсировала свои новые защитные инструменты.

Новые инструменты ото Apple: осторожный анализ

В Apple рассказали, зачем компания планирует ввести семейство изменений в ее операционную систему iOS — они появятся в версии iOS 15, а п и в операционной системе для ноутбуков macOS Monterey сделано этой осенью.

Новая вариация iOS получит специальные инструменты, которые смогут подвергать анализу фотографии пользователей и находить посреди них такие, которые могут иметь в виду примерами сексуальной эксплуатации детей. Новые инструменты будут копаться материалы, которые определяются точь в точь CSAM (child sexual abuse material) — контент сексуального насилия по-над детьми. Эти материалы будут обыскивать в автоматическом режиме при загрузке фотографий в iCloud. В Apple подчеркивают, ась? компания не планирует включать полное сканирование содержания iCloud.

В компании обещают, почему анализ фото будет свершаться частно на устройствах пользователей с применением нейронных сетей, которые пизда тем прошли обучение получи примере фотографий, предоставленных организацией в NCMEC — Национальным центром пропавших и эксплуатируемых детей (National Center for Missing & Exploited Children). Иными словами, нейросеть изучит известные фотография с изображением случаев секс-эксплуатации детей и разыскивать на устройствах пользователей их аналоги. Счет анализа будет храниться в зашифрованном виде (в виде набора хэшей), который-нибудь будет сравниваться с предоставленной базой данных.

Когда результат сравнения превысит диагносцированный допустимый порог (что пора и совесть знать свидетельствовать о том, что позитив пользователя похоже на фотопример детского порно), лицо станет подозрительной. Если таких снимков брось несколько и уровень сходства хорошенького понемножку высокий, люди-операторы передадут информацию о необходимости расшифровки такого карточка, то есть просмотра снимка-оригинала. Коль скоро система не ошиблась, и карточка действительно окажется CSAM-контентом, оповещение будет передана в правоохранительные органы, к примеру, в NCMEC.

Подобно как изменится в iMessage

Кроме анализа фотографий в iCloud, шатия-братия планирует применять анализ к снимкам, получаемым и пересылаемым в ее мессенджере iMessages. Измерение также будет осуществляться офигенно на устройстве пользователя. Старики детей до 13 полет могут включить опцию анализа фотографий, которые отправляются, в настройки семейного аккаунта Apple. В этом случае построение сначала спросит, действительно ли дитятко хочет переслать этот обложка другому пользователю. Если мальчонка откажется, то больше никаких действий претворяться в действительность не будет. Если согласится, в таком случае об этом будет сообщено родителям с одновременной пересылкой им фотоотпечаток. У ребенка до 13 полет доступ к этому фото с походом не будет. Для детей в возрасте с 13 до 17 полет подозрительные фото будут оставаться, но без оповещения родителей и их доступа к снимкам.

В компании считают, в чем дело? такой подход позволит дети принимать более обоснованные решения — и сохранять родителей в курсе. Кроме того, сии функции будут доступны единственно на устройствах, которые являются наполовину семейной учетной записи iCloud.

Фотографии, которые получают несовершеннолетние пользователи, и которые определены подобно ((тому) как) потенциально опасные, будут размываться. Родителям опять же будут сообщать, если их мелкота получают фотографии недопустимого содержания.

Продолжает ли Apple оберегать приватность? Мнение «против»

Оный анонс от Apple вызвал камни вопиют защитников приватности. Хотя мафия подчеркнула, что все довольно происходить на устройстве пользователя, в условно замкнутой системе, тем мало-: неграмотный менее это повлекло сплетки об откровенном массовом наблюдении со стороны компании, которая испокон (веку позиционировала себя как главного защитника приватности в мире незащищенных данных.

Financial Times цитирует профессора университета Кембриджа Цивета Андерсона (Ross J. Anderson), каковой назвал планы Apple «ужасной идеей, которая открывает вольт к массовому наблюдению за компьютерами и смартфонами», и подчеркнул, что-то эту систему легко притирать к поиску других рисунков, без- связанных с детским порно, к примеру, таких, которые доказывают соболезнование человека в уличных протестах. Педагог университета Джона Хопкинса Мэтью Зеленый (Matthew Green) сказал, а это решение Apple приближает нас к «миру 1984», имея в виду Рома-антиутопию Джорджа Оруэлла.

Такое но мнение высказали представители Electronic Frontier Foundation в своем блоге, которые видят в таком шаге Apple реальную на волосок того, что правительства сделано в ближайшее время смогут просматривать разного рода содержание держи наших устройствах в режиме реального времени, вызывая неодинаковые проблемы с правами человека. Сие может начаться с требования просмотреть содержимое террористов; само подсчёт «терроризма» может со временем отчетливо расшириться; а последствия для свободы подтекстовка могут быть критическими.

Реалии современного решетка: как бороться с опасным контентом, сохраняя частность?

На самом деле, правительства многих стран еще давно хотят залезть в аккаунты и устройства пользователей, пытаясь сверху законодательном уровне запретить инструменты шифрования, опять-таки те не позволяют скандировать переписку пользователей и создаваемый ими контент.

Одна изо самых известных историй противостояния в этом направлении произошла опять в 2016 году и непосредственно касалась Apple, которую в судебном порядке ФБР пыталось приневолить предоставить доступ к iPhone террориста с Сан-Бернардино, убившего 16 венец творения. Судебные иски продолжались малость месяцев, и Apple смогла предохранить в суде свою позицию, аргументируя ее тем, по какой причине она не может продать доверие своих клиентов, уверенных в защите собственных данных.

С тех пор подобных историй было бездна, а высказывания правительств разных стран пользовательского контента становились вдобавок жестче.

Представляется, что в противостоянии технологических компаний и государств Apple определила свою позицию, которую продемонстрировала в новых анонсах в области CSAM-контенту: компания планирует продлевать использовать сквозное шифрование, которое малограмотный позволит просматривать контент пользователей, хотя собственными силами будет просмотреть этот контент исключительно держи их устройствах.

Кейси Ньютон (Casey Newton) в своей рассылке Platformer называет оный шаг Apple важным и влияющим держи всю отрасль.

«Закрывать зырки на сексуальную эксплуатацию детей в долгосрочной перспективе противопоказуется, особенно в современных масштабах. А и мы должны подождать, для того чтоб увидеть, как это работает для практике, на первый зрение, это выглядит умным и вдумчивым».

Кейси Ньютон

я рассылки The Platformer

Кейси Ньютон

составитель рассылки The Platformer

Эксперт подчеркивает, что-нибудь мы не будем вдребезги понимать последствия этих изменений, в (течение того времени их не развернут числом всему миру.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.