«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

09.08.2021 22:53

«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Новые инициативы Apple по борьбе с сексуальной эксплуатацией детей вызвали противоречивую реакцию — общественное недовольство возникло из-за обоснованных опасений насчет возможного злоупотребления авторитарными правительствами и обращения передового технологическое решения в инструмент слежки. И вот сейчас Apple ответила на эти опасения — компания опубликовала 6-страничный документ (.PDF) с ответами на самые разные вопросы по инициативе.

В Apple заверили, что не собираются расширять действие технологии проверки фото с помощью алгоритмов хэширования на другие области, помимо CSAM, или сотрудничать со спецслужбами или правительствами каких-либо стран.

Сразу после анонса инициативы защитники конфиденциальности и эксперт по безопасности раскритиковали Apple, обвинив компанию в отказе от приватности. Доцент Института информационной безопасности Джонса Хопкинса и эксперт по кибербезопасности Мэтью Грин назвал технологию «действительно плохой идеей» и предостерег о возможных катастрофических последствиях, если она окажется в руках авторитарного правительства». В то же время аналитик в области информационной безопасности Алек Маффетт, ранее работавший в Facebook и Deliveroo, заявил, что Apple отступает от приватности, чтобы сделать возможным 1984 год (отсылка к одноименному роману Джорджа Оруэлла, чьё название используется для обозначения любого тоталитарного общества).

Правозащитные организации выразили схожие опасения, что авторитарные режимы смогут использовать инструмент для поиска материалов с политическим инакомыслием, а противники ЛГБТ — для ограничения сексуального самовыражения.

Но Apple возражает — оснований для этого нет. В компании аргументируют, что разработали меры предосторожности, чтобы ее системы не использовались для обнаружения чего-либо, кроме изображений CSAM. Фотографии, загруженные в iCloud Photo Library, не будут сканировать, а только сопоставлять хэш-суммы (цифровые отпечатки) с базой данных известных изображений сексуального насилия над детьми. Для составления базы Apple объединилась с национальным центром по делам пропавших без вести и эксплуатируемых детей (NCMEC) и другими организациями, работающими в сфере безопасности детей. В Apple заверяют, что не собирается вносить какие-либо изменения в список хэшей изображений, а сам список — общий для всех iPhone и iPad, что исключает индивидуальный таргетинг.

Apple также заявляет, что не намерена выполнять требования правительства и добавить в список изображения, не относящиеся к CSAM.

Справедливости ради, ранее Apple неоднократно шла на уступки вопросах безопасности и конфиденциальности данных правительствам, чтобы продолжить работу в своих странах — например, компания продает iPhone без FaceTime в странах, где запрещены зашифрованные телефонные звонки, а в Китае удалила тысячи приложений из своего магазина App Store, а также переместила данные пользователей на серверы государственной телекоммуникационной компании.

При этом Apple никак не комментирует опасения касательно злоупотребления функцией проверки фото в «Сообщениях» на предмет материалов откровенно сексуального характера. Компания заявляет, что эта функция не передает никакой информации Apple или правоохранительным органам, но не сообщает о каких-либо мерах предосторожности, гарантирующих, что инструмент не будет направлен на фото любого другого характера, помимо интимного.

В EFF также отмечают, что технологии машинного обучения часто неправильно классифицируют этот контент, и приводят попытки Tumblr отфильтровать контент сексуального характера в качестве яркого примера того, где все пошло наперекосяк.

Источник

Редакция: | Карта сайта: XML | HTML | SM
2013-2021 © "МехКорпс — роботы и киборги". Все права защищены.