fbpx
Подписаться на рассылку
актуальные новости I достоверная аналитика
01:47
17.09.2021
¥

Apple будет сканировать изображения в iCloud для борьбы с насилием

На прошедшем брифинге корпорация Apple подтвердила планы о внедрении новых технологий в операционных системах iOS, macOS, watchOS и сервисе iMessage, которые будут в фоновом режиме сканировать изображения в поисках потенциального жестокого обращения с детьми, но прояснила важные детали текущего проекта.


Новые версий iOS и iPadOS в США, которые появятся осенью 2021 года, содержат в себе «обновленные приложения криптографии», помогающие ограничить распространение CSAM (прим.ред. — материалов о насилии над детьми) в Интернете, при этом обеспечивая конфиденциальность пользователей.

APPLE БУДЕТ СКАНИРОВАТЬ ИЗОБРАЖЕНИЯ В ICLOUD ДЛЯ БОРЬБЫ С НАСИЛИЕМ
Фото: trashbox.ru

Проект уже подробно на странице «Безопасность детей» на официальном веб-сайте Apple. Волну споров вызвала сама реализация данной идеи — система выполняет сканирование изображений в библиотеке iCloud перед резервным копированием. Исходя из описания, сканирование не происходит до тех пор, пока файлы не будут скопированы в iCloud, и Apple получит данные о совпадении только в том случае, если криптографические ключи (прим.ред. — также загруженные в iCloud) для конкретной учетной записи будут соответствовать пороговому значению сопоставления и известными CSAM.

В течение многих лет Apple использовала хэш-системы для сканирования изображений, отправляемых по электронной почте. Ровно так же, как системы Gmail от Google и другие аналогичные облачные сервисы электронной почты. Презентованная программа будет применять такое же сканирование к пользовательским изображениям, хранящимся в iCloud Photos, даже если изображения никогда не отправляются другому пользователю или не передаются иным образом.

Эксперты опасаются, что пользовательские данные могут оказаться под угрозой, но в дополнение к системе добавятся и новые меры безопасности. В частности, система пороговых значений гарантирует, что при одиночных ошибках не будут генерироваться предупреждения, что позволяет Apple достичь уровня ошибок в одно ложное предупреждение на триллион пользователей в год. Система хеширования также ограничена материалами, отмеченными Национальным центром пропавших без вести и эксплуатируемых детей (прим.ред. — NCMEC), и изображениями, загруженными в iCloud Photos.

Американский IT-гигант заказывала оценку системы трем независимым криптографическим компаниям, которые сочли ее математически устойчивой.

Наряду с новыми мерами в iCloud Photos, Apple добавила две дополнительные системы для защиты молодых владельцев iPhone от риска получения контента, содержащего намеки на жестокое обращение с детьми. Приложение «Сообщения» уже сканирует на устройстве прикрепленные изображения для детских аккаунтов, чтобы обнаружить потенциально откровенный контент. После обнаружения содержимое становится размытым и появляется предупреждение.


™️

Информационные ресурсы AURORA

©️Telegram | AURORA_MEDIA
©️YouTube | AURORA_MEDIA
©️Phone | +7 (4212) 900-900
©️WhatsApp Telegram WeChat | +79098007111
©️MediaGroup | @group_aurora @aurora_group
©️E-mail | media@auroragroup.info
©️Web | AURORA.RED

Была ли эта статья интересной?
ПОДЕЛИТЕСЬ новостью через соц. сети:
Поздравляем, вы подписались на рассылку информационного агенства aurora media
​680022, Хабаровск, Больничная 8б
бизнес центр Аврора
Подписаться на рассылку