Компания Apple начала сканирование фотографий, загруженных с iPhone в хранилище iCloud с целью проверки изображений на предмет насилия над детьми. Как заявили в компании, техногигант прилагает все усилия для борьбы с жестоким обращением и сексуальной эксплуатацией детей.

Джейн Хорват, директор по конфиденциальности Apple, на технической конференции CES-2020 сообщила, что компания автоматически просматривает изображения, сохраненные в iCloud, чтобы проверить, содержат ли они незаконные фотографии.

Стоимость акций Apple достигла рекордных $300 за штуку

"Мы используем некоторые технологии, чтобы помочь отследить материалы о сексуальном насилии над детьми", - добавила Хорват.

Ранее компания часто отказывала правоохранительным органам в содействии, когда необходимо было взламывать телефоны подозреваемых. Apple объясняла свое решение политикой по защите конфиденциальности пользователей.

Однако сейчас политика компании направлена на борьбу с насилием и защитой детей. 

"В рамках этого обязательства Apple использует технологию сопоставления изображений, которая помогает находить детей и сообщать о них. Подобно спам-фильтрам в электронной почте, наши системы используют электронные подписи для обнаружения подозрительной эксплуатации детей", - подчеркнули в компании, добавив, что учетные записи будут отключены в случае выявления нарушений.

В Applе не уточняют, как именно будут проверять фотографии, но многие технологические компании используют систему PhotoDNA, в которой изображения проверяются по базе данных ранее идентифицированных изображений с использованием технологии, известной как хэширование. Данную технологию также используют Facebook, Twitter и Google.

Напомним, ранее Apple назвала лучшие игры и приложения 2019 года для iPhone, iPad и Mac.

Хотите первыми получать важную и полезную информацию о ДЕНЬГАХ и БИЗНЕСЕ? Подписывайтесь на наши аккаунты в мессенджерах и соцсетях: Telegram, Twitter, YouTube, Facebook, Instagram.

Теги: apple фотографии порно дети насилие icloud
Просмотров: 5260