Поиск детского порно на iPhone откладывается

Apple заявила, что ей необходимо продолжить работу по улучшению этой функции

Компания Apple приостанавливает внедрение системы поиска запрещённых фотографий с сексуальным насилием над детьми (CSAM) после анализа полученной негативной реакции. Компания заявила, что ей необходимо продолжить работу по улучшению этой функции. Apple отметила, что соберёт больше информации от различных групп и сторонников тех, кого это касается.

В прошлом месяце мы объявили о планах по внедрению функций, призванных помочь защитить детей от хищников, которые используют средства коммуникации, чтобы вербовать и эксплуатировать их, а также ограничивают распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, групп защиты интересов, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции.

Apple

Поиск детского порно на iPhone откладывается

Apple ранее заявила, что эта система разрабатывалась много лет и не предназначена для государственного контроля за деятельностью граждан. Более того, пользователям в России и других странах мира не нужно беспокоиться об этой проблеме, потому что система будет доступна только в Соединённых Штатах Америки и только при условии включения сервиса iCloud.

При этом многие эксперты по безопасности предупредили, что новый инструмент Apple может быть использован для слежки, подвергая риску личную информацию миллионов людей.

Изначально внедрение функции ожидалось с выходом финальной версии iOS 15 уже в сентябре, новые сроки не сообщаются.

3 сентября 2021 в 17:35

Автор:

| Источник: Phone Arena

Все новости за сегодня

Календарь

сентябрь
Пн
Вт
Ср
Чт
Пт
Сб
Вс