Світ

Apple відклала плани сканувати зображення користувачів на предмет недопустимих матеріалів

Apple відклала плани сканувати зображень користувачів на предмет матеріалів про сексуальне насильство над дітьми перед завантаженням їх у хмару. Про це пише 1NEWS, посилаючись на Українську правду.

Як зазначається, подібне рішення слідує за негативною реакцією з боку груп конфіденційності.

В компанії заявили, що “ґрунтуючись на відгуках клієнтів, правозахисних груп, дослідників та інших осіб, ми вирішили в найближчі місяці виділити додатковий час, щоб зібрати інформацію та внести покращення, перш ніж випускати ці критично важливі функції безпеки дітей”.

Передісторія:

  • У серпня з’явилася інформація, що Apple просканує зображення та зашифровані повідомлення в iPhone в США на предмет сексуального насильства над дітьми.
  • Як повідомлялося, останні зміни з’являться в цьому році як частина оновлень операційного програмного забезпечення для iPhone, Mac і Apple Watch.
  • Для цього мали використати інструмент neuralMatch. Він призначений для виявлення відомих зображень сексуального насильства над дітьми і скануватиме зображення перед їх завантаженням в iCloud. Якщо neuralMatch знайде збіг, зображення перегляне людина. У разі підтвердження наявності дитячої порнографії обліковий запис користувача відключать і повідомлять Національний центр зниклих безвісти і експлуатованих дітей. Система виявлення відзначатиме тільки ті зображення, які вже є в базі даних центру відомої дитячої порнографії.
  • Також Apple планує сканувати зашифровані повідомлення користувачів на предмет відвертого сексуального змісту як захід безпеки для дітей.
Back to top button