Site icon Pingvin.Pro

Apple запускає функції, які убезпечать дітей в Інтернеті

iOS 16 оновлення функції для iPhone / iOS 15 / iOS 14.6 / Siri | iPhone / iOS 14.5 | важливі оновлення Apple / в Інтернеті / iOS 14.7.1

Компанія Apple впроваджує у свої операційні системи корисні та важливі функції. Цього разу, технологічний гігант розказав, як боротиметься з сексуальним насиллям над дітьми (CSAM) та розповсюдженням контенту для дорослих в Інтернеті. Днями, Apple також додала на свій сайт новий розділ.




Apple представляє нові функції безпеки дітей в трьох областях, розроблені у співпраці з експертами. Нові засоби комунікації дозволять батькам відігравати важливу комунікаційну роль, допомагаючи своїм дітям орієнтуватися в спілкуванні в Інтернеті. Застосунок «Повідомлення» використовуватиме машинне навчання на пристрої, щоб попереджати про конфіденційний контент, зберігаючи при цьому приватні повідомлення нечитабельними для Apple.

iOS та iPadOS використовуватимуть нові застосунки криптографії, щоб обмежити поширення CSAM в Інтернеті, при цьому забезпечуючи конфіденційність користувачів. Виявлення CSAM допоможе Apple надати правоохоронним органам цінну інформацію про колекції CSAM в iCloud Photos.

Оновлення Siri та Пошуку надають батькам та дітям розширену інформацію і допомагають у разі виникнення небезпечних ситуацій. Siri і Search також будуть втручатися, коли користувачі намагаються шукати теми, пов’язані зі CSAM. Ці функції з’являться цього року в оновленнях iOS 15, iPadOS 15, watchOS 8 та macOS Monterey.

Messages

Додаток «Повідомлення» отримає нові інструменти для попередження дітей та їхніх батьків про отримання або надсилання фотографій відверто сексуального характеру.

При отриманні такого контенту фотографія буде розмитою, а дитина буде попереджена – будуть представлені корисні ресурси. Аналогічні заходи захисту доступні, якщо дитина намагається надіслати фотографії відверто сексуального характеру. Перед надсиланням з’явиться попередження, і батьки можуть отримати повідомлення, якщо дитина вирішить завершити почате. Messages використовує машинне навчання на пристрої для аналізу прикріплених зображень і визначення сексуального характеру фотографії. Функція розроблена таким чином, що Apple не отримує доступу до повідомлень.

Виявлення CSAM в Інтернеті

Ще одна важлива проблема – це поширення в Інтернеті матеріалів про сексуальне насильство над дітьми (CSAM). CSAM належить до контенту, що зображує відверто сексуальні дії за участю дитини.

Щоб вирішити цю проблему, нова технологія в iOS і iPadOS дозволить Apple виявляти відомі зображення подібного характеру, що зберігаються в iCloud Photos. Це дозволить Apple повідомляти про ці випадки в Національний центр зниклих безвісти і експлуатованих дітей (NCMEC). NCMEC діє як комплексний центр звітності для CSAM і працює у співпраці з правоохоронними органами США.

Метод Apple виявлення відомих CSAM розроблений з урахуванням конфіденційності користувачів. Замість сканування зображень в хмарі система виконує зіставлення на пристрої з використанням бази даних відомих хеш зображень CSAM, наданих NCMEC й іншими безпековими організаціями дітей. Apple перетворить цю базу даних в нечитаний набір хеш, який надійно зберігається на пристроях користувачів.

Перш ніж зображення буде збережено в iCloud Photos, на пристрої виконується процес зіставлення цього зображення з відомими хешамі CSAM. Цей процес зіставлення заснований на криптографічній технології, званої перетином приватних наборів, яка визначає наявність збігу без розкриття результату. Пристрій створює ваучер криптографічної безпеки, який кодує результат відповідності разом з додатковими зашифрованими даними про зображення. Цей ваучер завантажується в Фото iCloud разом із зображенням.

Система гарантує, що вміст ваучера безпеки не може бути інтерпретовано Apple, якщо обліковий запис iCloud Photos не перевищує порогове значення відомого вмісту CSAM. Граничне значення встановлено для забезпечення надзвичайно високого рівня точності і гарантує менше одного випадку на один трильйон на рік неправильної позначки цього облікового запису.

Тільки при перевищенні порогу криптографічна технологія дозволяє Apple інтерпретувати вміст ваучерів безпеки, пов’язаних з відповідними прикладами CSAM. Потім Apple вручну переглядає кожен звіт, щоб підтвердити збіг, відключає обліковий запис користувача і надсилає звіт в NCMEC. Якщо користувач вважає, що його обліковий запис було помилково позначено, він може подати апеляцію на відновлення. Важливо, що Apple дізнається про фотографії користувачів тільки в тому випадку, якщо у них є колекція відомих CSAM у своєму обліковому записі iCloud Photos. Компанія знатиме тільки про заборонені зображення.

Розширене керівництво в Siri і Пошуку

Apple також розширює можливості Siri і Пошуку, надаючи додаткові ресурси, щоб допомогти дітям і батькам залишатися в безпеці в Інтернеті і отримувати допомогу в небезпечних ситуаціях. Наприклад, користувачам, які запитують Siri, як вони можуть повідомити про CSAM або експлуатацію дітей, будуть вказані ресурси, де і як надіслати звіт.

Siri і Пошук також оновлюються, щоб втручатися, коли користувачі виконують пошук запитів, пов’язаних зі CSAM. Ці втручання пояснять користувачам, що інтерес до цієї теми шкідливий і проблематичний, і нададуть ресурси від партнерів для отримання допомоги в цьому питанні.