Appareils Apple pour détecter et signaler les images d’abus sexuels sur des enfants : voici comment cela fonctionne

Appareils Apple pour détecter et signaler les images d'abus sexuels sur des enfants : voici comment cela fonctionne

Apple a dévoilé de nouvelles fonctionnalités sur ses plates-formes qui visent à protéger les enfants en ligne, notamment la numérisation des photos des utilisateurs d’iPhone et d’iPad pour détecter et signaler de grandes collections d’images d’abus sexuels sur des enfants stockées sur ses serveurs cloud.

“Nous voulons aider à protéger les enfants des prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la propagation du matériel d’abus sexuels sur enfants (CSAM)”, a déclaré Apple sur son site.

Apple a introduit les nouvelles fonctionnalités de sécurité des enfants après avoir collaboré avec des experts en sécurité des enfants.

« Ce programme est ambitieux et la protection des enfants est une responsabilité importante. Ces efforts évolueront et s’étendront au fil du temps », a-t-il ajouté.

Apple se concentrera sur trois domaines de la protection des enfants

Les caractéristiques de sécurité pour enfants se répartissent globalement dans les trois domaines.

“Premièrement, de nouveaux outils de communication permettront aux parents de jouer un rôle plus éclairé en aidant leurs enfants à naviguer dans la communication en ligne”, a déclaré la société. L’application Messages utilisera l’apprentissage automatique sur l’appareil pour avertir du contenu sensible, tout en gardant les communications privées illisibles par Apple.

Deuxièmement, a déclaré Apple, iOS et iPadOS utiliseront de nouvelles applications de cryptographie pour aider à limiter la propagation de CSAM en ligne. “La détection CSAM aidera Apple à fournir des informations précieuses aux forces de l’ordre sur les collections de CSAM dans iCloud Photos.”

La troisième et dernière mise à jour concerne Siri et Search pour fournir aux parents et aux enfants de plus amples informations et de l’aide s’ils rencontrent des situations dangereuses. Siri et Search interviendront également lorsque les utilisateurs tenteront de rechercher des sujets liés à CSAM.

Ces fonctionnalités arriveront plus tard cette année dans les mises à jour d’iOS 15, iPadOS 15, watchOS 8 et macOS Monterey, a déclaré Apple. Pour commencer, ces fonctionnalités sont dévoilées aux États-Unis.

Voici comment cela fonctionnera

Apple a également expliqué en détail le fonctionnement des trois fonctionnalités.

L’application Messages ajoutera de nouveaux outils pour avertir les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites. Apple a déclaré utiliser l’apprentissage automatique sur l’appareil pour analyser les pièces jointes et déterminer si une photo est sexuellement explicite.

Lorsqu’un enfant reçoit un contenu préjudiciable, la photo sera floue et l’enfant sera averti et présenté des ressources utiles pour faire face à la situation. De plus, si l’enfant regarde le matériel, ses parents recevront un message. Si un enfant tente d’envoyer des photos sexuellement explicites, il sera averti avant l’envoi de la photo, et ses parents seront également informés de l’événement.

Apple a précisé que la fonctionnalité est conçue de manière à ce que la société n’ait pas accès aux messages.

Apple affirme que la confidentialité ne sera pas violée

En ce qui concerne les images CSAM, Apple a déclaré qu’une nouvelle technologie dans iOS et iPadOS lui permettrait de détecter ce contenu stocké dans iCloud Photos.

Avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus. Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il y a une correspondance sans révéler le résultat, a déclaré Apple.

La nouvelle technologie permettra à Apple de fournir des informations précieuses et exploitables aux forces de l’ordre concernant la prolifération des CSAM connus. Apple a déclaré qu’il faisait ces choses tout en offrant des avantages significatifs en matière de confidentialité par rapport aux techniques existantes “puisqu’Apple n’apprend les photos des utilisateurs que s’ils ont une collection de CSAM connus dans leur compte iCloud Photos. Même dans ces cas, Apple n’apprend que les images qui correspondent à un CSAM connu.

Apple a déclaré que Siri et Search sont également mis à jour pour intervenir lorsque les utilisateurs effectuent des recherches de requêtes liées à CSAM. Ces interventions expliqueront aux utilisateurs que l’intérêt pour ce sujet est nuisible et problématique, et fourniront des ressources de partenaires pour obtenir de l’aide sur ce problème.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Translate »