Apple publie une FAQ CSAM pour répondre aux idées fausses et aux préoccupations concernant la numérisation de photos

La FAQ Apple CSAM traite des idées fausses et des préoccupations concernant la numérisation de photos

Ben Lovejoy

- 9 août 2021 04h24 PT

@benlovejoy

0

Facebook

Twitter

Pinterest

LinkedIn

Reddit

Apple a répondu aux idées fausses et aux inquiétudes concernant ses

annonces de numérisation de photos

en publiant une FAQ CSAM - répondant aux questions fréquemment posées sur les fonctionnalités.

Alors que les organisations de sécurité de l'enfance ont salué les plans d'Apple pour aider à détecter la possession de matériel pédopornographique (CSAM) et à protéger les enfants des prédateurs, il y a eu un mélange de critiques informées et non informées…

Fond

La confusion des médias grand public est survenue lorsqu'Apple a annoncé simultanément trois mesures distinctes, de nombreuses personnes non techniques confondant les deux premières :

Avertissements explicites sur les photos d'iMessage pour les enfants des groupes iCloud Family

Détection de photos CSAM connues en recherchant les empreintes digitales

Répondre à Siri et rechercher des documents CSAM avec un avertissement et des liens pour vous aider

Il y a également eu un manque de compréhension des méthodes utilisées par Apple. Dans le cas d'iMessage, il utilise l'IA sur l'appareil pour détecter les images qui semblent être des nus ; dans le cas de CSAM, il s'agit de comparer les empreintes digitales numériques avec les empreintes digitales générées à partir des photos stockées d'un utilisateur.

Dans aucun des cas, personne chez Apple ne peut voir les photos, à la seule exception d'une personne signalée pour avoir plusieurs photos CSAM, lorsque quelqu'un chez Apple vérifiera manuellement les copies basse résolution pour s'assurer qu'elles correspondent bien avant que les forces de l'ordre ne soient informées. .

Il y a également eu confusion entre

intimité

et les risques d'abus avec les caractéristiques telles qu'elles se présentent aujourd'hui (qui sont nulles à extrêmement faibles) et le potentiel d'abus par des gouvernements autoritaires à une date future. Des experts en cybersécurité ont été

avertissement sur ce dernier

, pas le premier.

Apple a déjà tenté de répondre aux préoccupations répressives du gouvernement en se lançant uniquement aux États-Unis pour l'instant et en déclarant que

l'expansion se ferait pays par pays

, en tenant compte des environnements législatifs de chacun. La FAQ tente maintenant de résoudre ce problème et d'autres.

FAQ Apple CSAM

Apple a

publié une FAQ de six pages

conçu pour répondre à certaines des préoccupations qui ont été soulevées. Il commence par reconnaître la réponse mitigée.

L'entreprise souligne ensuite que les deux premières fonctionnalités sont totalement distinctes.

Les autres points soulignés dans la FAQ incluent :

Les iMessages à destination et en provenance des enfants ne sont jamais partagés avec les forces de l'ordre

Les iMessages restent chiffrés de bout en bout

Les enfants dont les parents sont violents peuvent demander de l'aide en toute sécurité via iMessage s'ils n'utilisent que du texte

Les parents ne sont avertis que si les enfants de 12 ans et moins continuent malgré un avertissement

Les correspondances d'empreintes digitales CSAM sont examinées manuellement avant que les forces de l'ordre ne soient informées

Le problème le plus délicat reste

La plus grande préoccupation soulevée par le FEP et d'autres demeure. Alors que le système ne signale aujourd'hui que les images CSAM, un gouvernement répressif pourrait fournir à Apple une base de données contenant d'autres matériaux, comme le célèbre

Homme de réservoir

photo de la place Tiananmen, censurée en Chine.

Apple a répondu à cela en disant qu'il ne permettrait pas cela :

Cette déclaration est toutefois fondée sur le fait qu'Apple a la liberté légale de refuser. En Chine, par exemple, Apple a été

légalement tenu de supprimer le VPN

,

nouvelles

, et

autre

applications et pour stocker les données iCloud des citoyens chinois

sur un serveur appartenant à une entreprise contrôlée par le gouvernement

.

Il n'y a aucun moyen réaliste pour Apple de promettre qu'il ne se conformera pas aux futures exigences de traitement des bases de données fournies par le gouvernement d'« images CSAM » qui incluent également des correspondances pour les matériaux utilisés par les critiques et les manifestants. Comme l'entreprise l'a souvent dit en défendant ses actions dans des pays comme la Chine, Apple se conforme à la loi dans chacun des pays dans lesquels elle opère.

FTC : Nous utilisons des liens d'affiliation automatique qui génèrent des revenus.

Suite.

Découvrez 9to5Mac sur YouTube pour plus d'actualités Apple :

Vous lisez 9to5Mac, des experts qui annoncent jour après jour l'actualité d'Apple et de son écosystème environnant. Assurez-vous de vérifier

notre page d'accueil

pour toutes les dernières nouvelles, et suivez 9to5Mac sur

Twitter

,

Facebook

, et

LinkedIn

pour rester dans la boucle. Vous ne savez pas par où commencer ? Consultez notre

histoires exclusives

,

Commentaires

,

Mode d'emploi

, et

abonnez-vous à notre chaîne YouTube

Guides

Société AAPL

Dernières nouvelles de Cupertino. Nous vous donnerons les dernières nouvelles du siège d'Apple et déchiffrerons les faits de la fiction du moulin à rumeurs.

Intimité

La confidentialité est une préoccupation croissante dans le monde d'aujourd'hui. Suivez toute notre couverture liée à la confidentialité, à la sécurité et plus encore dans notre guide.

A propos de l'auteur

Ben Lovejoy

@benlovejoy

Ben Lovejoy est un rédacteur technologique britannique et un éditeur européen pour 9to5Mac. Il est connu pour ses éditoriaux et ses journaux intimes, explorant son expérience des produits Apple au fil du temps, pour une critique plus complète. Il écrit également de la fiction, avec deux romans technothriller, quelques courts métrages de SF et une comédie romantique !

L'équipement préféré de Ben Lovejoy

NordVPN

Apple Watch série 3

Articles populaires