Apple va scanner les iPhones à la recherche d'images de maltraitance d'enfants

Apple a annoncé un nouveau système à inclure dans les iPhones qui analysera automatiquement ces appareils pour identifier s'ils contiennent des photos présentant des abus sexuels sur des enfants avant que ces images ne soient téléchargées sur iCloud.

Il fait partie d'une gamme de fonctionnalités de protection de l'enfance lancée plus tard cette année aux États-Unis via des mises à jour d'iOS 15 et d'iPadOS et comparera les images sur les appareils des utilisateurs à une base de données d'images d'abus connus.

Si une correspondance est trouvée, Apple déclare qu'il signalera l'incident au Centre national américain pour les enfants disparus et exploités (NCMEC). Il n'est pas clair avec quelles autres autorités nationales la société contactera en dehors des États-Unis, ni si les fonctionnalités seront disponibles en dehors des États-Unis.

Parmi les autres fonctionnalités annoncées par Apple, citons l'analyse des messages cryptés de bout en bout au nom des parents pour identifier lorsqu'un enfant reçoit ou envoie une photo sexuellement explicite, leur offrant des "ressources utiles" et rassurant les enfants qu'"il est d'accord s'ils ne veulent pas voir cette photo".

Image:

L'une des nouvelles fonctionnalités avertira les parents lorsque les enfants recevront ou enverront des messages sexuellement explicites

L'annonce a suscité l'inquiétude immédiate d'informaticiens respectés, dont Ross Anderson, professeur d'ingénierie à l'Université de Cambridge, et Matthew Green, professeur agrégé de cryptographie à l'Université Johns Hopkins.

Publicité

Le professeur Anderson a décrit l'idée comme "absolument épouvantable" pour le Financial Times, avertissant que "cela va conduire à une surveillance en masse distribuée de... nos téléphones et ordinateurs portables".

Le Dr Green – qui a annoncé le nouveau programme avant qu'Apple ne fasse une déclaration à ce sujet – a averti sur Twitter : « Quels que soient les plans à long terme d'Apple, ils ont envoyé un signal très clair.

En savoir plus sur Apple

Apple dit qu'il refusera les demandes du gouvernement d'utiliser le système de sécurité des enfants pour la surveillance

Un accord « historique » du G7 pour mettre fin à l'évasion fiscale mondiale des entreprises salué par les géants de la technologie Google et Facebook

Les pays du G7 s'apprêtent à conclure un accord historique pour taxer les géants de la technologie dans un plan qui "changerait le monde", selon le ministre allemand des Finances

Apple fait face à Epic Games dans un procès qui menace le contrôle de l'App Store

Facebook met en garde contre les bénéfices de la politique de confidentialité alors qu'Apple est aux prises avec une pénurie de puces

Les AirTags en tête de la gamme de nouveaux produits lors du premier événement Apple de 2021

« À leur avis (très influent), il est prudent de créer des systèmes qui analysent les téléphones des utilisateurs à la recherche de contenu interdit. Qu'ils aient raison ou tort sur ce point importe peu.

"Cela brisera le barrage - les gouvernements l'exigeront de tout le monde. Et au moment où nous découvrirons que c'était une erreur, il sera bien trop tard", a ajouté le Dr Green.

La critique n'a pas été universelle. John Clark, président et chef de la direction du NCMEC, a déclaré : « Nous savons que ce crime ne peut être combattu que si nous sommes déterminés à protéger les enfants. Nous ne pouvons le faire que parce que les partenaires technologiques, comme Apple, intensifient et dévouement connu."

L'ancien ministre de l'Intérieur Sajid Javid a tweeté qu'il était « ravi de voir Apple prendre des mesures significatives pour lutter contre les abus sexuels sur enfants ».

Parmi les autres personnes qui en ont fait l'éloge, citons le professeur Mihi Bellare, informaticien à l'Université de Californie à San Diego, Stephen Balkam, directeur général du Family Online Safety Institute et l'ancien procureur général américain Eric Holder.

Image:

Apple dit qu'il protégera la vie privée des utilisateurs tout en comparant les images

Apple a souligné à Sky News que le système de détection est conçu en tenant compte de la confidentialité des utilisateurs et qu'il ne peut fonctionner que pour identifier les images d'abus, telles que celles collectées par le NCMEC, et le fera sur l'appareil des utilisateurs - avant que l'image ne soit téléchargé sur iCloud.

Cependant, le Dr Green a averti que la façon dont le système fonctionnait - le téléchargement d'une liste d'empreintes digitales produites par le NCMEC qui correspondait à sa base de données d'images d'abus - introduisait de nouveaux risques de sécurité pour les utilisateurs.

"Celui qui contrôle cette liste peut rechercher le contenu qu'il veut sur votre téléphone, et vous n'avez vraiment aucun moyen de savoir ce qu'il y a sur cette liste car il est invisible pour vous (et juste un tas de nombres opaques, même si vous piratez votre téléphone pour obtenir la liste)."

"La théorie est que vous ferez confiance à Apple pour n'inclure que de très mauvaises images. Dites, des images organisées par le NCMEC. Vous feriez mieux de leur faire confiance, car la confiance est tout ce que vous avez", a ajouté le Dr Green.

Expliquant la technologie, Apple a déclaré: "Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l'appareil à l'aide d'une base de données de hachages d'images CSAM connus fournis par le NCMEC et d'autres organisations de sécurité des enfants."

Le système d'empreintes digitales utilisé par Apple s'appelle NeuralHash. Il s'agit d'une fonction de hachage perceptuelle qui crée des empreintes digitales pour les images d'une manière différente des fonctions de hachage cryptographiques traditionnelles.

Le hachage perceptif serait également utilisé par Facebook dans son programme qui stocke les images sexuelles privées des utilisateurs afin d'empêcher que ce matériel ne soit vu par des étrangers.

Image:

Les similitudes dans les images ne sont pas reconnues par l'algorithme MD5

Ces algorithmes de hachage sont conçus pour pouvoir identifier la même image même si elle a été modifiée ou altérée, ce que les hachages cryptographiques ne prennent pas en compte.

Image:

L'algorithme pHash reconnaît les similitudes dans les images

Les images ici utilisant l'algorithme de hachage cryptographique MD5 et l'algorithme de hachage perceptuel pHash le démontrent.

Dans un communiqué, Apple a déclaré : « Chez Apple, notre objectif est de créer une technologie qui responsabilise les gens et enrichit leur vie, tout en les aidant à rester en sécurité.

"Nous voulons aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de matériel pédopornographique."

"Ce programme est ambitieux et la protection des enfants est une responsabilité importante. Ces efforts évolueront et s'étendront au fil du temps", a ajouté Apple.

Articles populaires