Le projet d'Apple de scanner les iPhones américains soulève des drapeaux rouges sur la confidentialité

Apple a

a annoncé son intention d'analyser les iPhones à la recherche d'images de maltraitance d'enfants

, soulevant des inquiétudes immédiates concernant

confidentialité et surveillance des utilisateurs

avec le déménagement.

L'iPhone d'Apple est-il devenu un iSpy ?

Apple affirme que son système est automatisé, ne scanne pas les images elles-mêmes, utilise une forme de système de données de hachage pour identifier les cas connus de matériel pédopornographique (CSAM) et affirme avoir mis en place des sécurités pour protéger la confidentialité.

Les défenseurs de la protection de la vie privée avertissent que maintenant qu'il a créé un tel système, Apple est sur un chemin semé d'embûches vers une extension inexorable de l'analyse et des rapports de contenu sur l'appareil qui pourraient - et seront probablement - abusés par certains pays.

Ce que fait le système d'Apple

Le système comprend trois éléments principaux, qui se cacheront dans iOS 15, iPadOS 15 et macOS Monterey lors de leur livraison plus tard cette année.

Numérisation de vos images

Le système d'Apple analyse toutes les images stockées dans iCloud Photos pour voir si elles correspondent à la base de données CSAM détenue par le

Centre national pour les enfants disparus et exploités

(NCMEC).

Les images sont numérisées sur l'appareil à l'aide d'une base de données de hachages d'images CSAM connus fournis par le NCMEC et d'autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs.

Lorsqu'une image est stockée sur iCloud Photos, un processus de correspondance a lieu. Dans le cas où un compte dépasse un seuil de plusieurs instances de contenu CSAM connu, Apple est alerté. En cas d'alerte, les données sont examinées manuellement, le compte est désactivé et le NCMEC est informé.

Le système n'est cependant pas parfait. L'entreprise affirme qu'il y a moins d'une chance sur un milliard de signaler de manière incorrecte un compte. Apple compte plus d'un milliard d'utilisateurs, ce qui signifie qu'il y a plus d'une chance sur 1 000 qu'une personne soit incorrectement identifiée chaque année. Les utilisateurs qui estiment avoir été signalés par erreur peuvent faire appel.

Les images sont numérisées sur l'appareil.

Analyser vos messages

Le système d'Apple utilise l'apprentissage automatique sur l'appareil pour analyser les images dans les messages envoyés ou reçus par des mineurs à la recherche de contenu sexuellement explicite, avertissant les parents si de telles images sont identifiées. Les parents peuvent activer ou désactiver le système, et tout contenu de ce type reçu par un enfant sera flou.

Si un enfant tente d'envoyer du contenu sexuellement explicite, il sera averti et les parents pourront en être informés. Apple dit qu'il n'a pas accès aux images, qui sont numérisées sur l'appareil.

Regarder ce que vous recherchez

La troisième partie consiste en des mises à jour de Siri et de Search. Apple dit que ceux-ci fourniront désormais aux parents et aux enfants des informations plus complètes et de l'aide s'ils rencontrent des situations dangereuses. Siri et Search interviendront également lorsque des personnes effectueront des requêtes de recherche considérées comme liées au CSAM, expliquant que l'intérêt pour ce sujet est problématique.

Apple nous informe utilement que son programme est « ambitieux » et que les efforts « évolueront et s'étendront au fil du temps ».

Quelques données techniques

La société a

a publié un livre blanc technique détaillé

cela explique un peu plus concernant son système. Dans le papier, il s'efforce de rassurer les utilisateurs qu'il n'apprend rien sur les images qui ne correspondent pas à la base de données,

La technologie d'Apple, appelée NeuralHash, analyse les images CSAM connues et les convertit en un numéro unique spécifique à chaque image. Seule une autre image qui semble presque identique peut produire le même nombre ; par exemple, les images qui diffèrent en taille ou en qualité transcodée auront toujours la même valeur NeuralHash.

Au fur et à mesure que les images sont ajoutées aux photos iCloud, elles sont comparées à cette base de données pour identifier une correspondance.

Si une correspondance est trouvée, un bon de sécurité cryptographique est créé, ce qui, si je comprends bien, permettra également à un examinateur Apple de déchiffrer et d'accéder à l'image incriminée au cas où le seuil d'un tel contenu est atteint et qu'une action est requise.

"Apple est capable d'apprendre les informations d'image pertinentes uniquement une fois que le compte a plus d'un nombre seuil de correspondances CSAM, et même alors, uniquement pour les images correspondantes", conclut le document.

Apple n'est pas unique, mais l'analyse sur l'appareil peut être

Apple n'est pas le seul à être obligé de partager des images de CSAM avec les autorités. Selon la loi, toute entreprise américaine qui trouve de tels éléments sur ses serveurs doit collaborer avec les forces de l'ordre pour enquêter sur ces éléments. Facebook, Microsoft et Google disposent déjà de technologies qui analysent ces documents partagés sur des plates-formes de courrier électronique ou de messagerie.

La différence entre ces systèmes et celui-ci est que l'analyse a lieu sur l'appareil, et non sur les serveurs de l'entreprise.

Apple a toujours affirmé que ses plates-formes de messagerie étaient cryptées de bout en bout, mais cela devient une petite affirmation sémantique si le contenu de l'appareil d'une personne est analysé avant même que le cryptage n'ait lieu.

La protection de l'enfance est, bien sûr, quelque chose que la plupart des gens rationnels soutiennent. Mais ce qui inquiète les défenseurs de la vie privée, c'est que certains gouvernements peuvent maintenant tenter de forcer Apple à rechercher d'autres documents sur les appareils des gens.

Un gouvernement qui interdit l'homosexualité pourrait exiger un tel contenu est également surveillé, par exemple. Que se passe-t-il si un adolescent d'un pays qui interdit les activités sexuelles non binaires demande à Siri de l'aider à faire son coming-out ? Et qu'en est-il des appareils d'écoute d'ambiance discrets, comme les HomePods ? Il n'est pas clair que le composant lié à la recherche de ce système y soit déployé, mais il est concevable que ce soit le cas.

Et on ne sait pas encore comment Apple sera en mesure de se protéger contre une telle fuite de mission.

Les défenseurs de la vie privée sont extrêmement alarmés

La plupart des défenseurs de la vie privée estiment qu'il existe un risque important de dérive de la mission inhérente à ce plan, qui ne fait rien pour maintenir la croyance en l'engagement d'Apple envers la confidentialité des utilisateurs.

Comment un utilisateur peut-il sentir que la vie privée est protégée si l'appareil lui-même les espionne et qu'il n'a aucun contrôle sur la manière dont ?

Les

Fondation de la frontière électronique

(EFF) prévient que ce plan crée effectivement une porte dérobée de sécurité.

« Quand Apple développe une technologie capable d'analyser du contenu crypté, vous ne pouvez pas simplement dire : « Eh bien, je me demande ce que le gouvernement chinois ferait avec cette technologie ». Ce n'est pas théorique », a prévenu le professeur John Hopkins

Matthieu Vert

.

Arguments alternatifs

Il y a d'autres arguments. L'un des plus convaincants d'entre eux est que les serveurs des FAI et des fournisseurs de messagerie sont déjà analysés pour un tel contenu, et qu'Apple a construit un système qui minimise l'implication humaine et ne signale un problème que dans le cas où il identifie plusieurs correspondances entre la base de données CSAM et contenu sur l'appareil.

Il ne fait aucun doute que les enfants sont en danger.

Sur les près de 26 500 fugueurs signalés au NCMEC en 2020, un sur six était probablement victime de trafic sexuel d'enfants. Le CyberTipline de l'organisation (auquel j'imagine qu'Apple est connecté dans ce cas) a reçu

plus de 21,7 millions de rapports

liés à une forme de CSAM en 2020.

John Clark, président et chef de la direction du NCMEC,

mentionné

: « Avec autant de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont un potentiel de sauvetage pour les enfants qui sont attirés en ligne et dont les images horribles circulent dans CSAM. Au Centre national pour les enfants disparus et exploités, nous savons que ce crime ne peut être combattu que si nous restons déterminés à protéger les enfants. Nous ne pouvons le faire que parce que les partenaires technologiques, comme Apple, se mobilisent et font connaître leur engagement. »

D'autres disent qu'en créant un système pour protéger les enfants contre des crimes aussi flagrants, Apple supprime un argument que certains pourraient utiliser pour justifier les portes dérobées des appareils dans un sens plus large.

La plupart d'entre nous conviennent que les enfants doivent être protégés, et ce faisant, Apple a érodé cet argument que certains gouvernements répressifs pourraient utiliser pour forcer les choses. Maintenant, il doit s'opposer à toute dérive de mission de la part de tels gouvernements.

Ce dernier défi est le plus gros problème, étant donné qu'Apple, lorsqu'il est poussé, sera toujours

suivre les lois des gouvernements des pays dans lesquels il fait des affaires

.

« Peu importe à quel point Apple est bien intentionné, Apple déploie une surveillance de masse dans le monde entier avec cela », a averti le célèbre défenseur de la vie privée.

Edward Snowden

. S'ils peuvent rechercher CSAM aujourd'hui, "ils peuvent rechercher n'importe quoi demain".

Merci de me suivre sur

Twitter

, ou rejoignez-moi dans le

Bar & grill AppleHolic

et

Discussions Apple

groupes sur MeWe.

Articles populaires