Commentaire : les mesures de protection de l'enfance d'Apple suscitent des réactions mitigées de la part des experts

Commentaire : les mesures de protection de l'enfance d'Apple suscitent des réactions mitigées de la part des experts

Ben Lovejoy

- 6 août 2021 6h12 PT

@benlovejoy

0

Facebook

Twitter

Pinterest

LinkedIn

Reddit

L'annonce hier de

Les mesures de protection des enfants d'Apple

confirmé

un rapport antérieur

que la société commencerait à rechercher des photos d'enfants maltraités sur les iPhones. La nouvelle a suscité des réactions mitigées de la part des experts en cybersécurité et en sécurité des enfants.

Quatre préoccupations avaient déjà été soulevées

avant que les détails ne soient connus, et l'annonce d'Apple concernait deux d'entre eux…

Problèmes d'analyse CSAM

Les préoccupations initiales comprenaient le fait que les signatures numériques pour le matériel d'abus sexuel d'enfants (CSAM) sont délibérément floues, pour permettre des choses comme des recadrages et d'autres ajustements d'image. Cela crée un risque de faux positifs, que ce soit par hasard (concerne un) ou par action malveillante (souci 2).

Apple y a répondu en annonçant que l'action ne serait pas déclenchée par une seule image correspondante. Ceux qui collectent de tels documents ont tendance à avoir plusieurs images, Apple a donc déclaré qu'un certain seuil serait requis avant qu'un rapport ne soit généré. La société n'a pas révélé le seuil, mais a déclaré qu'elle réduisait les risques de faux positif à moins d'un sur mille milliards. Personnellement, cela me satisfait complètement.

Cependant, deux autres risques subsistent.

L'Electronic Frontier Foundation (EFF)

a souligné le risque d'abus

, soulignant qu'il n'y a aucun moyen pour Apple ou les utilisateurs de vérifier les empreintes digitales. Un gouvernement peut

raconter

Apple qu'il ne contient que des hachages CSAM, mais il n'y a aucun moyen pour la société de le vérifier.

À l'heure actuelle, le processus est qu'Apple examinera manuellement les images signalées, et ce n'est que si l'examen confirme des contenus abusifs que l'entreprise transmettra les détails aux forces de l'ordre. Mais encore une fois, rien ne garantit que l'entreprise sera autorisée à continuer à suivre ce processus.

Universitaire de cryptographie Matthew Green

réitéré ce point

après ses tweets de pré-annonce.

L'EFF dit

c'est plus qu'un risque théorique :

A Hong Kong, par exemple,

critique du gouvernement chinois

est classé au même niveau que le terrorisme, et est passible de la réclusion à perpétuité.

Problèmes d'analyse d'iMessage

Des inquiétudes ont également été exprimées quant à l'analyse que les iPhones basés sur l'IA effectueront sur les photos dans iMessage. Cette analyse ne repose pas sur des signatures numériques, mais essaie plutôt d'identifier les photos nues sur la base de l'apprentissage automatique.

Encore une fois, Apple a des protections intégrées. Ce n'est que pour les photos de nus suspects. Elle n'affecte que les comptes enfants faisant partie des groupes familiaux. L'enfant est averti qu'un message entrant peut être inapproprié, puis choisit de le voir ou non. Aucun rapport externe n'est généré, seul un parent notifié le cas échéant.

Mais encore une fois, l'argument de la pente glissante est soulevé. Ce sont tous des contrôles qui s'appliquent actuellement, mais

l'EFF demande

Et si un gouvernement répressif obligeait Apple à changer les règles ?

L'organisation fait également valoir que les fausses correspondances sont un risque certain ici.

Encore une fois, ce n'est pas un problème avec la mise en œuvre actuelle d'Apple en raison des garanties incluses, mais la création d'une technologie capable d'analyser le contenu des messages privés présente un potentiel énorme d'abus futurs.

L'EFF met également en évidence un problème soulevé par certains experts en protection de l'enfance : qu'un parent ou un tuteur légal n'est pas toujours une personne sûre avec qui partager les messages privés d'un enfant.

Une partie de la discussion met en évidence que la corde raide délicate qu'Apple essaie de marcher. Par exemple, une protection est que les parents ne sont pas automatiquement alertés : l'enfant est d'abord averti, puis a le choix de voir ou non l'image. S'ils choisissent de ne pas le faire, aucune alerte n'est générée.

David Thiel

était l'un des nombreux à souligner le défaut évident :

Les mesures de protection des enfants d'Apple ne peuvent pas plaire à tout le monde

Tout le monde soutient ici les intentions d'Apple, et personnellement je suis entièrement satisfait du seuil de protection contre les faux positifs. Les autres garanties d'Apple sont également réfléchies et devraient être efficaces. L'entreprise doit être applaudie pour avoir essayé de résoudre un problème grave de manière prudente.

Dans le même temps, les risques de pente glissante sont bien réels. Il est extrêmement courant pour un gouvernement – ​​même relativement bénin – de se laisser aller à la dérive missionnaire. Il introduit d'abord une loi à laquelle personne ne pouvait raisonnablement s'opposer, puis en élargit la portée, parfois à la manière d'un salami, une tranche à la fois. C'est particulièrement dangereux dans les régimes autoritaires.

A l'inverse, on pourrait affirmer qu'en rendant ce système public, Apple vient de faire un signe de la main. Désormais, toute personne ayant CSAM sur son iPhone sait qu'elle doit désactiver iCloud, et les agresseurs savent que s'ils veulent envoyer des nus à des enfants, ils ne doivent pas utiliser iMessage. Vous pourriez donc affirmer qu'Apple ne devrait pas du tout faire cela, ou vous pourriez affirmer qu'il aurait dû le faire sans le dire à personne.

La réalité est qu'il n'y a pas de solution parfaite ici, et chaque position qu'Apple pourrait adopter comporte à la fois des avantages et des risques.

Hier, avant que tous les détails ne soient connus, la grande majorité d'entre vous

opposé au mouvement

. Où en êtes-vous maintenant que les détails – et les garanties – sont connus ? Veuillez à nouveau participer à notre sondage et partager vos réflexions dans les commentaires.

Participez à notre sondage

Photo:

David Watkis

/

Unsplash

FTC : Nous utilisons des liens d'affiliation automatique qui génèrent des revenus.

Suite.

Découvrez 9to5Mac sur YouTube pour plus d'actualités Apple :

Vous lisez 9to5Mac, des experts qui annoncent jour après jour l'actualité d'Apple et de son écosystème environnant. Assurez-vous de vérifier

notre page d'accueil

pour toutes les dernières nouvelles, et suivez 9to5Mac sur

Twitter

,

Facebook

, et

LinkedIn

pour rester dans la boucle. Vous ne savez pas par où commencer ? Consultez notre

histoires exclusives

,

Commentaires

,

Mode d'emploi

, et

abonnez-vous à notre chaîne YouTube

Guides

Société AAPL

Dernières nouvelles de Cupertino. Nous vous donnerons les dernières nouvelles du siège d'Apple et déchiffrerons les faits de la fiction du moulin à rumeurs.

Intimité

La confidentialité est une préoccupation croissante dans le monde d'aujourd'hui. Suivez toute notre couverture liée à la confidentialité, à la sécurité et plus encore dans notre guide.

Avis

A propos de l'auteur

Ben Lovejoy

@benlovejoy

Ben Lovejoy est un rédacteur technologique britannique et un éditeur européen pour 9to5Mac. Il est connu pour ses éditoriaux et ses journaux intimes, explorant son expérience des produits Apple au fil du temps, pour une critique plus complète. Il écrit également de la fiction, avec deux romans technothriller, quelques courts métrages de SF et une comédie romantique !

L'équipement préféré de Ben Lovejoy

NordVPN

Apple Watch série 3

Articles populaires