#DataprivacyWeek Interview: surmonter les défis de confidentialité dans l'IA

Artificial intelligence (AI) promises benefits to humanity that would have scarcely seemed believable even a decade ago. From detecting cyber-threats in real-time and diagnosing diseases by processing vast volumes of data to facilitating the driverless car revolution, this technology's current and future potential is enormous.#DataPrivacyWeek Interview: Overcoming Privacy Challenges in AI #DataPrivacyWeek Interview: Overcoming Privacy Challenges in AI

Pourtant, avant que son plein potentiel ne soit déchaîné, un certain nombre de défis concernant l'utilisation de l'IA doivent être relevés.Beaucoup d'entre eux tournent autour de sa relation avec l'analyse des mégadonnées, ce qui remet en question le caractère sacré de la vie privée individuelle, en plus d'autres dilemmes éthiques.Pour discuter de ces questions et comment ils peuvent être surmontés, Infoscurity a rattrapé Katharina Koerner, membre principal de l'ingénierie de la vie privée à l'International Association of Privacy Professionals (IAPP), au cours de la Semaine des données de la vie privée de cette année.

What are the biggest privacy challenges you have observed relating to the growing use of artificial intelligence (AI)?

L'IA et les systèmes d'apprentissage automatique nécessitent de grandes quantités de données, et l'utilisation des mégadonnées semble être l'antithèse à la vie privée.Comment les organisations peuvent-elles tirer parti du plein potentiel de l'IA tout en protégeant la vie privée?Lors de la construction de systèmes AI et ML, les principes de confidentialité doivent être gardés en tête - et c'est ce que je considère comme le plus grand défi.Les principes de confidentialité exigent que les organisations minimisent la quantité d'informations personnelles qu'ils collectent et détiennent.Le but de la collecte des données doit être clair dès le début et, à quelques exceptions près, les données ne doivent être utilisées qu'à cette fin.De plus, le biais dans les systèmes d'IA peut entraîner une discrimination, nous voyons souvent un manque de transparence et d'explicabilité des algorithmes d'IA et il a conduit à de nouveaux problèmes de sécurité sur.Tous ces aspects, souvent résumés comme «dignes de confiance», «éthiques» ou «IA responsables», sont largement couverts par les réglementations en matière de confidentialité existantes et doivent être considérés.

What additional threats to privacy could/are manifesting due to increasing use of AI?

#DataPrivacyWeek Interview: Overcoming Privacy Challenges in AI

La reconnaissance faciale est un bon exemple de technologie basée sur l'IA avec des menaces à la vie privée.Il peut être exploité pour voler des identités, traquer les gens et créer des inconvénients sur le marché du travail.De plus, il peut être utilisé pour le marketing prédateur, est susceptible de générer de faux positifs et est souvent utilisé sans autorisation.Ce sont toutes des menaces pour notre vie privée.Encore plus préoccupant, nous ne pouvons pas réinitialiser notre biométrie comme les mots de passe s'il y a une violation de données.Les régulateurs sont conscients des risques, et nous avons constaté une augmentation des interdictions de la technologie en public dans le monde entier.Près de 200 (193) pays, dont la Chine, ont signé la recommandation de la première de l'UNESCO pour l'éthique de l'IA en novembre 2021, qui prévoyait la fin de l'IA pour «la notation sociale ou la surveillance de masse.»Au cours du même mois, Clearview IA a été poursuivi en Australie, au Royaume-Uni, au Canada et en France pour la collecte d'images et de données biométriques sans consentement presque simultanément.

Do you believe data privacy laws worldwide are currently sufficient to deal with these issues? Are you optimistic we are starting to see positive moves in this direction?

Actuellement, les principes de gouvernance de l'IA et les réglementations de confidentialité semblent fragmentés.Pourtant, en ce qui concerne le traitement des données personnelles, il y a en fait un grand chevauchement entre les principes non contraignants pour l'utilisation responsable de l'IA et les réglementations actuelles de confidentialité.De plus, les nouveaux règlements concernant l'IA comme l'UE Artificial Intelligence Act seront disponibles l'année prochaine, tandis que la Federal Trade Commission (FTC) a déposé une demande d'autorité de règlement sur la vie privée et l'IA.Ce mélange de réglementations, de lignes directrices et d'exigences deviendra très complexe mais devrait être complet.À mon avis, le vrai défi n'est pas tant le manque de réglementations mais la difficulté de les mettre en pratique.

Can AI technologies be designed in a way that protects individual privacy but does not stifle innovation in this area? How can this be achieved?

Oui, la confidentialité par conception pour les applications AI et les pipelines ML est possible.Il peut même faciliter la collaboration, la recherche et l'innovation.Dans un monde qui évolue autour de la confiance des consommateurs, la valeur des données personnelles est liée à son utilisation responsable.Le fondement des technologies de l'IA devrait être des processus de gouvernance appropriés qui mettent l'accent sur la vie privée et assure la conformité.Des évaluations appropriées d'impact sur la vie privée doivent être effectuées et les résultats doivent être traités.Les technologies améliorant la confidentialité, y compris la confidentialité différentielle et les données synthétiques, semblent très prometteuses pour atténuer les risques.Les technologies et les outils capables de répondre aux problèmes de confidentialité et de les traduire en choix de conception technique sont disponibles et sont de bonnes ressources pour compter sur.

Articles populaires