Le Congrès américain tente de décoder les algorithmes - Lexology

Une vague de lois et d'audiences à Capitol Hill visant à protéger les consommateurs en imposant un examen minutieux et des garanties à l'utilisation de l'IA par les plateformes

"Manipulation." "Ciblage". "Persuasion."

Ce sont quelques-uns des termes fréquemment invoqués dans la capitale nationale en ce qui concerne l'utilisation croissante de la prise de décision automatisée par les médias sociaux et d'autres entreprises technologiques et son impact sur la vie de millions de personnes aux États-Unis et dans le monde.

L'inquiétude du Congrès à propos de ces questions s'est récemment intensifiée à la suite du témoignage à l'automne 2021 de la dénonciatrice de Facebook Frances Haugen et de la publication ultérieure des «Facebook Papers», une mine de documents révélant les propres résultats de la recherche interne de l'entreprise sur les politiques et la société de la plate-forme. effets.

La façon dont les plateformes utilisent des algorithmes pour cibler les utilisateurs avec un contenu spécialisé est un problème qui reçoit une attention bipartite dans les deux chambres du Capitole. Il reste à voir si cette augmentation de considération se traduira par des mesures législatives concrètes, mais le volume de nouvelles lois et l'intérêt pour le sujet augmentent la probabilité qu'une sorte de mesure législative soit prise cette année.

Une tendance se dégage des audiences récentes et de la législation qui s'accumule dans la trémie : de nombreux élus (et leurs employés) se familiarisent de plus en plus avec le fonctionnement des entreprises de médias sociaux en tant que modèle commercial et comprennent de plus en plus les implications de la technologie sur les consommateurs.

Ces dernières années, les membres du Congrès semblaient parfois déplacés face aux dirigeants d'entreprises technologiques lors d'auditions de haut niveau. La caractérisation a toujours été quelque peu injuste, car un groupe de législateurs réfléchit depuis quelques années aux implications de l'IA et avertit leurs collègues et électeurs de la nécessité de créer un régime réglementaire - essentiellement à partir de rien. Ce corps de législateurs engagés et compétents ne cesse de s'agrandir.

S'il reste à déterminer précisément quelle forme prendra le régime réglementaire naissant, il y a fort à parier que les entreprises devront se préparer à de nouvelles responsabilités de conformité et à de nouvelles exigences de transparence.

US Congress tries to decode algorithms - Lexology

Thèmes législatifs récurrents

Jusqu'en 2021, plus de 30 projets de loi ont été présentés à la Chambre et au Sénat avec un accent particulier sur la réglementation des algorithmes. Et cela n'inclut pas d'innombrables références supplémentaires aux algorithmes, à l'IA, à l'apprentissage automatique et à la prise de décision automatisée intégrées dans un large éventail de crédits et de factures d'autorisation, reflet de la prévalence de ces technologies dans de nombreux domaines.

Deux des caractéristiques communes à de nombreuses propositions législatives de 2021 sont les suivantes :

Rôle élargi de la FTC. Dans la prépondérance des propositions, la Federal Trade Commission est l'agence chargée de faire appliquer les dispositions de la législation et de promulguer les règlements, compte tenu de ses responsabilités en matière de protection des consommateurs et de promotion de la concurrence. Par exemple, la législation bipartite du Sénat annoncée le 9 décembre (mais pas encore introduite), la Platform Accountability and Transparency Act (PATA), obligerait les sociétés de médias sociaux à fournir aux chercheurs indépendants et au public un accès à certaines données de la plateforme. En vertu du projet de loi diffusé par les parrains du Sénat, les entreprises qui ne se conforment pas seraient soumises à l'application de la loi par la FTC et pourraient perdre leur immunité en vertu de l'article 230 de la Communications Decency Act. De plus, le projet de loi donnerait à la FTC le pouvoir d'exiger que les plateformes mettent de manière proactive certaines informations à la disposition des chercheurs ou du public sur une base continue, comme une bibliothèque publicitaire complète avec des informations sur le ciblage et l'engagement des utilisateurs.

Réforme de l'article 230. La disposition susmentionnée de la Communications Decency Act de 1996 prévoit généralement l'immunité pour les plateformes de sites Web qui publient des informations provenant de contenus tiers. Les législateurs des deux partis ont demandé que l'article 230 soit modifié ou révisé en réponse aux événements récents, bien que la question soit souvent abordée sous des angles idéologiques différents par les représentants des partis politiques respectifs.

Autres propositions clés

Comme suggéré ci-dessus, de nombreux projets de loi à la Chambre et au Sénat qui ont été proposés pour réglementer la manière dont les algorithmes sont utilisés et contrôlés ont été parrainés par les présidents et les membres minoritaires des comités de juridiction les plus influents, augmentant les chances qu'au moins certains de ces initiatives ont une réelle chance d'aboutir. En plus des projets de loi cités ci-dessus, voici un aperçu de quelques-unes du nombre croissant de propositions actuellement en attente à la Chambre et au Sénat.

En outre, la législation connue sous le nom de Algorithmic Accountability Act of 2019, présentée lors de la précédente session du Congrès à la Chambre et au Sénat, représentait l'une des approches réglementaires les plus étendues de l'IA jamais introduites au niveau fédéral. La proposition exigeait que des entités commerciales spécifiées effectuent des évaluations des systèmes à haut risque qui impliquent des informations personnelles ou prennent des décisions critiques automatisées, telles que les systèmes qui utilisent l'IA ou l'apprentissage automatique. Ceux-ci incluent des systèmes de décision qui peuvent contribuer à l'inexactitude, à la partialité ou à la discrimination ou qui peuvent faciliter la prise de décision dans tous les secteurs sur des aspects sensibles de la vie des consommateurs en évaluant le comportement des consommateurs. Le projet de loi n'a pas avancé au Congrès précédent, mais ses parrains ont indiqué qu'ils prévoyaient de réintroduire la mesure dans un proche avenir.

Avec autant de réglementations et de lois potentielles à l'horizon, il est difficile de prédire lesquelles se produiront. Mais ce qui ressort comme un thème constant dans ces efforts, des deux côtés de l'allée, c'est l'attention accrue portée aux algorithmes et le rôle croissant qu'ils jouent dans nos vies. Les entreprises qui adoptent de telles technologies seraient bien avisées de s'attendre à une certaine forme de réglementation, probablement par le biais de la FTC et d'autres agences ayant des compétences qui se chevauchent, et de concevoir à l'avance les meilleures pratiques en matière de données représentatives, de contrôles contre les biais et de tests, de validation et de produit total conformes aux normes de l'industrie. suivi et validation du cycle de vie. DLA Piper continuera de surveiller ces développements sur la Colline, dans la common law et dans toutes les industries pour guider ses clients vers l'avant.

Articles populaires