Publié le 24 avril 2024, modifié le 7 mai 2024 par Alexandre Duval

En octobre dernier, le R Street Institute a produit une « Perspectives législatives sur l’intelligence artificielle », qui résumait de nombreux projets de loi fédéraux et cadres législatifs proposés pour régir les systèmes et processus algorithmiques. Depuis lors, les propositions législatives liées à l’intelligence artificielle (IA) n’ont cessé de croître à tous les niveaux de gouvernement : selon un système de suivi, 685 projets de loi sont actuellement en attente aux États-Unis, dont 102 sont des projets de loi fédéraux.

Cette mise à jour législative se concentre sur trois des plus importantes propositions fédérales de gouvernance de l’IA présentées récemment. Il est positif que la plupart des nouveaux projets de loi majeurs évitent les systèmes formels de licences d’IA ou les grandes bureaucraties technocratiques. Ces deux idées réglementaires ne devraient pas être lancées pour diverses raisons. Les systèmes de licences ouvriraient la porte à des exigences de conformité lourdes et bureaucratiques qui pourraient étouffer l’innovation en matière d’IA, nuisant ainsi à la concurrence et à la compétitivité mondiale de manière plus générale. En outre, la nature coûteuse et controversée des systèmes de licences imposés d’en haut et des nouvelles agences de régulation susciterait une opposition considérable et donnerait lieu à de longues batailles politiques. Cela retarderait – et pourrait même faire dérailler – la probabilité de parvenir à un consensus législatif.

Le triomphe du « Soft Law »

Les récentes propositions de gouvernance de l’IA semblent prendre en compte ces problèmes, se concentrant plutôt sur l’exploitation des approches de gouvernance « soft law » existantes (bien qu’avec diverses conditions). La soft law fait référence à des outils et mécanismes de gouvernance non contraignants tels que les processus multipartites, les meilleures pratiques volontaires, les normes industrielles, les mécanismes de surveillance par des tiers et les documents d'orientation gouvernementaux, entre autres outils et stratégies. Au cours des dernières décennies, les mécanismes de droit non contraignant sont devenus des approches de gouvernance dominantes pour l’Internet et les marchés numériques, car ces processus peuvent évoluer rapidement et avec flexibilité pour répondre à diverses préoccupations politiques en évolution rapide.

Toutefois, les acteurs gouvernementaux jouent un rôle important dans l’élaboration du soft law. Au cours des 20 dernières années, deux agences du ministère américain du Commerce – la National Telecommunications and Information Administration (NTIA) et le National Institute of Standards and Technology (NIST) – ont accompli un travail important pour faciliter les efforts multipartites en cours visant à élaborer des normes. et les meilleures pratiques qui abordent une variété de questions complexes de gouvernance numérique.

Plus précisément, le NIST a développé un cadre complet de gestion des risques liés à l'IA (AI RMF), un cadre de gouvernance volontaire, consensuel et itératif pour aider les développeurs d'IA à gérer les risques au fil du temps en consultation avec diverses autres parties prenantes. L'AI RMF s'appuie sur les cadres de gouvernance antérieurs du NIST pour la cybersécurité et la confidentialité.

Ces approches de gouvernance non contraignantes sont importantes car de nombreuses nouvelles propositions législatives sur l’IA cherchent à les exploiter d’une manière ou d’une autre, en particulier le NIST AI RMF. En d’autres termes, ces nouveaux projets de loi mélangent des éléments de droit dur et de droit souple pour répondre aux préoccupations politiques algorithmiques. Cela pourrait être un moyen utile d’aborder la politique en matière d’IA de manière plus agile et itérative, mais si les propositions vont trop loin dans le sens du droit dur, cela pourrait faire dérailler les avantages des mécanismes de gouvernance non contraignants plus flexibles développés dans le passé. décennie.

Comparaison de trois nouveaux cadres complets de gouvernance de l'IA

Trois nouveaux projets de loi notables du Sénat liés à l'IA fusionnent des éléments de droit dur et souple pour la gouvernance de l'IA. Présentée fin février par les sénateurs Mark Warner (Démocrate de Virginie) et Marsha Blackburn (Républicaine du Tennessee), la « Promoting United States Leadership in Standards Act of 2024 » exigerait que le NIST soumette au Congrès un rapport identifiant les États-Unis actuels. participation aux activités d’élaboration de normes pour l’IA et d’autres technologies critiques. Le NIST serait également tenu de créer un nouveau portail identifiant les efforts de normalisation internationaux pertinents. Cette mesure créerait également un programme pilote de 10 millions de dollars pour l’organisation de réunions sur les normes liées à l’IA.

Cet ensemble de propositions relativement peu controversées améliorerait l'approche actuelle utilisée par le NIST et la NTIA pour construire un consensus multipartite au moyen de meilleures pratiques volontaires et de normes mondiales. La mesure a suscité un large soutien de l’industrie.

Un nouveau projet de loi présenté la semaine dernière par les sénateurs Maria Cantwell (Démocrate-Wash.) et Todd Young (R-Ind.) irait beaucoup plus loin que le projet de loi Warner-Blackburn. La « Loi sur l’innovation sur l’avenir de l’intelligence artificielle de 2024 » bénit officiellement le nouvel Institut américain de sécurité de l’IA hébergé au sein du NIST. Lancé en février par le ministère du Commerce, ce partenariat public-privé vise à créer des normes collaboratives et des bonnes pratiques pour la sécurité de l'IA. Alors que le projet de loi Cantwell-Young souligne que ce système doit rester ancré dans des normes volontaires, il pousse le NIST à travailler avec d'autres agences fédérales pour coordonner les mesures, les références et les méthodologies d'évaluation de la sécurité de l'IA sur diverses questions. Le projet de loi appelle également à davantage de partage d’informations avec les alliés internationaux sur les préoccupations liées à la sécurité de l’IA et, comme le projet de loi Warner-Blackburn, appelle à des efforts pour promouvoir des normes mondiales communes en matière d’IA.

La mesure Cantwell-Young comprend des bancs d’essai en partenariat public-privé pour évaluer la sécurité du système et rendre plus largement disponibles les découvertes bénéfiques de l’IA. Cela créerait également de nouveaux concours de « grand défi » pour encourager l’innovation algorithmique et robotique. Le projet de loi comprend d’autres efforts de politique industrielle visant à promouvoir divers types de développement de l’IA. Il est important de noter que le projet de loi appelle également à un nouveau rapport gouvernemental sur « l'identification des obstacles réglementaires à l'innovation », qui comprendrait « des exemples significatifs de lois et de réglementations fédérales qui affectent directement l'innovation des systèmes d'intelligence artificielle, y compris la capacité des entreprises de toutes tailles à être compétitif dans le domaine de l’intelligence artificielle » et « tiendrait également compte de l’effet des normes volontaires et des meilleures pratiques élaborées par le gouvernement fédéral ».

Enfin, la « Loi de 2023 sur la recherche, l'innovation et la responsabilité en matière d'intelligence artificielle », présentée à la fin de l'année dernière par les sénateurs John Thune (RS.D.) et Amy Klobuchar (Démocrate-Minn.), s'appuie également sur le NIST AI RMF, mais va beaucoup plus loin que le projet de loi Cantwell-Young. Le projet de loi Thune-Klobuchar établirait un processus d’évaluation à plusieurs niveaux pour les systèmes d’IA « à impact critique » par rapport aux systèmes d’IA « à fort impact » légèrement moins sensibles. La mesure nécessiterait différents niveaux de surveillance gouvernementale pour chaque ensemble d’applications d’IA.

Ce faisant, les meilleures pratiques et les normes volontaires développées par le NIST dans le cadre de processus multipartites prendraient une plus grande importance et entraîneraient la menace d'amendes ou de mesures réglementaires si les développeurs ne suivaient pas les nouvelles politiques fédérales d'autocertification pour garantir le respect de ces normes. Le projet de loi Thune-Klobuchar comprend également des exigences d'étiquetage pour les plateformes numériques afin d'indiquer clairement si elles utilisent l'IA générative pour créer du contenu pour les utilisateurs.

Où tracer la ligne de démarcation entre droit dur et droit doux

Encore une fois, les trois mesures mélangent à des degrés divers des techniques de gouvernance strictes et souples. Les projets de loi poussent tous au développement continu de meilleures pratiques volontaires pour la sécurité de l’IA, mais envisagent également un rôle élargi du gouvernement dans la formulation ou l’orientation de ces politiques. Cela laisse une grande latitude politique au NIST et à la NTIA pour déterminer la portée et la nature de ces normes. Le projet de loi Warner-Blackburn constitue l'approche la plus ouverte et la moins restrictive, tandis que le projet de loi Thune-Klobuchar est l'approche la plus détaillée et potentiellement réglementaire. Le projet de loi Cantwell-Young se situe entre les deux.

Cette décision visant à élargir les partenariats public-privé sur les normes d’IA et à obliger le gouvernement à diriger les processus de soft law de manière plus agressive inquiète certains analystes, qui craignent que l’ingérence supplémentaire du gouvernement dans les normes techniques ne favorise une relation chaleureuse entre les grandes entreprises et les bureaucrates gouvernementaux. La « captation de la réglementation » est une préoccupation légitime qui existe depuis longtemps dans le secteur des technologies de l’information, car des intérêts puissants ont utilisé à plusieurs reprises les systèmes de réglementation pour limiter le choix, la concurrence et l’innovation. De plus, chaque mesure prise par les législateurs pour « ajouter du mordant » au cadre du NIST le rapproche de la transformation d’un régime de réglementation formel et potentiellement lourd au lieu du processus volontaire et très flexible qui l’a rendu si populaire jusqu’à présent.

Plus inquiétant est la possibilité que l’influence élargie du gouvernement sur les systèmes algorithmiques soit « militarisée », de sorte que le gouvernement s’appuiera sur les innovateurs en matière d’IA pour punir les discours ou contenus défavorisés de certaines personnes ou organisations. C’est une chose pour les responsables gouvernementaux d’encourager le développement de meilleures pratiques en matière de sécurité de l’IA, mais c’en est une autre pour les décideurs politiques de transformer ce processus en un régime de réglementation détourné, ce qui non seulement saperait l’innovation, mais pourrait aussi manquer de responsabilité juridique.

Malgré ces dangers, l’approche envisagée par ces nouveaux projets de loi du Sénat serait bien moins onéreuse en pratique que les propositions plus radicales visant à imposer des systèmes d’autorisation de l’IA par le biais de nouvelles bureaucraties réglementaires importantes. Ces propositions sont également préférables aux efforts qui exigeraient des audits algorithmiques ou des évaluations d’impact, créant ainsi des exigences administratives coûteuses et soulevant diverses préoccupations liées à la parole et à la propriété intellectuelle.

Il est important de noter que ces projets de loi verraient également le pouvoir législatif exercer au moins un petit degré de contrainte sur les efforts trop zélés de l’administration Biden pour ouvrir sa propre voie en matière de réglementation de l’IA. Avec son récent décret de plus de 100 pages sur l’IA et d’autres actions majeures, l’administration semble déterminée à élaborer unilatéralement des réglementations de grande envergure sur l’IA sans l’autorisation formelle du Congrès.

Une législation fédérale à grande échelle sur l’IA est-elle possible ?

Il reste difficile de savoir si ces nouvelles mesures pourront progresser, étant donné que le temps législatif s'accélère au cours de cette année électorale et que de nombreuses autres priorités politiques sont en débat. La complexité de la politique en matière d’IA et de ces projets de loi rend également l’action difficile. Comme l’a soutenu une précédente analyse législative de R Street, « il existe probablement une relation inverse entre la nature ambitieuse des propositions en matière d’IA et la possibilité que quelque chose avance au Congrès cette session ». Le sénateur Warner l’a bien exprimé en disant à un journaliste : « Si nous essayons d’aller trop loin, nous risquons de trouver des œufs d’oie. »

La tentation de « voir grand » avec des projets de loi complets s’avérera probablement compliquée et difficile en pratique. Il existe actuellement de nombreuses autres mesures liées à l’IA, plus ciblées et qui pourraient avoir de meilleures chances de succès à court terme. La surveillance des utilisations gouvernementales de l’IA est un sujet qui fait l’objet d’un grand consensus. La loi fédérale sur la gouvernance et la transparence de l'IA (HR 7532), présentée par le président du comité de la Chambre sur la surveillance et la responsabilité, James Comer (R-Ky.) et le membre de classement Jamie Raskin (D-Md.), limiterait son attention à la manière dont les agences fédérales devraient utiliser des systèmes d’IA. Encore une fois, le projet de loi Thune-Klobuchar contient des exigences similaires pour un examen gouvernemental de la manière dont les agences utilisent les systèmes d'IA. Cette focalisation ciblée sur l’utilisation gouvernementale des systèmes d’IA a de meilleures chances de gagner un large soutien.

Une autre chose que le Congrès pourrait faire immédiatement serait d’examiner attentivement la surréglementation étatique et locale des marchés de l’IA et d’envisager de limiter ces efforts. Malheureusement, aucune des principales propositions d’IA actuellement à l’étude ne vise à anticiper la mosaïque croissante de réglementations nationales et locales. Avec 583 mesures étatiques actuellement en attente, le danger existe qu’une mosaïque confuse de charges de conformité coûteuses puisse nuire au développement d’un marché national robuste pour les innovations algorithmiques.

Categories: IA

Alexandre Duval

Alexandre Duval

S’abonner
Notification pour
guest

Commentaires
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x