Home À LA UNE Régulation de l’IA: «SB-1047», ce projet de loi qui secoue le secteur...

Régulation de l’IA: «SB-1047», ce projet de loi qui secoue le secteur en Californie

ChatGPT chatbot by OpenAI - artificial intelligence

 

Aux États-Unis, l’État de Californie, berceau mondial du développement de la tech, pourrait voter une loi visant à réguler les puissants modèles d’intelligence artificielle (IA). Ce projet de loi, bien que largement amendé, continue à faire grincer des dents de certains élus et des entreprises comme OpenAI ou Anthropic. Ces dernières craignent que l’innovation dans ce domaine soit bridée. Après avoir été approuvé par le Sénat, le texte devrait être soumis au vote de l’Assemblée californienne cette semaine.

« S’ils ne sont pas correctement soumis aux contrôles humains, les prochains développements de l’intelligence artificielle pourraient être utilisés pour créer de nouvelles menaces à la sûreté et à la sécurité publiques, en permettant notamment la création et la prolifération d’armes de destruction massive, telles que des armes biologiques, chimiques et nucléaires. » Cette phrase qui fait froid dans le dos figure dans l’un des tout premiers paragraphes du texte « SB-1047 » (SB pour Senate Bill, projet de loi du Sénat).

Le texte porte sur « l’innovation sûre et sécurisée des modèles d’intelligence artificielle de pointe (Safe and Secure Innovation for Frontier Artificial Intelligence Models Act) ». Il ambitionne de réguler l’IA générative, c’est-à-dire les outils permettant de créer des contenus comme des textes ou des images sur simple requête en langage courant. Mais au-delà d’applications telles que ChatGPT, l’IA a le potentiel d’aller beaucoup plus loin. Elle pourrait résoudre des problèmes importants, en médecine par exemple, mais aussi en causer.

La proposition de loi vise ainsi à empêcher les grands modèles d’IA de provoquer des catastrophes majeures qui entraîneraient la mort d’un grand nombre de personnes ou des incidents de cybersécurité de taille s’ils tombaient dans les mains de personnes malveillantes. Mais réguler l’IA n’est pas du goût des géants du secteur, comme OpenAi ou l’un de ses concurrents, Anthropic.

Bataille d’influence entre les géants de l’IA et le sénateur Scott Wiener

Le projet de loi se trouve au cœur d’une féroce bataille d’influence entre ces entreprises et Scott Wiener, le sénateur démocrate qui porte ce projet de loi en Californie, coécrit par Richard Roth, Susan Rubio et Henry Stern, tous trois également sénateurs démocrates. Depuis son dépôt au Sénat le 7 février dernier, le texte a été tellement amendé qu’il en est actuellement à sa dixième version, loin du texte originel. De là à dire qu’il a été vidé de sa substance ?

Certes, Scott Wiener a assoupli le texte d’origine, suivant notamment les conseils d’Anthropic, une start-up basée à San Francisco. La version actuelle du texte accorde moins de pouvoir qu’initialement prévu aux autorités californiennes pour obliger les sociétés d’IA à rendre des comptes ou pour les poursuivre en justice. Si la loi était votée, les développeurs de grands modèles d’IA devraient toutefois tester leurs systèmes et simuler des cyberattaques, sous peine d’amende, mais sans la menace de conséquences pénales. La création d’une nouvelle agence de régulation a également été annulée, au profit d’un organisme chargé de déterminer des normes pour les modèles d’IA les plus avancés.

Sans surprise, OpenAI, le créateur de ChatGPT, s’est prononcé contre le texte « SB-1047 », assurant qu’il risquait de faire fuir les innovateurs de l’État américain et sa fameuse Silicon Valley alors que « la révolution de l’IA commence à peine ». Dans une lettre adressée courant août à Scott Wiener, l’entreprise de Sam Altman ajoute qu’une législation nationale lui semble préférable à un méli-mélo de réglementations.

La Californie « essaie de combler un manque juridique »

Or, « le Congrès [au niveau fédéral, NDLR] étant bloqué sur la réglementation de l’IA, la Californie doit agir pour anticiper les risques prévisibles présentés par les progrès rapides de l’IA tout en encourageant l’innovation », rétorque Scott Wiener dans un communiqué publié le 15 août. Le sénateur n’hésite pas à citer dans un autre communiqué, une semaine plus tard, un appui important en la personne du lieutenant général à la retraite John Shanahan. Selon ce dernier, le projet de loi « SB-1047 » incarne un « équilibre harmonieux entre la promotion de l’innovation américaine et la protection du pays ».

Comment comprendre que le berceau mondial de l’IA veuille légiférer sur ce sujet ? Loin d’être paradoxal, le projet de loi « SB-1047 » cristallise le « double mouvement » auquel fait face la Californie, note Michael Aim, cofondateur et PDG de l’entreprise française Datamensio. D’une part, cet État « essaie de combler un manque juridique » car, comme dit précédemment, « il n’existe pas de loi au niveau fédéral » concernant l’IA, précise Michael Aim.

D’autre part, la Californie veut montrer qu’elle est « leader dans ce domaine aussi bien sur le plan technologique que moral ». Les démocrates, au pouvoir en Californie, « ne veulent pas que les outils venant de leur État puissent alimenter des ennemis des États-Unis ou la cybercriminalité et que cela leur soit reproché », analyse le PDG français.

La Californie est d’ailleurs l’un des États américains les plus protecteurs en matière de protection des données, comme en témoigne l’entrée en vigueur le 1er janvier 2023 du California Consumer Privacy Act (CCPA). Aux États-Unis, aucun cadre fédéral ne régit la protection des données des consommateurs, contrairement à l’Union européenne (UE) qui s’est dotée du Règlement général sur la protection des données (RGPD), entré en vigueur le 25 mai 2018. Et le 12 juillet 2024, le règlement européen sur l’IA a paru au Journal officiel de l’Union européenne. Il s’agit du premier acte législatif sur l’intelligence artificielle (IA) des Vingt-Sept.

Si la Californie votait cette loi, les géants de l’IA pourraient-ils quitter la Silicon Valley ? Des menaces de délocalisation existent de la part d’entrepreneurs comme Elon Musk. Cependant, dans la mesure où la Californie est dotée d’un écosystème vertueux « en termes de compétences et de talents », il se pourrait que ces menaces ne soient pas mises à exécution, car ces entreprises « ont un fort intérêt à rester » dans cet État, souligne Michael Aim, quand bien même le texte « SB-1047 » serait voté.

Le projet de loi amendé est « considérablement amélioré, au point que nous pensons que ses avantages l’emportent probablement sur ses coûts », a déclaré de son côté Anthropic mercredi 21 août dans une lettre adressée au gouverneur de Californie, Gavin Newsom. Faut-il y voir une victoire du lobby de l’intelligence artificielle ? Michael Aim préfère évoquer « un dialogue » et « un rééquilibrage » entre les intérêts économiques, politiques et sociétaux.

Démocrates et universitaires divisés sur la régulation de l’IA

Si la proposition de loi est adoptée par l’Assemblée californienne, ce sera au gouverneur démocrate Gavin Newsom de ratifier la loi. Ce dernier n’a pas encore pris position publiquement et rien n’indique qu’il agirait dans ce sens. C’est que le projet divise les démocrates.

« Beaucoup d’entre nous au Congrès pensent que la loi « SB-1047 » est bien intentionnée, mais mal fondée », a ainsi écrit, le 16 août, dans un communiqué, l’influente élue californienne et ex-présidente de la Chambre des représentants Nancy Pelosi. « Alors que nous voulons que la Californie soit à la pointe de l’IA d’une manière qui protège les consommateurs, les données, la propriété intellectuelle et bien plus encore, le « SB-1047 » nuit à cette fin plus qu’il n’y contribue. »

Le projet de loi « SB-1047 » déchire aussi les universitaires. L’informaticien Geoffrey Hinton, considéré comme le « parrain de l’IA », y est favorable. Cité par Scott Wiener dans un communiqué de presse, il souligne que « les puissants systèmes d’IA sont incroyablement prometteurs, mais [qu’]ils présentent des risques également très réels, qui doivent être pris très au sérieux ». « La loi « SB-1047 » adopte une approche très raisonnable pour équilibrer ces préoccupations », d’autant que la Californie est « l’endroit idéal » pour commencer à réguler cette technologie, puisque c’est là qu’elle a été développée, poursuit-il.

La renommée informaticienne et chercheuse à l’université de Stanford, Fei-Fei Li, surnommée « la marraine de l’IA », pourfend, elle, ce projet de loi. Le 6 août dernier sur X, elle a estimé que le projet de loi « SB-1047 », « portera[it] un grave préjudice au monde universitaire, aux petites entreprises technologiques et à la communauté open source », les utilisateurs pouvant effectivement modifier le code des versions dites « open source » (source ouverte).

Dans une tribune publiée le même jour dans Fortune, Fei-Fei Li met en cause le fait qu’« en cas d’utilisation abusive d’un modèle d’IA, [le projet de loi] « SB-1047″ [tienne notamment pour] responsable le développeur original de ce modèle ». Or, « il est impossible pour un développeur d’IA – en particulier les codeurs et entrepreneurs en herbe – de prédire toutes les utilisations possibles de son modèle », fustige-t-elle. Par conséquent, le texte « punira indûment les développeurs et étouffera l’innovation ».

Même opposition chez Anima Anandkumar, professeure à l’Institut de technologie de Californie, appelé CalTech, et spécialiste en intelligence artificielle. Sur le réseau social LinkedIn, elle déclare que ce texte « impose de lourdes réglementations irréalistes sur le développement de l’IA ». Et d’asséner : ce texte ne constitue ni plus ni moins qu’« une menace importante pour notre capacité à faire avancer la recherche ». Les élus de la Chambre basse californienne devraient se prononcer sur ce projet de loi controversé cette semaine

Rfi

Exit mobile version