Un projet de loi californien qui tente de réglementer les modèles d’IA à grande frontière crée une impasse dramatique sur l’avenir de l’IA. Depuis des années, l’IA a été divisé en « accélérer » et « décélérer ». Les accels veulent que l’IA progresse rapidement – avance rapidement et brise les choses – tandis que les décels veulent que le développement de l’IA ralentisse pour pour le bien de l’humanité. La bataille est passée sous les projecteurs nationaux lorsque Le conseil d’administration d’OpenAI a brièvement évincé Sam Altman, dont beaucoup ont depuis se séparer de la start-up au nom de la sécurité de l’IA. Désormais, un projet de loi californien rend ce combat politique.
Qu’est-ce que le SB1047 ?
BS 1047 est un projet de loi de l’État de Californie qui rendrait les grands fournisseurs de modèles d’IA, tels que Meta, OpenAI, Anthropic et Mistral, responsables de les dangers potentiellement catastrophiques de leurs systèmes d’IA. Le projet de loi, rédigé par le sénateur d’État Scott Wiener, a été adopté par le Sénat de Californie en mai et a franchi un autre obstacle majeur vers une loi cette semaine.
Pourquoi devrais-je m’en soucier ?
Eh bien, cela pourrait devenir la première véritable réglementation sur l’IA aux États-Unis avec des dents, et cela se produit en Californie, où toutes les principales Les entreprises d’IA le sont.
Wiener décrit la facture comme établissant « des normes de sécurité claires, prévisibles et de bon sens pour les développeurs des systèmes d’IA les plus grands et les plus puissants. » Tout le monde ne le voit pas mais de cette façon. Beaucoup dans la Silicon Valley tirent la sonnette d’alarme en disant que cette loi tuera l’ère de l’IA avant qu’elle ne commence.
Que fait réellement le SB 1047 ?
Le SB 1047 rend les fournisseurs de modèles d’IA responsables de tout « préjudice critique », en spécifiant leur rôle dans la création d’« événements faisant de nombreuses pertes .” Comme Aussi étrange que cela puisse paraître, c’est énorme parce que la Silicon Valley a historiquement éludé la plupart des responsabilités pour ses dommages. Le projet de loi habilite le procureur général de Californie. d’engager des poursuites judiciaires contre ces sociétés si l’un de leurs modèles d’IA cause un préjudice grave aux Californiens.
Le SB 1047 comprend également une disposition d’«arrêt»qui oblige dans les entreprises d’IA à créer un coup d’arrêt pour un modèle d’IA dans le cas d’une urgence.
Le projet de loi crée également la « Division des modèles de frontière » au sein de l’Agence des opérations gouvernementales de Californie. Ce groupe « fournirait des conseils » à ces modèles d’IA de frontière. les fournisseurs sur les normes de sécurité que chaque entreprise devrait respecter. Si les entreprises ne tiennent pas compte des recommandations de la Division, elles pourraient être poursuivies en justice. et s’exposent à des sanctions civiles.
Qui soutient ce projet de loi ?
Outre le sénateur Wiener, deux éminents chercheurs en IA, parfois appelés les « parrains de l’IA », Geoffrey Hinton et Yoshua Bengio, ont mis leurs noms sur ce projet de loi. Ces deux-là ont joué un rôle très important en lançant des appels d’avertissement sur les dangers de l’IA.
Plus généralement, ce projet de loi s’inscrit dans la perspective de décel, qui estime que l’IA a une probabilité relativement élevée de mettre fin à l’humanité et devrait être réglementé en tant que tel. La plupart de ces personnes sont des chercheurs en IA et n’essaient pas activement de commercialiser un produit d’IA puisque, vous savez, ils pensent que cela pourrait mettre fin à l’humanité.
Le projet de est parrainé par le Center for AI Safety , qui est dirigé par Dan Hendrycks. Son groupe a publié un lettre ouverte en mai 2023 disant que le risque d’extinction de l’humanité devrait être pris aussi au sérieux que les guerres nucléaires ou les pandémies. Il a été signé par Sam Altman, Bill Gates , Grimes, et de beaucoup de personnes influentes dans la technologie. C’est un groupe influent et un acteur clé dans la promotion de ce projet de loi.
En mars 2023, decels a appelé à un « pause » sur tout le développement de l’IA pour mettre en œuvre une infrastructure de sécurité. Même si cela semble extrême, il y a beaucoup de personnes intelligentes dans la communauté de l’IA qui croient vraiment que l’IA pourrait mettre fin à l’humanité. Leur idée est que s’il y a une probabilité que l’IA mette fin à l’humanité, nous devrions probablement la réglementer strictement, juste au cas où.
Cela a du sens. Alors, qui est contre le SB 1047 ?
Si vous êtes sur X, vous avez l’impression que tout le monde dans la Silicon Valley est contre le SB 1047. Les investisseurs en capital-risque, les fondateurs de startups, les chercheurs en IA et Les dirigeants de la communauté de l’IA open source détestent ce projet de loi. Je classerais généralement ces personnes dans la catégorie des accélérateurs, ou du moins, c’est là que ils atterrissent sur cette question. Beaucoup d’entre eux travaillent dans le domaine de l’IA, mais certains sont également des chercheurs.
Le sentiment général est que le SB 1047 pourrait forcer les fournisseurs de modèles d’IA tels que Meta et Mistral à réduire, ou à arrêter complètement, leur efforts d’open source. Ce projet de projet de les rend responsables des mauvais acteurs qui utilisent leurs modèles d’IA, et ces entreprises ne peuvent pas assumer ce responsabilité en raison des difficultés à imposer des restrictions à l’IA générative et de la nature ouverte des produits.
«Cela va complètement tuer, écraser et ralentir l’écosystème des startups open source», a déclaré Anjney Midha, associé général d’A16Z et conseil d’administration de Mistral. Directeur, dans une interview avec Gizmodo. « Ce projet de vis équivaut à essayer de réprimer les progrès sur l’imprimerie, par oppos à en se concentrant sur là où cela devrait être, à savoir les utilisations de la presse à imprimer.
« L’Open source est notre meilleur espoir de garder une avance en rassemblant des tests de sécurité transparents pour les modèles émergents, plutôt que de laisser quelques puissants les entreprises contrôlent l’IA en secret », a déclaré Ion Stoica, professeur d’informatique à Berkeley et président exécutif de Databricks, dans une interview.
Midha et Stoica ne sont pas les seuls à considérer la réglementation de l’IA comme existentiellement pour l’industrie. La scène des start-ups de la Silicon Valley depuis des années. Les opposants au SB 1047 affirment que le projet de loi bénéficiera aux opérateurs historiques fermés des grandes technologies au lieu de ceux qui prospèrent, écosystème ouvert.`
«Je vois vraiment cela comme un moyen de bloquer le développement de l’IA open source, dans le cadre d’une stratégie plus large visant à ralentir l’IA.» a déclaré Jeremy Nixon, créateur de la Maison AGI, qui sert de plaque tournante pour les hackathons IA open source de la Silicon Valley. d’une communauté qui est très intéressée à mettre en pause l’IA en général.”
Cela semble vraiment technique. Les législateurs peuvent-ils bien comprendre tout cela ?
C’est absolument technique, et cela a créé quelques problèmes. Le SB 1047 ne s’applique qu’aux « grands » modèles frontière, mais quelle est la taille ? Le projet de loi le définit comme des modèles d’IA formés sur 10 ^ 26 FLOPS et coûtant plus de 100 millions de dollars à former, un projet spécifique et de très grande envergure. quantité de puissance de calcul par rapport aux normes actuelles. Le problème est que l’IA se développe très rapidement et que les modèles de pointe de 2023 semble minuscule par rapport aux normes de 2024. Coller un drapeau dans le sable ne fonctionne pas bien pour un domaine qui évolue aussi rapidement.
Il n’est pas non plus clair s’il est même possible d’empêcher complètement les systèmes d’IA de se comporter mal. La vérité est que nous ne savons pas grand-chose. sur le fonctionnement des LLM, et les principaux modèles d’IA d’OpenAI, Anthropic et Google sont constamment jailbreakés. C’est pourquoi certains chercheurs disent que les régulateurs devraient se concentrer sur les mauvais acteurs, et non sur les fournisseurs de modèles.
« Avec l’IA, vous devez réguler le cas d’utilisation, l’action et non les modèles eux-mêmes », a déclaré Ravid Shwartz Ziv, un assistant. Professeur étudiant l’IA à NYU aux côtés de Yann Lecunn, dans une interview. « Les meilleurs chercheurs du monde peuvent passer un temps infini sur un modèle d’IA, et les gens sont toujours capables de le jailbreaker.
Un autre élément technique de ce projet de loi concerne les modèles d’IA open source. Si une start-up prend Llama 3 de Meta, l’un des modèles les plus populaires modèles d’IA open source et les peaufine pour en faire quelque chose de dangereux, Meta est-il toujours responsable de ce modèle d’IA ?
Pour l’instant, le lama de Meta n’atteint pas le seuil d’un « modèle couvert », mais il le sera probablement à l’avenir. , il semble que Meta puisse certainement être tenu pour responsable. pour entraîner Llama 3 à la mise au point, dont le développeur est désormais responsable. Cela dit, les opposants au projet de trouvent toujours ce ce injuste et non juste la bonne approche.
Question rapide : L’IA est-elle réellement la libre expression ?
Pas clair. De nombreux membres de la communauté de l’IA voient l’IA open source comme une sorte de liberté d’expression (c’est pourquoi Midha l’a qualifié de imprimerie).Le principe est que le code sous-jacent à un modèle d’IA est une forme d’expression et que les sorties du modèle sont des expressions telles que eh bien. Le Code est historiquement relevé dans le premier amendement dans plusieurs cas.
Trois professeurs de droit ont disputé un article sur le droit que les modèles d’IA ne sont pas exactement une liberté d’expression. D’une part, ils disent que les poids qui composent un modèle d’IA ne sont pas écrits par humains, mais créés grâce à de vastes opérations d’apprentissage automatique. Les humains peuvent à peine les lire.
Quant aux résultats des modèles d’IA de pointe, ces systèmes sont un peu différents des algorithmes des médias sociaux, qui ont été considérés comme étant en échec. en vertu du Premier amendement dans le passé. Les modèles d’IA ne prennent pas exactement un point de vue, ils disent beaucoup de choses. Pour cette raison, ces professeurs de droit disent que le SB 1047 ne peut pas empiéter sur le premier amendement.
Alors, quelle est la prochaine étape ?
Le projet de loi se dirige vers un vote qui approche à grands pas en août et qui l’enverrait au bureau du gouverneur Gavin Newsom. quelques obstacles clés supplémentaires pour y arriver, et même dans ce cas, Newsom pourrait ne pas le signer en raison de la pression de la Silicon Valley. un groupe de commerce technologique vient d’envoyer à Newsom une lettre lui disant de ne pas signer le SB 1047.
Cependant, Newsom voudra peut-être créer un précédent pour la nation en matière d’IA. Si le SB 1047 entre en vigueur, cela pourrait radicalement changer la donne. Le paysage de l’IA en Amérique.
Correction, 25 juin : Une version précédente de cet article ne définit pas ce que sont les « dommages critiques”. le modèle d’IA n’est pas assez grand pour le moment. Il sera probablement affecté à l’avenir. Enfin, la division Frontier Model a été transféré à l’Agence des opérations gouvernementales de Californie, et non au Département de la technologie. Ce groupe n’a aucun pouvoir d’application pour le moment.