Passer au contenu
Tech

L’article 230 devrait-il protéger les entreprises d’IA contre des pour poursuites in existantes ?

Un projet de loi au Sénat interdirait aux personnes comme OpenAI de bénéficier de l’immunité juridique en ce qui concerne le contenu produit par ses produits.
Par

Temps de lecture 7 minutes

Bienvenue dans AIThis Week, la plongée hebdomadaire en profondeur de Gizmodo sur ce qui se passe dans le domaine de l’intelligence artificielle.

Cette semaine, il y a eu des rumeurs selon lesquelles un projet de loi bipartisan cela interdirait aux plateformes d’IA de la protection en vertu de l’article 230 est en train d’être accéléréLa loi historique sur Internet protège les sites Web de toute responsabilité juridique pour le contenu qu’ils hébergent et ses implications pour le sort de l’IA ne sont pas claires. La loi, rédigée par les sénateurs Josh Hawley (Républicain du Missouri) et Richard Blumenthal (Démocrate du Connecticut), supprimerait « l’immunité des entreprises d’IA. ” quand il s’agit d’actions civiles ou de poursuites pénales, un communiqué de presse du bureau de Hawley. C’est un autre rappel que l’IA est un véritable nid de frelons épineux de questions juridiques et réglementaires qui ont déjà été résolues. à élaborer.

D’une manière générale, l’article 230 a été conçu pour protéger les plateformes Internet contre les poursuites pour le contenu créé par des tiers. ces plateformes peuvent être responsables des choses qu’elles publient en ligne, les plateformes elles-mêmes bénéficient de l’immunité juridique dans la plupart des cas. développé dans les années 90 en grande partie comme un moyen de protéger l’Internet naissant, alors que les régulateurs semblent avoir réalisé que le Web ne survivrait pas si tous ses moteurs de recherche et ses forums de discussion étaient poursuivis en justice. hors d’existence.

Bien sûr, les temps ont changé depuis que la loi a été adoptée en 1996 et il y a eu des appels en continus à réformer l’article 230 au cours des dernières années. Lorsqu’il s’agit d’IA, il semble y avoir toutes sortes d’arguments pour expliquer pourquoi (ou pourquoi pas) ) les plateformes comme ChatGPT ne devraient pas être couvertes par la législation historique.

Nous avons déjà vu l’éminent professeur de droit Jonathan Turley se plaindre que ChatGPT a faussement affirmé qu’il avait harcelé sexuellement quelqu’un. La menace de pour suites en diffamation ou d’autres responsabilités juridiques pèse sur toutes les entreprises développant des produits d’IA à l’heure actuelle, et il est probablement temps de mettre en place quelques nouveaux précédents.

Matt Perault, professeur à l’Université de Caroline du Nord à Chapel Hill, a écrit un essai en février, arguant que les sociétés d’IA ne seraient pas couvertes par l’article 230, du moins pas tout le temps. D’après le point de vue de Perault sur choses, les plateformes d’IA se sont différenciées des plateformes comme Google ou Facebook, où le contenu est hébergé de manière passive. Au lieu de cela, des entreprises comme OpenAI commercialiser ouvertement leurs produits en tant que générateurs de contenu, ce qui semblerait les exclure de la protection prévue par la loi.

« Actuellement, la distinction entre les plateformes qui peuvent bénéficier d’une protection 230 et celles qui ne le peuvent pas est essentiellement : êtes-vous un hôte ou êtes-vous un créateur de contenu ? « en totalité ou en partie ». Cela signifie que même si vous développez du contenu « en partie », vous ne pouvez pas bénéficier de 230 protections. . Donc, à mon avis, un outil d’IA génératif, dans lequel le nom de l’outil est littéralement « génératif », l’idée générale est que il génère du contenu – alors probablement, dans certaines circonstances au moins, il ne bénéficiera pas de 230 protections.

Samir Jain, vice-président des politiques au Centre pour la démocratie et la technologie, a déclaré qu’il pensait également qu’il y aurait des circonstances dans lesquelles une plateforme d’IA pourrait être tenue responsable des choses qu’elle génère. « Je pense que cela dépendra probablement des faits de chacun. situation particulière », a ajouté Jain. « Dans le cas de quelque chose comme une “hallucination” dans lequel l’algorithme d’IA générative semble avoir créé quelque chose de toutes pièces, il sera probablement difficile d’affirmer qu’il n’a pas joué au moins un certain rôle dans le développement de cela.

Dans le même temps, il pourrait y avoir d’autres circonstances dans lesquelles on pourrait faire valoir qu’un outil d’IA n’agit pas nécessairement comme un contenu. créateur. “Si, d’un autre côté, ce que l’IA générative produit ressemble beaucoup plus aux résultats d’une requête de recherche en réponse à l’entrée d’un utilisateur ou à l’endroit où l’utilisateur a réellement été celui qui façonne la réponse du système d’IA générative, alors il semble possible que l’article 230 puisse s’appliquer dans ce contexte », a déclaré Jain. « Beaucoup dépendra des faits particuliers [de chaque cas et je ne sai pas sûr s’il y aura une réponse simple et unique par « oui » ou « non » à cette question. »

D’autres ont argumenté contre l’idée que les plateformes d’IA ne seront pas protégées par l’article 230. Dans un essai sur TechDirt, l’avocate et technologue Jess Miers affirme qu’il existe un précédent juridique qui considére les plateformes d’IA comme en dehors de la catégorie d’être un « contenu d’information fournisseur ou un créateur de contenu. Elle cite plusieurs affaires juridiques qui semblent fournir une feuille de route pour la protection réglementaire de l’IA, arguant que des produits comme ChatGPT pourraient être considérés “fonctionnellement semblables aux “moteurs de recherche ordinaires et aux technologies prédictives comme la complétion automatique.”

Les sources avec lesquelles j’ai parlé semblaient sceptiques quant au fait que de nouvelles réglementations seraient l’arbitre ultime des protections de l’article 230 pour les plateformes d’IA – du moins pas du tout. d’abord. En d’autres termes : il semble peu probable que la législation de Hawley et Blumenthal réussisse à régler la question. Selon toute vraisemblance, a déclaré Perault, ces questions seront soumises par le système judiciaire avant toute sorte de mesure législative globale ait lieu. « Nous avons besoin du Congrès pour intervenez et décrivez à quoi devraient ressembler les règles de la route dans ce domaine », a-t-il dit, tout en ajoutant que, de manière problématique, “Le Congrès n’est pas actuellement capable de légiférer.”

Photo: Rozy Ghaly
Photo: Rozy Ghaly (Question du jour : Quel est le robot le plus mémorable de l’histoire du cinéma ? )

Shutterstock

C’est une question ancienne et, certes, plutôt banale, mais cela vaut quand même la peine de la poser de temps en temps. Par « robot », je veux dire tout personnage d’un film de science-fiction qui est une machine non humaine. Il pourrait s’agir d’un logiciel ou d’un cyborg à part entière. Il y a, bien sûr, les prétendants habituels—HAL de 2001 : Une Odyssée de l’Espace, leTerminator et Roy Batty de Coureur de lame– mais il y a aussi beaucoup d’autres potentats largement oubliés. Extraterrestre la franchise, par exemple, passe en quelque sorte sous le radar quand il s’agit de ce débat, mais presque tous les films de la série dispose d’un Android mémorable joué par un très bon acteur. Il y a aussi Alex Garland Ex Machina, le favori d’A24 qui présente Alicia Vikander en fembot séduisante. J’ai aussi un faible pour M3GAN, le film de 2022 qui est essentiellement Un jeu d’enfant avec des robots. Exprimez-vous dans les commentaires si vous avez des réflexions sur ce sujet le plus important.

Plus de titres cette semaine

Google semble avoir triché lors de sa démo Gemini cette semaine. Au cas que vous au riez manqué, Google a lancé un nouveau modèle d’IA multimodal : Gemini-qui, selon lui, est son modèle d’IA le plus puissant à ce jour. Le programme a été présenté comme un concurrent potentiel de ChatGPT, les spectateurs notant son des capacités impressionnantes. Cependant, il est apparu que Google a triché lors de sa démo initiale de la plateforme. UNE vidéo publiée par la société mercredi semblait mettre en valeur les compétences de Gemini, mais il s’avère que la vidéo a été modifiée et que le chatbot l’a fait. ne fonctionne pas aussi facilement que la vidéo semblait le montrer. ce n’est pas la première fois qu’une entreprise technologique triche lors d’une démonstration de produit mais c’est certainement un peu un trébuchement pour Google, compte tenu du battage médiatique autour de ce nouveau modèle.

Les réglementations sur l’IA proposées par l’UE font actuellement l’objet de négociations cruciales. L’Union européenne tente actuellement de peaufiner les détails de sa « loi sur l’IA », qui s’attaquerait aux dommages potentiels des technologies artificielles. contrairement aux États-Unis, où, hormis un décret léger De la part de l’administration Biden, le gouvernement a décidé, comme on pouvait s’y attendre, de simplement laisser les entreprises technologiques faire ce qu’elles veulent, l’UE essaie en fait de le faire. faire la gouvernance de l’IA. Cependant, ces tentatives faiblissent quelque peu. Cette semaine , des négociations marathon Le contenu du projet de loi n’a donné lieu à aucun consensus sur certains des éléments clés de la législation.

La première « usine de robots humanoïdes » au monde est sur le point d’ouvrir ses portes. WTF, cela signifie-t-il ? Une nouvelle usine à Salem, dans l’Oregon, est sur le point d’ouvrir ses portes, dont le seul objectif est de fabriquer des « robots humanoïdes ». ça veut dire, exactement ? Cela signifie que, très bientôt, les employés des entrepôts d’Amazon pourraient se retrouver sans emploi. En effet, Axios rapports que les robots en question ont été conçus pour « aider Amazon et d’autres entreprises géantes à transporter, soulever et déplacer des objets dangereux ». L’entreprise derrière les robots, Agility Robots, ouvrira son usine à un point l’année prochaine et prévoit de produire quelque 10 000 robots par an.

Ce contenu a été traduit automatiquement à partir du texte original. En raison des nuances de traduction, il peut y avoir de légères différences.Pour la version originale, cliquez-ici.

Partager cet article