Bienvenue dans AIThis Week, la plongée hebdomadaire en profondeur de Gizmodo sur ce qui se passe dans le domaine de l’intelligence artificielle.
Préoccupations concernant la pornographie IA – ou, plus communément « deepfake porno »– ne sont pas nouveaux. Depuis des années, d’innombrables femmes et filles ont été soumises à un flot d’images pornographiques non consensuelles et faciles à comprendre. distribuer en ligne mais assez difficile à être démonté. Plus notamment , célébrité deepfake porno a été une source constante de controverse, une source qui a souvent retenu l’attention mais peu d’influence législative. Maintenant, le Congrès pourrait enfin le faire. quelque chose à ce sujet grâce aux images sales générées par ordinateur de la pop star la plus célèbre du monde.
Oui, c’est une histoire qu’il a été difficile d’éviter : il y a quelques semaines, images pornographiques générées par l’IA de Taylor Swift ont été largement distribués sur X (anciennement Twitter). Depuis lors, la base de fans de Swift est en ébullition et une conversation nationale a émergé. sur le sujet familier de l’ordinateur et sur ce qu’il faut faire à propos de ce problème très familier.
Maintenant, une législation a été introduite pour lutter contre ce problème. La loi sur la perturbation des images forgées explicites et des modifications non consensuelles (DEFIANCE) a été présentée comme une législation bipartite par Sens. Dick Durbin, (D-Ill.), Josh Hawley, (R-Mo), et Lindsey Graham, (RS.C.). S’il est adopté, le projet de loi serait permettre aux victimes de deepfake porn de poursuivre en justice les personnes qui ont distribué des « contrefaçons numériques » à caractère sexuel. ouvrira la porte à des litiges très médiatisés de la part de célébrités féminines dont les images sont utilisées dans des cas comme celui impliquant Swift. D’autres femmes et victimes pourraient évidemment également intenter une action en justice, mais les plus riches et les plus célèbres auraient les ressources nécessaires pour mener à bien une telle action. litige.
Le projet de loi définit la « contrefaçon numérique » comme « une représentation visuelle créée grâce à l’utilisation d’un logiciel, de l’apprentissage automatique, de l’intelligence artificielle ou de tout autre moyen. des moyens générés par ordinateur ou technologiques pour paraître faussement authentiques. »
« Ce mois-ci, de fausses images sexuellement explicites de Taylor Swift qui ont été générées par l’intelligence artificielle et qui ont été balayées sur les plateformes de médias sociaux. Bien que les images puissent être fausses, le préjudice causé aux victimes par le La distribution de « deepfakes » sexuellement explicites est très réelle », a déclaré le sénateur Durbin, dans un communiqué de presse associé au projet de loi. Le communiqué de presse note également que le « volume de contenu « deepfake » disponible en ligne augmente de façon exponentielle à mesure que la technologie utilisé pour le créer est devenu plus accessible au public.
Comme indiqué précédemment, l’IA ou Deepfake porn est un problème persistant depuis un certain temps, mais les progrès de l’IA au cours des dernières années les années ont fait de la génération du porno réaliste (bien que légèrement bizarre) beaucoup, beaucoup plus facile. L’avènement de générateurs d’images gratuits et accessibles, comme le DALL-E d’OpenAI et d’autres du genre, signifie que presque tout le monde peut créer quelle que soit l’image qu’ils souhaitent (ou, à tout le moins, ils peuvent créer la meilleure approximation d’un algorithme de ce qu’ils veulent) d’un simple clic. bouton. Cela a provoqué une série de problèmes en cascade, y compris un explosion apparente de matériels pédopornographiques générés par ordinateur que les gouvernements et les régulateurs de contenu ne semblent pas savoir comment combattre.
Le débat autour de la réglementation des deepfakes a été abordé à maintes reprises, même si de sérieux efforts pour mettre en œuvre de nouvelles politiques ont été présentés ou abandonnés à plusieurs reprises. par le Congrès.
Il y a peu de moyens de savoir si cet effort particulier réussira, même si comme Amanda Hoover chez Wired récemment souligné, si Taylor Swift ne peut pas vaincre le deepfake porn, personne ne le peut.
Question du jour : Le nouveau robot de Meta peut-il nettoyer votre chambre dégueulasse ?
Il y a actuellement une course dans la Silicon Valley pour voir qui peut créer le robot le plus commercialement viable. Alors que la plupart des entreprises semblent être préoccupées par créer un robot « humanoïde » gimmicky qui rappelle aux spectateurs C3PO, Meta est peut-être en train de gagner la course pour créer un robot authentiquement fonctionnel qui peut faire des choses pour vous. Cette semaine, des chercheurs liés à l’entreprise ont dévoilé leur OK-Robot, qui ressemble à un pied de lampe attaché à un Roomba. peut paraître idiot, le système d’IA qui pilote la machine signifie des affaires sérieuses. Dans plusieurs vidéos YouTube, on peut voir le robot zoomer autour une pièce en désordre et ramasser et déplacer divers objets. Les chercheurs disent que le robot utilise des « modèles de langage de vision (VLM) pour la détection d’objets. , des primitives de navigation pour le mouvement et des primitives de saisie pour la manipulation d’objets. En d’autres termes, cette chose peut voir des choses, saisir des choses et se déplacer dans un espace physique avec un bon niveau de compétence. De plus, le robot le fait dans des environnements dans lesquels il n’a jamais été avant, ce qui est un exploit impressionnant pour un robot puisque la plupart d’entre eux ne peuvent effectuer des tâches que dans des environnements hautement contrôlés.
Autres titres cette semaine :
Les sociétés d’IA viennent de perdre une énorme quantité de valeur boursière. La capitalisation boursière de plusieurs grandes entreprises d’IA a chuté cette semaine après que leurs rapports de bénéfices trimestriels ont montré qu’elles avaient généré beaucoup moins de revenus que ce à quoi les investisseurs s’attendaient. La société mère de Google, Alphabet, Microsoft et le fabricant de puces AMD, ont tous été témoins d’une vente massive mardi. rapporte queAu total, les entreprises ont perdu 190 milliards de dollars en capitalisation boursière. Sérieusement, ouais. C’est beaucoup.
La FCC pourrait criminaliser les appels automatisés générés par l’IA. L’IA a permis à la fraude en ligne de se développer, renforçant les escroqueries en ligne qui étaient déjà ennuyeuses mais grâce à de nouvelles formes d’automatisation , sont maintenant pires que jamais. La semaine dernière, le président Joe Biden a fait l’objet d’un appel automatisé généré par l’IA et, en résultat, la Commission fédérale des communications veut désormais interdire légalement de tels appels. « Le clonage de voix et d’images générés par l’IA sème déjà la confusion en trompant les consommateurs. en pensant que les escroqueries et les fraudes sont légitimes », a déclaré Jessica Rosenworcel, présidente de la FCC, dans une déclaration envoyé à NBC.
Amazon a lancé un assistant d’achat IA. La plus grande entreprise de commerce e-commerce au monde a déployé un chatbot entraîné par l’IA, surnommé « Rufus », qui est conçu pour vous aider acheter des choses plus efficacement. Rufus est décrit comme un “Assistant d’achat expert formé sur le catalogue de produits d’Amazon et sur les informations provenant du Web pour répondre aux questions des clients sur les besoins d’achat, les produits et comparaisons.” Bien que je sois tenté de me moquer de cette chose, je dois admettre que faire du shopping peut être difficile. une quantité ridicule de recherches est nécessaire juste pour faire le simple achats. Seul le temps dira si Rufus peut réellement sauver le du temps d’utilisateur web occasionnel ou s’il va “halluciner” des conseils horribles qui rendront votre parcours de commerce électronique encore pire. Si ce dernier s’avère que c’est le cas, je vote pour que nous fassions pression sur Amazon pour renommer le robot « Doofus ».