Passer au contenu
Tech

Google dit aux bébés anti-réveillés que les Vikings noirs des Gémeaux ont raté la cible

L’échec de Gemini à générer des images de personnes blanches a suscité l’indignation, même si les générateurs d’images de l’IA sont historiquement terribles pour produire des personnes de couleur.
Par

Temps de lecture 4 minutes

Gemini, le chatbot IA de Google a un problème unique. Il a du mal à produire des images de personnes blanches, se tournant souvent Vikings, pères fondateurs, et Joueurs de hockey canadiensen personnes de couleur. Cela a suscité l’indignation de la communauté anti-réveillée, alléguant le racisme contre les personnes blanches. Aujourd’hui, Google a reconnu l’erreur de Gemini.

« Nous travaillons à améliorer immédiatement ce type de représentations », a déclaré Google Communications dans un communiqué. déclaration. «La génération d’images IA de Gemini génère un large éventail de personnes. Et c’est généralement une bonne chose car les gens du monde entier utilisent mais il manque la cible ici.

Les utilisateurs ont souligné que les Gémeaux refusaient parfois les demandes lorsqu’on leur demandait spécifiquement de créer des images de personnes blanches. Cependant, lorsque les demandes étaient conçu pour les images de personnes noires, les Gémeaux n’avaient aucun problème. Cela a provoqué une indignation de la part de la communauté anti-réveillée sur les plateformes de médias sociaux, comme X, appelant à une action immédiate.

Captures d’écran de comptes anti-réveil appelant le générateur d’images de Google Gemini dans les tweets.
Captures d’écran de comptes anti-réveil appelant le générateur d’images de Google Gemini dans les tweets. Screenshot: X

La reconnaissance de l’erreur par Google est, pour le dire à la légère, surprenante, étant donné que les générateurs d’images IA ont fait un travail terrible pour représenter les personnes. de couleur. Une enquête du Washington Post a révélé que le générateur d’image IA, Stable Diffusion, presque toujours identifié les bénéficiaires de bons alimentaires comme étant noirs, même si 63 % des récipiendaires sont blancs. Midjourney a fait l’objet des critiques d’un chercheur quand il a échec à créer à plusieurs reprises un « médecin africain noir soignant des enfants blancs », selon NPR.

Où était cet outrage lorsque les générateurs d’images de l’IA manquaient de respect aux Noirs ? Gizmodo n’a trouvé aucun exemple de Gémeaux représentant des stéréotypes nuisibles à l’égard des Blancs, mais le générateur d’images IA a tout simplement refusé de les créer par moments. Même si l’incapacité à générer des images d’une certaine race est certainement un problème. , cela ne tient pas tête aux offenses pures et simples de la communauté de l’IA contre les Noirs.

OpenAI admet même dans les données de formation de Dall-E que son générateur d’images IA ”hérite de divers biais de ses données d’entraînement, et ses résultats renforcent parfois les stéréotypes sociétaux. pour les embrasser.

Grok, le chatbot anti-réveil de Musk n’est pas filtré pour le politiquement correct. Il affirme qu’il s’agit d’un chatbot IA réaliste et honnête. Bien que cela puisse être vrai, les outils d’IA peuvent amplifier des préjugés d’une manière que nous ne comprenons pas encore très bien. L’erreur de Google en matière de génération de personnes blanches semble probablement être le résultat de ces mesures de sécurité. filtres.

La technologie est historiquement une industrie très blanche. Il n’existe pas de bonnes données modernes sur la diversité dans la technologie, mais 83 % des cadres technologiques étaient blancs en 2014. Une étude de l’Université du Massachusetts a révélé la diversité de la technologie pourrait s’améliorer mais il est probablement à la traîne par rapport aux autres industries. Pour ces raisons, il est logique que la technologie moderne partage les préjugés des Blancs.

Un cas où cela se produit, de manière très conséquente, est celui de la technologie de reconnaissance faciale (FRT) utilisée par la police. n’a pas réussi à distinguer les visages noirs et montre une précision beaucoup plus élevée avec des visages blancs. Ce n’est pas hypothétique, et il ne s’agit pas seulement de sentiments blessés. dans l’arrestation et l’emprisonnement injustifiés d’un Homme noir à Baltimore, un Mère noire à Détroit, et plusieurs autres personnes de couleur innocentes.

La technologie a toujours été le reflet de ceux qui l’ont construite, et ces problèmes persistent aujourd’hui. Cette semaine, Wired a rapporté que les chatbots IA du système « gratuit » discours” réseau de médias sociaux Gab ont été chargés de nier l’holocauste. L’outil aurait été conçu par une plateforme d’extrême-droite, et le chatbot IA semble en alignement.

Il y a un problème plus important avec l’IA : ces outils reflètent et amplifient nos préjugés en tant que humains. les outils d’IA sont formés sur Internet, ce qui pleins de racisme, de sexisme et de préjugés. Ces outils vont, par nature, commettre les mêmes erreurs que notre société, et ces questions doivent on leur accorde davantage d’attention.

Google semble avoir augmenté la prévalence des personnes de couleur dans les images des Gémeaux. des problèmes plus importants auxquels est confrontée l’industrie technologique aujourd’hui. Les Blancs sont en grande partie ceux qui construisent des modèles d’IA, et ils ne sont en aucun cas les principales victimes de préjugés technologiques enracinés.

Ce contenu a été traduit automatiquement à partir du texte original. En raison des nuances de traduction, il peut y avoir de légères différences.Pour la version originale, cliquez-ici.

Partager cet article