Passer au contenu
Science

« Rat Dck » parmi les images charabia d’IA publiées dans le Science Journal

Des images bizarres et clairement inexactes créées par Midjourney ont fait l’objet d’un examen par les pairs dans une revue bien connue.
Par

Temps de lecture 4 minutes

Cette semaine, la revue scientifique Frontiers in Cell and Developmental Biology a publié une recherche présentant de fausses images réalisées avec Midjourney, l’un des générateurs d’images IA les plus populaires.

Le libre accès papier explore la relation entre les cellules souches dans les testicules des mammifères et une voie de signalisation responsable de la médiation de l’inflammation et du cancer dans les cellules. le contenu ne semble pas être faux, mais ses aspects les plus frappants ne se trouvent pas dans la recherche elle-même. et des représentations grotesques de testicules de rat, de voies de signalisation et de cellules souches.

Le diagramme de rat généré par l’IA représente un rat (utilement et correctement étiqueté) dont le haut du corps est étiqueté comme « cellules souches senctoliques ». Ce qui apparaît être un très gros pénis de rat est étiqueté « Dissilé », avec des encarts à droite pour mettre en évidence la « cellule d’iollottesserotgomar », « dck, » » et « Retat ». Hmm.

D’après Lignes directrices de l’éditeur de Frontiers, les manuscrits sont soumis à des « contrôles de qualité initiaux”par l’équipe d’intégrité de la recherche et l’éditeur de traitement avant le processus d’examen par les pairs. En d’autres termes, de nombreux yeux auraient examiné ce travail avant que les images ne soient publiées.

Au crédit des chercheurs, ils déclarent dans le document que les images de l’article ont été générées par Midjourney. Mais Frontiers site pour les politiques et l’éthique des publications note que des corrections peuvent être soumises si « il y a une erreur dans une figure qui ne modifie pas les conclusions » ou si « il y a chiffres mal étiquetés », parmi d’autres facteurs. Les images générées par l’IA semblent certainement appartenir à ces catégories. Dingjun Hao, un chercheur à Xi’an L’Université Jiaotong et co-auteur de l’étude n’a pas immédiatement répondu à la demande de commentaires de Gizmodo.

L’image du rat est manifestement fausse, même si vous n’avez jamais ouvert les organes génitaux d’un rat. Mais les autres chiffres du journal pourraient passer pour crédible à un œil non averti, du moins à première vue. Et pourtant, même quelqu’un qui n’a jamais ouvert un manuel de biologie verrait, Après un examen plus approfondi, il s’avère que les étiquettes sur chaque diagramme ne sont pas tout à fait en anglais – un signe révélateur d’un texte généré par l’IA en imagerie.

La figure 2 dans le document est un diagramme de la voie de signalisation JAK-STAT, ou du moins elle est censée être.
La figure 2 dans le document est un diagramme de la voie de signalisation JAK-STAT, ou du moins elle est censée être. Illustration: Guo et al., Front. Cell Dev. Biol. 2024

L’article a été édité par un expert en reproduction animale à l’Institut national de recherche sur les produits laitiers en Inde, et a été révisé par des chercheurs de l’Institut national de recherche sur les produits laitiers en Inde. Northwestern Medicine et l’Institut national de nutrition animale et de physiologie. Alors, comment ces images farfelues ont-elles été publiées ? Frontières dans les cellules et le développement La biologie n’a pas immédiatement répondu à une demande de commentaires.

Le générateur de texte OpenAI ChatGPT est suffisamment compétent pour obtenir la recherche farkakte au-delà des yeux soi-disant perspicaces des évaluateurs. Une étude menée par des chercheurs de la Northwestern University et de l’Université de Chicago a révélé que des experts humains étaient dupés par des résumés scientifiques produits par ChatGPT 32% du temps.

Donc, juste parce que les illustrations sont clairement un non-sens cosplayant comme de la science, nous ne devrions pas négliger la capacité des moteurs d’IA à faire passer des BS pour de vrais. . Ces auteurs de l’étude ont prévenu que les articles générés par l’IA pourraient provoquer une crise de l’intégrité scientifique. Il semble que cette crise soit bien enclenchée .

Alexander Pearson, un scientifique des données à l’Université de Chicago et co-auteur de cette étude, a noté à l’époque que la « technologie a un grand potentiel pour démocratiser la science, par exemple en permettant aux scientifiques non anglophones de partager plus facilement leur travail avec le reste du monde. communauté », mais « il est impératif que nous réfléchissions attentivement aux meilleures pratiques d’utilisation. »

La figure 3 est censée montrer les relations entre la voie et les aspects des cellules souches.
La figure 3 est censée montrer les relations entre la voie et les aspects des cellules souches. Image: Guo et al., Front. Cell Dev. Biol. 2024

La popularité croissante de l’IA a causé des images scientifiquement inexactes pour se frayer un chemin dans les publications scientifiques et les articles de presse. Les images de l’IA sont faciles à créer et souvent visuellement convaincantes, mais l’IA est aussi lourd, et il est, sans surprise, difficile de transmettre toutes les nuances de l’exactitude scientifique dans une invite pour un diagramme ou une illustration.

Le récent article est bien loin des faux articles des années passées, un panthéon qui comprend des succès tels que ”Quel est le problème avec les oiseaux ?» et le Star Trektravail à thème ”Changement morphologique génétique et développemental rapide suite à une célérité extrême

Parfois, un article qui passe l’examen par les pairs est simplement drôle. D’autres fois, c’est un signe quemoulins à papier“ produisent des soi-disant recherches qui n ont aucun mérite scientifique. En 2021, Springer Nature était obligé de rétracter 44 articles dans l’Arabian Journal of Geosciences pour avoir été un non-sens total.

Dans ce cas, la recherche a peut-être été correcte, mais l’ensemble de l’étude est remis en question par l’inclusion d’images générées à mi-parcours. Le lecteur moyen peut avoir du mal à considérer les voies de signalisation alors qu’il est encore occupé à compter exactement combien de balles le rat est censé avoir.

Plus : ChatGPT écrit assez bien pour tromper les examinateurs scientifiques

Ce contenu a été traduit automatiquement à partir du texte original. En raison des nuances de traduction, il peut y avoir de légères différences.

Partager cet article