Aparecen una multitud de imágenes manipuladas o falsificadas en artículos científicos consolidados

Fue apenas en el segundo artículo de los más de 1.000 que Otto Kalliokoski estaba proyectando cuando descubrió lo que él llama una “obra maestra de Photoshop”.

El artículo mostraba imágenes de transferencias Western, una técnica utilizada para analizar la composición de proteínas, para dos muestras. Pero Kalliokoski, un conductista animal de la Universidad de Copenhague, descubrió que las imágenes eran idénticas hasta el píxel, lo que, según él, claramente no debería suceder.

La manipulación de imágenes en estudios científicos es un problema conocido y generalizado. De todos modos, Kalliokoski y sus colegas se sorprendieron al encontrar más de 100 estudios con imágenes cuestionables mientras compilaban una revisión sistemática sobre una prueba ampliamente utilizada para medir el estado de ánimo de ratas de laboratorio. Después de publicar la revisión1 en enero, los investigadores publicaron una preimpresión2 que documenta los estudios preocupantes que descubrieron y cómo afectaron los resultados de su revisión. La preimpresión, publicada en bioRxiv en febrero, aún no ha sido revisada por pares.

Su trabajo “destaca claramente [que las imágenes falsificadas] están impactando nuestra base de conocimientos consolidada”, dice Alexandra Bannach-Brown, metodóloga de revisiones sistemáticas en el Instituto de Salud de Berlín que no participó ni en la revisión ni en la preimpresión. Las revisiones sistemáticas, que resumen e interpretan la literatura sobre un tema en particular, son un componente clave de esa base. Con una explosión de literatura científica, “es imposible que una sola persona siga leyendo cada nuevo artículo que aparece en su campo”, dice Bannach-Brown. Y eso significa que defender la calidad de las revisiones sistemáticas es cada vez más importante.

Acumulación de problemas

La revisión sistemática de Kalliokoski examinó la confiabilidad de una prueba diseñada para evaluar la búsqueda de recompensa en ratas bajo estrés. Se supone que un interés reducido en una recompensa es un síntoma indirecto de la depresión, y la prueba se utiliza ampliamente durante el desarrollo de fármacos antidepresivos. El equipo identificó un grupo inicial de 1.035 artículos elegibles; 588 imágenes contenidas.

Cuando hubo hojeado cinco artículos, Kalliokoski ya había encontrado un segundo con imágenes inquietantes. Sin estar seguro de qué hacer, marcó los estudios sospechosos y siguió adelante con la recopilación de documentos para la revisión. A medida que los documentos cuestionables se acumulaban, él y sus colegas decidieron implementar Imagetwin, una herramienta de software basada en inteligencia artificial que detecta problemas como imágenes duplicadas y aquellas que han sido estiradas o rotadas. Ya sea Imagetwin o el escrutinio visual de los autores, se detectaron 112 (casi el 20%) de los 588 artículos que contenían imágenes.

“Eso es realmente mucho”, dice Elizabeth Bik, microbióloga de San Francisco, California, que ha investigado la mala conducta relacionada con las imágenes y ahora es consultora independiente de integridad científica. Ya sea que la manipulación de imágenes sea el resultado de un error honesto o de una intención de engañar, “podría socavar los hallazgos de un estudio”, dice.

Efecto pequeño pero detectable

Para su análisis final, los autores examinaron todos los artículos que cumplieron con sus criterios de inclusión en su revisión. Este lote, que consta de 132 estudios, incluía 10 de los 112 que el equipo había señalado como imágenes potencialmente manipuladas.

Las revistas adoptan IA para detectar imágenes duplicadas en manuscritos

El análisis de estos 10 estudios por sí solo evaluó que la prueba era un 50% más efectiva para identificar síntomas relacionados con la depresión que un cálculo basado en los 122 estudios sin imágenes cuestionables. Estos estudios sospechosos “en realidad distorsionan los resultados”, dice Kalliokoski, aunque “no de manera masiva”, porque las variaciones generales en el conjunto de datos enmascaran la contribución de este pequeño subconjunto.

Los ejemplos de este estudio “cubren prácticamente todos los tipos de problemas de imagen”, dice Bik, desde la simple duplicación hasta imágenes que mostraban evidencia de alteración deliberada. Utilizando una escala que Bik desarrolló para categorizar el grado de manipulación de imágenes, los investigadores encontraron que la mayoría de las imágenes problemáticas mostraban signos de manipulación.

 

Los investigadores publicaron su revisión en enero en Translational Psychiatry sin decirle a la revista que se basaba en parte en artículos que incluían imágenes sospechosas. El editor de la revista, Springer Nature, dijo a Nature que está investigando. (El equipo de noticias de Nature es editorialmente independiente de su editor, Springer Nature).

Cuando publicaron su preimpresión el mes siguiente, los investigadores incluyeron detalles de todos los artículos con imágenes sospechosas. También señalaron cada estudio en Pubpeer, un sitio web donde los científicos comentan artículos de forma anónima. "Mi primera lealtad es hacia la comunidad [científica]", dice Kalliokoski, y agrega que publicar los datos es el primer paso.

Da vida a las reseñas

El proceso de cuestionar la integridad de un estudio, dar a sus autores la oportunidad de responder y solicitar la retractación de estudios fraudulentos puede llevar años. Una forma de aclarar estas aguas turbias, dice Bannach-Brown, es publicar revisiones sistemáticas "vivas", diseñadas para actualizarse cada vez que se retiran artículos o se publican nuevos artículos.

..

Comentarios

Entradas populares