Aparecen una multitud de imágenes manipuladas o falsificadas en artículos científicos consolidados
Fue apenas en el segundo artículo de los más de
1.000 que Otto Kalliokoski estaba proyectando cuando descubrió lo que él llama
una “obra maestra de Photoshop”.
El artículo mostraba imágenes de transferencias
Western, una técnica utilizada para analizar la composición de proteínas, para
dos muestras. Pero Kalliokoski, un conductista animal de la Universidad de
Copenhague, descubrió que las imágenes eran idénticas hasta el píxel, lo que,
según él, claramente no debería suceder.
La manipulación de imágenes en estudios científicos
es un problema conocido y generalizado. De todos modos, Kalliokoski y sus
colegas se sorprendieron al encontrar más de 100 estudios con imágenes
cuestionables mientras compilaban una revisión sistemática sobre una prueba
ampliamente utilizada para medir el estado de ánimo de ratas de laboratorio.
Después de publicar la revisión1 en enero, los investigadores publicaron una
preimpresión2 que documenta los estudios preocupantes que descubrieron y cómo
afectaron los resultados de su revisión. La preimpresión, publicada en bioRxiv
en febrero, aún no ha sido revisada por pares.
Su trabajo “destaca claramente [que las imágenes
falsificadas] están impactando nuestra base de conocimientos consolidada”, dice
Alexandra Bannach-Brown, metodóloga de revisiones sistemáticas en el Instituto
de Salud de Berlín que no participó ni en la revisión ni en la preimpresión.
Las revisiones sistemáticas, que resumen e interpretan la literatura sobre un
tema en particular, son un componente clave de esa base. Con una explosión de
literatura científica, “es imposible que una sola persona siga leyendo cada
nuevo artículo que aparece en su campo”, dice Bannach-Brown. Y eso significa
que defender la calidad de las revisiones sistemáticas es cada vez más
importante.
Acumulación de
problemas
La revisión sistemática de Kalliokoski examinó la
confiabilidad de una prueba diseñada para evaluar la búsqueda de recompensa en
ratas bajo estrés. Se supone que un interés reducido en una recompensa es un
síntoma indirecto de la depresión, y la prueba se utiliza ampliamente durante
el desarrollo de fármacos antidepresivos. El equipo identificó un grupo inicial
de 1.035 artículos elegibles; 588 imágenes contenidas.
Cuando hubo hojeado cinco artículos, Kalliokoski ya
había encontrado un segundo con imágenes inquietantes. Sin estar seguro de qué
hacer, marcó los estudios sospechosos y siguió adelante con la recopilación de
documentos para la revisión. A medida que los documentos cuestionables se
acumulaban, él y sus colegas decidieron implementar Imagetwin, una herramienta
de software basada en inteligencia artificial que detecta problemas como
imágenes duplicadas y aquellas que han sido estiradas o rotadas. Ya sea
Imagetwin o el escrutinio visual de los autores, se detectaron 112 (casi el
20%) de los 588 artículos que contenían imágenes.
“Eso es realmente mucho”, dice Elizabeth Bik,
microbióloga de San Francisco, California, que ha investigado la mala conducta
relacionada con las imágenes y ahora es consultora independiente de integridad
científica. Ya sea que la manipulación de imágenes sea el resultado de un error
honesto o de una intención de engañar, “podría socavar los hallazgos de un
estudio”, dice.
Efecto pequeño
pero detectable
Para su análisis final, los autores examinaron todos
los artículos que cumplieron con sus criterios de inclusión en su revisión.
Este lote, que consta de 132 estudios, incluía 10 de los 112 que el equipo
había señalado como imágenes potencialmente manipuladas.
Las revistas adoptan IA para detectar imágenes
duplicadas en manuscritos
El análisis de estos 10 estudios por sí solo evaluó
que la prueba era un 50% más efectiva para identificar síntomas relacionados
con la depresión que un cálculo basado en los 122 estudios sin imágenes
cuestionables. Estos estudios sospechosos “en realidad distorsionan los
resultados”, dice Kalliokoski, aunque “no de manera masiva”, porque las
variaciones generales en el conjunto de datos enmascaran la contribución de
este pequeño subconjunto.
Los ejemplos de este estudio “cubren prácticamente
todos los tipos de problemas de imagen”, dice Bik, desde la simple duplicación
hasta imágenes que mostraban evidencia de alteración deliberada. Utilizando una
escala que Bik desarrolló para categorizar el grado de manipulación de
imágenes, los investigadores encontraron que la mayoría de las imágenes
problemáticas mostraban signos de manipulación.
Los investigadores publicaron su revisión en enero
en Translational Psychiatry sin decirle a la revista que se basaba en parte en
artículos que incluían imágenes sospechosas. El editor de la revista, Springer
Nature, dijo a Nature que está investigando. (El equipo de noticias de Nature
es editorialmente independiente de su editor, Springer Nature).
Cuando publicaron su preimpresión el mes siguiente,
los investigadores incluyeron detalles de todos los artículos con imágenes
sospechosas. También señalaron cada estudio en Pubpeer, un sitio web donde los
científicos comentan artículos de forma anónima. "Mi primera lealtad es
hacia la comunidad [científica]", dice Kalliokoski, y agrega que publicar
los datos es el primer paso.
Da vida a las
reseñas
El proceso de cuestionar la integridad de un
estudio, dar a sus autores la oportunidad de responder y solicitar la
retractación de estudios fraudulentos puede llevar años. Una forma de aclarar
estas aguas turbias, dice Bannach-Brown, es publicar revisiones sistemáticas
"vivas", diseñadas para actualizarse cada vez que se retiran
artículos o se publican nuevos artículos.
..
Comentarios
Publicar un comentario