En este momento estás viendo Ver para creer en biomedicina, lo que no es bueno cuando la IA se equivoca
"Parece sexy pero está mal", como la rata increíblemente bien dotada.

Ver para creer en biomedicina, lo que no es bueno cuando la IA se equivoca

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:julio 29, 2025

Los especialistas en visualización biomédica aún no han llegado a un acuerdo sobre cómo o si se deben usar herramientas de IA generativa al crear imágenes para aplicaciones científicas y de salud. Sin embargo, existe una necesidad urgente de desarrollar directrices y mejores prácticas, ya que las ilustraciones incorrectas de la anatomía y temas relacionados podrían causar daños en entornos clínicos o como desinformación en línea.

Investigadores de la Universidad de Bergen (Noruega), la Universidad de Toronto (Canadá) y la Universidad de Harvard (EE.UU.) lo plantean en un artículo titulado «Parece atractivo, pero es un error. Tensiones en la creatividad y la precisión con GenAI para la visualización biomédica», cuya presentación está prevista para la conferencia Vis 2025 del IEEE en noviembre.

En su artículo, los autores Roxanne Ziman, Shehryar Saharan, Gaël McGill y Laura Garrison presentan varias ilustraciones creadas por GPT-4o o DALL-E 3 de OpenAI junto con versiones creadas por expertos en visualización.

Fila superior: Imágenes incorrectas de GPT-4o o DALL-E 3; Fila inferior: Imágenes creadas por los ilustradores de BioVisMed.

Algunos de los ejemplos citados difieren sutilmente de la realidad. Otros, como el de la « rata infamemente bien dotada » de un artículo publicado en Frontiers in Cell and Developmental Biology, ahora retractado, serían difíciles de confundir con algo más que fantasía.

De cualquier manera, las imágenes creadas por IA generativa pueden verse bien, pero no son necesariamente precisas, dicen los autores.

«A la luz del lanzamiento público de GPT-4o Image Generation al momento de escribir este artículo, las imágenes producidas por GenAI a menudo parecen lo suficientemente pulidas y profesionales como para ser confundidas con fuentes de información confiables», afirman los autores en su artículo.

Esta ilusión de precisión puede llevar a las personas a tomar decisiones importantes basadas en representaciones fundamentalmente erróneas, desde un paciente sin conocimientos ni formación, inundado de información aparentemente precisa generada por IA, hasta un médico experimentado que toma decisiones cruciales sobre la vida humana basándose en imágenes o código generado por un modelo que no puede garantizar una precisión del 100%.

El coautor Ziman, investigador de doctorado en investigación de visualización en la Universidad de Bergen, dijo en un correo electrónico: «Si bien aún no he encontrado ejemplos del mundo real en los que las imágenes generadas por IA hayan tenido resultados perjudiciales para la salud, un participante de la entrevista compartió con nosotros este caso que involucra un sistema de puntuación de riesgo basado en IA para detectar fraude y acusó injustamente (principalmente a padres extranjeros) de fraude en las prestaciones de cuidado infantil en los Países Bajos.

Con las imágenes generadas por IA, el problema más extendido es el uso de imágenes inexactas en publicaciones médicas y de salud, así como en publicaciones de investigación científica en general. Si bien el daño potencial no es evidente de inmediato, el aumento en el uso de imágenes inexactas como esta , y problemas como el refuerzo de estereotipos en la atención médica para comunicar información médica y de salud, son preocupantes.

Ziman afirmó que el problema más importante, reflejado en una serie de entrevistas comentadas en el periódico, es cómo las imágenes inexactas afectan la percepción pública de la investigación científica. Señaló a la «rata bien dotada» y su presentación en The Late Show with Stephen Colbert.

«La crítica satírica por parte de figuras públicas (en las que la gente tiende a confiar más que en las fuentes de noticias ‘legítimas’) puede poner en tela de juicio la legitimidad de la comunidad de investigación científica en general, y el público puede llegar a desconfiar (aún más) o no tomar en serio lo que escucha proveniente de la comunidad de investigación científica», dijo Ziman.

Piensen en las consecuencias para las comunicaciones de salud pública, como ocurrió durante la COVID-19, las campañas de vacunación, etc. Y los actores maliciosos ahora tienen mayor facilidad para crear y compartir rápidamente imágenes engañosas, pero de apariencia convincente.

Ziman dijo que si bien las imágenes médicas generadas por IA a menudo se comparten en la comunidad de visualización biomédica (BioMedVis) para reírse y recibir críticas, los profesionales aún tienen que descubrir cómo mitigar los riesgos.

Con este fin, los autores encuestaron a 17 profesionales de BioMedVisual para evaluar su percepción de las herramientas de IA generativa y cómo las utilizan en su trabajo. Los encuestados, identificados con seudónimos en el artículo, expresaron una amplia gama de opiniones sobre la IA generativa. Los autores los agruparon en cinco perfiles: Adoptadores Entusiastas, Adaptadores Curiosos, Optimistas Curiosos, Optimistas Cautelosos y Evitadores Escépticos.

Algunos encuestados apreciaron la estética abstracta y sobrenatural de las imágenes generadas por los modelos de IA, afirmando que ayudaban a impulsar las conversaciones con los clientes. Otros (aproximadamente la mitad) criticaron el estilo GenAI, coincidiendo con «Frank», quien afirmó que el aspecto genérico de esas imágenes resulta aburrido.

Los encuestados también utilizaron en ocasiones modelos de texto a texto para los subtítulos y la ayuda descriptiva, aunque no siempre a satisfacción de los encuestados. Como señala el artículo, «las referencias irrelevantes o alucinaciones siguen siendo un problema, al igual que los términos inventados, como la «proteína verde brillante»».

Algunos encuestados consideran que la IA generativa es útil para gestionar tareas de programación rutinarias, como generar código repetitivo o limpiar datos. Otros, sin embargo, consideran que ya han invertido tiempo en aprender a programar y prefieren usar esas habilidades en lugar de delegarlas.

Los investigadores también observan una actitud contradictoria entre los encuestados, quienes «expresan serias preocupaciones acerca de las violaciones de propiedad intelectual que, por el momento, están incorporadas en las herramientas GenAI públicas» cuando se utilizan con fines comerciales, aunque también aceptan en gran medida el uso de la IA generativa a título personal.

Si bien 13 de los 17 encuestados ya incorporan GenAI en sus flujos de trabajo de producción hasta cierto punto, los desarrolladores y diseñadores de BioMedVis aún priorizan la precisión en sus imágenes, y «GenAI en su estado actual no puede alcanzar este punto de referencia», observan los autores.

Señalan comentarios atribuidos a «Arthur»: «Si bien aún está explorando el mundo digital en busca de referencias que pueda usar para generar arte, aún no es capaz de distinguir entre el nervio ciático y el cubital. Son solo, ya sabes, cables».

También citan a «Úrsula» sobre la incapacidad de GenAI para producir una anatomía precisa: «Muéstrame un páncreas y MidJourney dice: ¡Aquí está tu montón de óvulos alienígenas!»

El documento señala que, si bien los resultados erróneos de la IA pueden ser obvios en muchos casos, quienes trabajan en BioMedVis esperan que estos errores sean cada vez más difíciles de detectar a medida que la tecnología mejora y las personas se acostumbran a confiar en estos sistemas.

Los investigadores también plantean preocupaciones más generales sobre la naturaleza de caja negra del aprendizaje automático y la dificultad de abordar el sesgo.

El artículo explica: «Los resultados inexactos o poco fiables, ya sean imágenes anatómicas o bloques de código, pueden inducir a error y diluir la responsabilidad. Los participantes cuestionaron quién debería rendir cuentas en los casos en que se utiliza GenAI y las líneas de responsabilidad se difuminan». Los modelos de caja negra impiden ese tipo de responsabilidad. Como dijo «Kim», quien respondió a la encuesta: «Debería haber alguien que pueda explicar los resultados. Se trata de confianza y de competencia».

El coautor Shehryar Saharan, de la Universidad de Toronto, dijo en un correo electrónico que espera que esta investigación aliente a las personas a pensar críticamente sobre cómo la IA generativa encaja en el trabajo y los valores de los profesionales de BioMedVis.

«Estas herramientas se están convirtiendo en una parte cada vez más importante de nuestro campo, y es importante que no solo las usemos, sino que reflexionemos críticamente sobre lo que significan para nuestra forma de trabajar y por qué hacemos lo que hacemos», dijo Saharan.

Como comunidad, deberíamos sentirnos cómodos compartiendo nuestras ideas, preguntas e inquietudes sobre estas herramientas. Sin una conversación abierta y una disposición a reflexionar, corremos el riesgo de quedarnos atrás o de usar estas tecnologías de maneras que no se alinean con lo que realmente nos importa. Se trata de crear espacio para pensar y reflexionar antes de avanzar.