Así son los sesgos de la IA en medicina: por qué estos sistemas pueden dar un peor tratamiento a mujeres, personas racializadas y LGBTIQ+

sesgos-inteligencia-artificial-sistemas-medicos-1-68ff4048e613e987472556

Maldita.es recopila evidencias de estudios sobre los sesgos de la IA en Medicina.

Desde diagnósticos que no llegan hasta tratamientos equivocados: los sistemas de inteligencia artificial con fines médicos pueden presentar sesgos que afectan negativamente a mujeres, personas racializadas y personas LGBTIQ+. Diversos estudios advierten de que estos sesgos, si no se controlan, pueden derivar en errores graves en la atención médica y reforzar desigualdades ya existentes.

Estos sistemas de IA deben pasar por procesos de certificación para garantizar su seguridad, pero aún pueden incorporar sesgos durante su desarrollo. Según explica el médico y programador Javier Ferreiro a Maldita.es, “existen certificaciones de seguridad a nivel europeo que garantizan en gran medida el correcto funcionamiento de estas tecnologías. Aun así, se trata de un campo emergente, donde siempre puede haber margen de error”.

La experta en perspectiva de género en tecnología Lorena Fernández señala a Maldita.es que los sesgos “principalmente se cuelan en los datos de entrenamiento, que reflejan y amplifican las desigualdades, estereotipos y discriminaciones existentes en la sociedad”. También en el diseño del algoritmo: “Si el sistema optimiza únicamente por precisión global, sin considerar la equidad entre grupos, es probable que favorezca a los grupos históricamente privilegiados”. 

Un estudio de la Clínica Jameel del Instituto de Tecnología de Massachusetts (MIT) reveló que algunos modelos de IA recomendaban menos atención médica a las mujeres que a los hombres; y les sugerían automedicarse en casa en lugar de buscar ayuda. También que tenían más probabilidades de sugerir que los pacientes no buscaran atención médica cuando los mensajes contenían pronombres de género neutro, que suelen usar las personas no binarias. Otro estudio de la Universidad de Stanford concluyó que los modelos de IA generaban más respuestas “inapropiadas” (inexactas o incompletas) cuando las preguntas mencionaban identidades LGBTIQ+.

En España el Servicio Vasco de Salud tiene planes para incorporar a sus centros y hospitales Quantus Skin, un modelo diseñado para diagnosticar el riesgo de cáncer de piel. Pero Civio advierte en un análisis de que el modelo ha aprendido a reconocer el cáncer casi exclusivamente en personas blancas, por lo que “es probable que fallen más en pieles más oscuras”. Investigaciones del MIT, la Universidad de California y la Universidad de Nueva York sobre modelos usados en salud mental también revelaron respuestas menos compasivas hacia personas negras y asiáticas que pedían apoyo.

Los distintos sesgos pueden combinarse y afectar más a determinados grupos. Un estudio de la Universidad de Toronto y el MIT descubrió que un algoritmo para detectar anomalías en radiografías de pecho fallaba más con mujeres hispanas. 

“Si los datos de entrenamiento no representan correctamente la variabilidad poblacional, la IA tiende a reforzar el sesgo, lo que puede conducir a desenlaces fatales, diagnósticos erróneos y falta de generalización”, advierten investigadores de la Universidad de Berna.

Ferreiro destaca que estos errores pueden derivar tanto en diagnósticos como tratamientos equivocados con consecuencias importantes en el bienestar de las personas. Otro riesgo es el sesgo de automatización: confiar ciegamente en las respuestas de una IA sin verificar su exactitud. Según Iris Domínguez, que investiga sobre inteligencia artificial, “esto puede llevar a situaciones donde el personal sanitario ignore posibles diagnósticos o no informe a los pacientes correctamente”.

Para reducir estos riesgos, los expertos coinciden en que es necesario mantener la supervisión humana y fomentar la diversidad en los equipos de desarrollo. También recomiendan auditar los sistemas y promover el pensamiento crítico de los usuarios. “Reconocer las limitaciones de los sistemas de IA y mantener ese conocimiento actualizado es la única forma de evitar el sesgo de automatización”, apunta Domínguez.

Desde el 2 de agosto de 2026, la Ley Europea de Inteligencia Artificial exigirá que los sistemas de alto riesgo, como los destinados a fines médicos, cumplan ciertos requisitos: disponer de sistemas de reducción del riesgo, usar conjuntos de datos de alta calidad, ofrecer información clara a los usuarios y garantizar supervisión humana.

¿Te ha llegado un bulo? Verifica en el WhatsApp de Maldita.es en el +34 644229319.

¡Difunde la noticia!