Medicina, IA y sesgo: ¿los malos datos socavarán la buena tecnología?

Los modelos de inteligencia artificial pueden ayudar a predecir y prevenir enfermedades. Pero una investigación reciente pone de manifiesto los retos a los que se enfrentan para proporcionar ideas que funcionen para todos.

Medicina, IA y sesgo: ¿los malos datos socavarán la buena tecnología?

Por Natalie Sabin

18 de mayo de 2022 C Imagina que entras en la Biblioteca del Congreso, con sus millones de libros, y tienes el objetivo de leerlos todos. Imposible, ¿verdad? Incluso si pudieras leer cada palabra de cada obra, no serías capaz de recordar o entender todo, incluso si pasaras toda una vida intentándolo.

Ahora supongamos que de alguna manera tienes un cerebro superpoderoso capaz de leer y comprender toda esa información. Seguiría teniendo un problema: no sabría lo que no se ha tratado en esos libros, qué preguntas no se han respondido, qué experiencias se han omitido.

Del mismo modo, los investigadores de hoy en día tienen una cantidad asombrosa de datos que examinar. Todos los estudios del mundo revisados por pares contienen más de 34 millones de citas. Otros millones de conjuntos de datos exploran cómo cosas como los análisis de sangre, los antecedentes médicos y familiares, la genética y los rasgos sociales y económicos influyen en los resultados de los pacientes.

La inteligencia artificial nos permite utilizar más que nunca este material. Los modelos emergentes pueden organizar con rapidez y precisión enormes cantidades de datos, prediciendo los posibles resultados de los pacientes y ayudando a los médicos a tomar decisiones sobre tratamientos o cuidados preventivos.

Las matemáticas avanzadas son muy prometedoras. Algunos algoritmos C instrucciones para resolver problemas C pueden diagnosticar el cáncer de mama con más precisión que los patólogos. Otras herramientas de IA ya se utilizan en el ámbito médico, permitiendo a los doctores consultar más rápidamente el historial médico de un paciente o mejorar su capacidad para analizar imágenes radiológicas.

Pero algunos expertos en el campo de la inteligencia artificial en medicina sugieren que, aunque los beneficios parecen obvios, los sesgos menos notorios pueden socavar estas tecnologías. De hecho, advierten que los sesgos pueden conducir a una toma de decisiones ineficaz o incluso perjudicial en la atención al paciente.

Nuevas herramientas, ¿mismos sesgos?

Aunque mucha gente asocia el sesgo con los prejuicios personales, étnicos o raciales, en sentido amplio, el sesgo es una tendencia a inclinarse en una determinada dirección, ya sea a favor o en contra de una cosa concreta.

En un sentido estadístico, el sesgo se produce cuando los datos no representan plenamente o con exactitud a la población que se pretende modelar. Esto puede ocurrir por tener datos pobres al principio, o puede ocurrir cuando los datos de una población se aplican a otra por error.

Ambos tipos de sesgo C estadístico y racial/étnico C existen en la literatura médica. Algunas poblaciones se han estudiado más, mientras que otras están infrarrepresentadas. Esto plantea la cuestión: Si construimos modelos de IA a partir de la información existente, ¿estamos pasando los viejos problemas a la nueva tecnología?

Sin duda es una preocupación, dice el doctor David M. Kent, director del Centro de Análisis Predictivo y Eficacia Comparativa del Centro Médico Tufts.

En un nuevo estudio, Kent y un equipo de investigadores examinaron 104 modelos de predicción de enfermedades cardíacas C modelos diseñados para ayudar a los médicos a decidir cómo prevenir la enfermedad. Los investigadores querían saber si los modelos, que habían funcionado con precisión anteriormente, lo harían igual de bien cuando se probaran con un nuevo conjunto de pacientes.

¿Sus conclusiones?

Los modelos funcionaron peor de lo que cabría esperar, dice Kent.

No siempre fueron capaces de distinguir los pacientes de alto riesgo de los de bajo riesgo. En ocasiones, las herramientas sobrestimaban o subestimaban el riesgo de enfermedad de los pacientes. Y lo que es más alarmante, la mayoría de los modelos podían ser perjudiciales si se utilizaban en un entorno clínico real.

¿Por qué había tanta diferencia en el rendimiento de los modelos de sus pruebas originales, en comparación con los actuales? Sesgo estadístico.

Los modelos predictivos no generalizan tan bien como la gente cree que lo hacen, dice Kent.

Cuando se traslada un modelo de una base de datos a otra, o cuando las cosas cambian en el tiempo (de una década a otra) o en el espacio (de una ciudad a otra), el modelo no capta esas diferencias.

Eso crea un sesgo estadístico. Como resultado, el modelo ya no representa a la nueva población de pacientes, y puede no funcionar tan bien.

Esto no significa que la IA no deba utilizarse en la atención sanitaria, afirma Kent. Pero sí demuestra por qué es tan importante la supervisión humana.

El estudio no demuestra que estos modelos sean especialmente malos, dice. Destaca una vulnerabilidad general de los modelos que intentan predecir el riesgo absoluto. Demuestra que es necesario mejorar la auditoría y la actualización de los modelos.

Pero incluso la supervisión humana tiene sus límites, como advierten los investigadores en un nuevo documento que aboga por un proceso estandarizado. Sin ese marco, sólo podemos encontrar el sesgo que pensamos buscar, señalan. Una vez más, no sabemos lo que no sabemos.

Sesgo en la caja negra

La raza es una mezcla de atributos físicos, conductuales y culturales. Es una variable esencial en la atención sanitaria. Pero la raza es un concepto complicado, y pueden surgir problemas al utilizarla en algoritmos de predicción. Aunque hay diferencias de salud entre los grupos raciales, no se puede asumir que todas las personas de un grupo tendrán los mismos resultados de salud.

El doctor David S. Jones, profesor de cultura y medicina de la Universidad de Harvard y coautor de Hidden in Plain Sight C Reconsidering the Use of Race Correction in Algorithms, afirma que muchas de estas herramientas [algoritmos analógicos] parecen dirigir los recursos sanitarios hacia los blancos.

Por la misma época, los investigadores Ziad Obermeyer, MD, y Eric Topol, MD, identificaron sesgos similares en las herramientas de IA.

La falta de diversidad en los estudios clínicos que influyen en la atención a los pacientes es motivo de preocupación desde hace tiempo. Lo que ahora preocupa, según Jones, es que el uso de estos estudios para construir modelos predictivos no sólo transmite esos sesgos, sino que los hace más oscuros y difíciles de detectar.

Antes de los albores de la IA, los algoritmos analógicos eran la única opción clínica. Este tipo de modelos predictivos se calculan a mano en lugar de ser automáticos.

Cuando se utiliza un modelo analógico, dice Jones, una persona puede mirar fácilmente la información y saber exactamente qué información del paciente, como la raza, se ha incluido o no.

En cambio, con las herramientas de aprendizaje automático, el algoritmo puede ser propio, lo que significa que los datos están ocultos para el usuario y no pueden modificarse. Es una caja negra. Esto es un problema porque el usuario, un profesional de la salud, puede no saber qué información del paciente se ha incluido, o cómo esa información puede afectar a las recomendaciones de la IA.

Si utilizamos la raza en la medicina, tiene que ser totalmente transparente para que podamos entender y hacer juicios razonados sobre si el uso es apropiado, dice Jones. Las preguntas a las que hay que dar respuesta son Cómo, y dónde, utilizar las etiquetas raciales para que hagan el bien sin hacer el mal.

Debería preocuparse por la IA en la atención clínica?

A pesar de la avalancha de investigaciones sobre IA, la mayoría de los modelos clínicos aún no se han adoptado en la atención real. Pero si le preocupa el uso de la tecnología por parte de sus proveedores o la carrera, Jones sugiere ser proactivo. Puede preguntar al proveedor: ¿Existen formas en las que su trato hacia mí se basa en su comprensión de mi raza o etnia? Esto puede abrir el diálogo sobre la toma de decisiones del proveedor.

Mientras tanto, el consenso entre los expertos es que los problemas relacionados con el sesgo estadístico y racial dentro de la inteligencia artificial en la medicina existen y necesitan ser abordados antes de que las herramientas se pongan en uso generalizado.

El verdadero peligro es que se inviertan toneladas de dinero en las nuevas empresas que crean modelos de predicción, que están presionadas para obtener un buen [rendimiento de la inversión], dice Kent. Eso podría crear conflictos para difundir modelos que pueden no estar listos o suficientemente probados, lo que podría empeorar la calidad de la atención en lugar de mejorarla.

Hot