Todas las Noticias en Películas, Avances de Películas y Reseñas.

¿IA sesgada? Un estudio encuentra que los algoritmos de inteligencia artificial pueden identificar la identidad racial de una persona basándose en rayos X

Según un estudio reciente, la inteligencia artificial (IA) es capaz de identificar con precisión la raza de una persona a partir de exploraciones radiográficas, una hazaña que los expertos humanos no pueden replicar.

Como informó primero Ingenieria interesanteel estudio sugiere que la integración de la raza en el análisis de imágenes podría causar más prejuicios y disparidades raciales en el campo médico.

La primera autora del estudio y académica del Servicio Nacional de Avance de Tecnología y Datos (DATA) del NIBIB, Judy Gichoya, MD, reconoció que la IA tiene un inmenso potencial para transformar el tratamiento de varias enfermedades y afecciones. Sin embargo, también enfatizó que es necesario comprender cómo funcionan los algoritmos de IA para garantizar que beneficien a todos los pacientes.

Sesgo en los sistemas de IA

El sesgo en los sistemas de IA no es un concepto nuevo. Los estudios han revelado que los factores demográficos, como la raza, pueden tener un impacto en el rendimiento de la IA.

El uso de conjuntos de datos que no son representativos de la comunidad de pacientes, como aquellos en los que la mayoría de los pacientes son blancos, es una de las muchas razones potenciales que podrían generar sesgos en los sistemas de IA, como lo señaló el comunicado de prensa del estudio.

Además, el estudiar afirma que el sesgo puede ser introducido por factores de confusión, que son características o fenotipos que prevalecen desproporcionadamente en las poblaciones de subgrupos, como las variaciones étnicas en la densidad mamaria o ósea.

El estudio actual destaca otro elemento potencial que puede inducir sesgos involuntarios en los algoritmos de IA mediante exploraciones de rayos X.

Recomendado:  CCXP 2019: la temporada 2 de The Boys explorará el pasado de Frenchie

Descubrimiento sorprendente

Para su investigación, Gichoya y sus colegas primero intentaron ver si podían crear modelos de inteligencia artificial que pudieran identificar la raza solo a partir de radiografías de tórax. Descubrieron que sus algoritmos podían predecir la raza con un alto grado de precisión utilizando tres enormes conjuntos de datos que cubrían una población diversa de pacientes.

Este fue un descubrimiento sorprendente porque los especialistas humanos no pueden hacer tales predicciones estudiando los rayos X.

Los investigadores también descubrieron que la IA era capaz de identificar la raza autoinformada incluso cuando la resolución se alteraba significativamente, las fotos se recortaban a sólo una novena parte de su tamaño original o las imágenes apenas eran identificables como rayos X.

Posteriormente, el equipo de investigación probó la capacidad de la IA para identificar la raza autoinformada utilizando una variedad de conjuntos de datos de rayos X distintos de los de tórax, como tomografías computarizadas (TC) de tórax, mamografías y radiografías de la columna cervical, y descubrió que no se veía afectada por el tipo de exploración o localización anatómica.

“Señales ocultas”

“Nuestros resultados sugieren que hay ‘señales ocultas’ en imágenes médicas que llevan a la IA a predecir la raza”, dijo Gichoya en un comunicado.

Los investigadores también observaron una amplia gama de variables, incluido el índice de masa corporal (IMC), la densidad ósea, la densidad mamaria y la distribución de la enfermedad, que podrían tener un impacto en las características de las imágenes radiográficas.

No pudieron identificar ningún elemento particular que explicara cómo la IA podría predecir correctamente la carrera autoinformada. En otras palabras, si bien se puede enseñar a la IA a inferir la raza a partir de imágenes médicas, aún se desconoce qué datos utilizan los modelos para hacerlo.

Recomendado:  Elaboración y prueba del chip del servidor Do-Anything

“Ha habido una línea de pensamiento de que si los desarrolladores ‘ocultan’ factores demográficos, como raza, género o estatus socioeconómico, del modelo de IA, el algoritmo resultante no podrá discriminar en función de tales características y, por lo tanto, será ‘ justo.’ Este trabajo destaca que esta visión simplista no es una opción viable para garantizar la equidad en la IA y el aprendizaje automático”, dijo en un comunicado el académico de NIBIB DATA Rui Sá, Ph.D.

ⓒ 2023 . .