Algoritmo alterado retrasa la atención médica para negros en los Estados Unidos

[ad_1]

por Jessica Hamzelou

mujer que recibe atención médica

Algoritmo médico utilizado en los Estados Unidos da prioridad al tratamiento de blancos más saludables en comparación con los negros más enfermos

Joe Raedle / Getty Images

En los Estados Unidos, los negros pueden no beneficiarse de la atención médica porque un algoritmo ampliamente utilizado se basa en el racismo. Según un nuevo estudio, la proporción de negros remitidos para atención adicional aumentaría más del doble si se eliminara el sesgo.

Los algoritmos se están convirtiendo rápidamente en un elemento clave de la atención médica. Según Ziad Obermeyer, de la Universidad de California en Berkeley, tales tecnologías pueden filtrar entre 100 y 200 millones de personas en los Estados Unidos.

Un ejemplo es un algoritmo utilizado para predecir la salud futura de las personas en función de su historial médico. Una vez que el algoritmo recibe datos sobre los diagnósticos, las recetas y los procedimientos de una persona, genera un número que predice el costo de la atención médica futura de esa persona.

publicidad

Los hospitales, los sistemas de salud y algunos proveedores de seguros de salud usan este puntaje para identificar a las personas que pueden necesitar más atención en el futuro. Aquellos con los costos más altos anticipados pueden recibir atención médica adicional para ayudarlos a no enfermarse, dice Obermeyer.

Obermeyer y sus colegas querían saber más sobre cómo funciona el algoritmo. "En el camino, encontramos una diferencia bastante clara entre los puntajes de riesgo de los pacientes blancos y negros con el mismo nivel de salud", dice.

En línea

El equipo descubrió que los negros con el mismo puntaje que los blancos tenían peores resultados de salud. "Podemos pensar en esto como un paciente blanco más saludable, clasificado entre los pacientes negros más enfermos cuando se trata de asignar inscripciones a este programa", dijo Obermeyer.

Cuando el equipo realizó una simulación sin prejuicios, la proporción de árbitros negros que recibieron tratamiento adicional aumentó de 17.7% a 46.5%. Es difícil estimar la cantidad de personas negras que no reciben atención médica, dice Obermeyer, porque no sabe cuántas organizaciones de salud usan este algoritmo de esta manera.

Esto no significa que el algoritmo no funcione, dice Obermeyer. "Los datos son solo un reflejo de la sociedad que los produjo", dice. "Los pacientes negros generarán costos más bajos que los pacientes blancos, debido a varios factores socioeconómicos relacionados con el acceso a la atención médica, así como a los efectos directos de la raza en la relación médico-paciente".

"El diseño de diferentes sistemas, ya sean legales o informáticos, puede crear y reforzar jerarquías precisamente porque quienes los crean no piensan en cómo las normas y estructuras sociales dan forma a su trabajo". dice Ruha Benjamin, de Princeton. Universidad y autor de Carrera tras tecnología. "La indiferencia a la realidad social es quizás más peligrosa que la intolerancia pura".

Importante y generalizado

Es probable que los sesgos en los algoritmos sean "grandes y generalizados", dice James Zou, de la Universidad de Stanford en California. "Es difícil dar un número, pero podría afectar a una gran parte de la población (estadounidense)", dice.

Obermeyer y sus colegas ajustaron el algoritmo para predecir otras variables menos sesgadas racialmente y trabajaron con el fabricante de este algoritmo para mejorarlo.

Los investigadores decidieron no nombrar al fabricante porque no quieren elegir una sola compañía. Muchas otras empresas y académicos han desarrollado algoritmos similares, y ninguno de ellos ha entendido que podrían estar sesgados, dice Obermeyer.

Los hospitales, los sistemas de salud y las agencias gubernamentales que utilizan algoritmos no lo son. "Es tentador pensar que deberían haberlo sabido mejor, pero nadie lo sabía mejor", dice Obermeyer. Las regulaciones que requieren que los fabricantes verifiquen sus algoritmos podrían ayudar en el futuro, pero los usuarios también deben asegurarse de que los algoritmos que usan no estén sesgados, dijo.

Mientras tanto, se han observado signos de progreso, dice David Leslie, oficial de ética en el Instituto Alan Turing en Londres. La organización ayudó a desarrollar directrices sobre el diseño y la implementación responsables y éticos de los sistemas de inteligencia artificial, que fueron adoptados formalmente por el gobierno británico en junio.

Referencia del diario: ciencia, DOI: 10.1126 / science.aax2342

Más sobre estos temas:

[ad_2]

Sé el primero en comentar

Deja un comentario