Friday , December 6 2019

Suscribete gratis a nuestro boletin semanal

VISIONA . DESARROLLADORES . CONECTADOS .

Suscribete nuestro boletin semanal

PATROCINADORES
Home / Medición y Pruebas / Detectan sesgos raciales en algoritmos de clasificación para servicios de salud

Detectan sesgos raciales en algoritmos de clasificación para servicios de salud

Científicos de la Universidad de California, en Berkeley, encontraron que los algoritmos utilizados para atender a millones de pacientes en Estados Unidos, están racialmente sesgados.

ElectronicosOnline.com Magazine / Oswaldo Barajas

Tras algunas auditorías técnicas sobre modelos de Machine Learning diseñados para determinar el tipo de atención médica de millones de pacientes, investigadores descubrieron que algunos algoritmos están racialmente sesgados.

 

El estudio corrió a cargo de académicos de la Universidad de California, en Berkeley, quienes se dieron a la tarea de analizar los modelos algorítmicos de un software basado en Machine Learning para el sector de servicios de salud, y hallaron que la plataforma clasificadora permite que los pacientes blancos más sanos ingresen a los programas de alto riesgo antes que los negros menos sanos.

"Encontramos que una categoría de algoritmos que influye en las decisiones sobre la atención de la salud de más de cien millones de estadounidenses muestra un sesgo racial significativo", señaló Sendhil Mullainathan, profesor de Computación y Ciencias Conductuales de la Universidad de la Familia Romana en Chicago-Booth y participante de este estudio académico.

Por su parte, Ziad Obermeyer, profesor asociado interino de Políticas y Gestión de la Salud de la UC Berkeley, y autor principal del artículo, señaló en el reporte de prensa de la institución: "Los algoritmos codifican el sesgo racial mediante el uso de los costos de atención de la salud para determinar el ‘riesgo‘ del paciente o quién tiene más probabilidades de beneficiarse de los programas de salud".

Los investigadores a cargo de la auditoría informática encontraron que el algoritmo realizaba sus cálculos con parámetros desajustados lo que daba como resultado un sesgo racial en la asignación de servicios de salud de alto riesgo.

 

- PUBLICIDAD -

Obermeyer agregó que debido a las desigualdades estructurales detectadas en las plataformas computacionales utilizadas por el sistema de atención de la salud de Estados Unidos, se descubrió que los pacientes afroamericanos tienden a generar costos más bajos que los pacientes blancos en un determinado nivel de salud, como resultado, los pacientes negros suelen estar mucho más enfermos a un nivel dado del riesgo predicho por el algoritmo.

Después de haber detectado estos sesgos sumamente críticos en un sector fundamental dela población estadounidense, los científicos solicitaron permisos para realizar algunos ajustes paramétricos en el algoritmo, logrando de eta forma implementar otras variables de predicción de riesgos del paciente, incluyendo variables como costos que podrían evitarse con la atención preventiva, y al realizar las fases de pruebas documentaron la corrección de sesgo característico que se incorporó inicialmente en el algoritmo.

"Los algoritmos por sí solos no son ni buenos ni malos. Es simplemente una cuestión de tener cuidado en cómo se construyen. En este caso, el problema es eminentemente solucionable, y al menos ya existe un fabricante que está trabajando en una solución. Animamos a otros a que lo hagan", apuntó Mullainathan.

Los sesgos raciales pronosticaban menores costos para la población afroamericana y los dejaba fuera de la atención médica de alto riesgo, mientras que a los pacientes blancos les asignaba otra prioridad en los mismos servicios de salud.

 

Del mismo modo, los investigadores sugirieron a las compañías que se dedican a desarrollar softwares con algoritmos de Machine Learning que estarán siendo posteriormente utilizados en segmentos altamente críticos y delicados como el sector de ciencias de la salud, que incorporen más filtros de seguridad como auditorías rutinarias en los flujos de trabajo de los desarrolladores de estos algoritmos, de donde indicaron “preferimos prevenir los problemas en lugar de curarlos”, a manera de analogía comparativa entre la medicina y el diseño y desarrollo de sistemas computacionales.

En términos más generales, explicó Obermeyer, el hecho de que muchos de los algoritmos de predicción que se utilizan hoy en día estén diseñados por empresas privadas y patentados, dificulta el análisis de los datos por parte de los científicos e investigadores, por lo que a menudo se vuelve difícil el descubrimiento de sesgos algorítmicos como este, ya sea en el sistema de justicia penal, en las decisiones de contratación de personal, o en la atención de la salud.

- PUBLICIDAD -

Revisa también ...

Xilinx presenta tarjeta FPGA para diseñar redes de alta velocidad

El kit de evaluación presume de mantener una alta integridad de señal y posee diversos …

NULL