Es complicado pensar en dispositivos cotidianos sesgados en contra de la raza o el género, sin embargo, pueden serlo.

El ingeniero eléctrico y científico informático Achuta Kadambi, quien crea robots que pueden ver tan bien, o incluso mejor que los humanos, ha diseñado cámaras que ven a través de la niebla o incluso en las esquinas. Hasta ahora se le han concedido cinco patentes por sus inventos y es que señala que incluso el color de piel, puede provocar que un dispositivo funcione diferente en cada persona, el ingeniero lo notó en un aeropuerto, donde tuvo que pedir ayuda a alguien de piel más clara, para activar el grifo de agua en un aeropuerto.

Los dispositivos médicos también pueden estar sesgados, se trata de un tema que ha llamado la atención durante la pandemia de COVID, junto con muchas otras inequidades que afectan la salud. Kadambi aborda 3 formas en que los prejuicios raciales y de género pueden penetrar en los dispositivos médicos, menciona que la equidad, debería ser un criterio para evaluar las nuevas tecnologías, junto con la efectividad.

  • Sesgo físico: Una característica inherente a algunos dispositivos médicos.
  • Sesgo computacional y tecnológico: Se refiere al software y el conjunto de datos utilizados para desarrollar el dispositivo.
  • Interpretación: No se refiere al equipo, sino al usuario.

El sesgo físico fue evidente cuando durante la pandemia, los oxímetros utilizados para medir la oxigenación de la sangre, mostraron datos diferentes de acuerdo al color de piel del usuario. Los oxímetros utilizan la luz transmitida a través de la piel y los tejidos para medir el oxígeno en la sangre de una persona, tienen tres veces más probabilidades de perder niveles bajos de oxígeno en pacientes negros que en blancos. Otros instrumentos también pueden tener problemas con el color de la piel. La pletismografía remota, una nueva tecnología que mide la frecuencia cardíaca mediante el análisis de videos en vivo o grabados, no funciona tan bien para las personas de color cuando se programa para detectar cambios similares al rubor en la piel. Los sesgos de género en la investigación mantienen un círculo vicioso que resta importancia a las cuestiones de género en la salud y perpetúa su descuido

Los sesgos computacionales pueden introducirse en la tecnología médica cuando se prueba principalmente en un grupo homogéneo de sujetos, generalmente hombres blancos. Por ejemplo, un sistema de inteligencia artificial utilizado para analizar radiografías de tórax e identificar 14 enfermedades pulmonares y torácicas diferentes funcionó peor para las mujeres, cuando se entrenó en escaneos principalmente masculinos. Pero entrenar el sistema en una muestra equilibrada por género produjo los mejores resultados generales, sin una pérdida significativa de precisión para los hombres. Detener el sesgo computacional significa hacer un esfuerzo mucho mayor para reclutar personas de diferentes poblaciones para participar en el diseño y las pruebas de dispositivos médicos.

El ingeniero propone que  cada dispositivo médico nuevo, indique qué tan bien funciona en diferentes poblaciones. El reconocimiento de estos posibles sesgos, generarán mayor atención por parte de los fabricantes y mejor desarrollo de nuevas tecnologías.

Por:  Dalia Solano

Fuentes: 

Medicina interna alto valor.
El sesgo de género en la atención sanitaria.