A medida que la tecnología avanza, podemos disfrutar de nuevos e innovadores equipos médicos, se trata de dispositivos que revolucionan la manera de brindar atención en salud.
Sin embargo, una preocupación constante es la seguridad y regulación de los nuevos avances. Un ejemplo de ello es la inteligencia artificial, tecnología por la cual pueden mejorarse drásticamente la eficiencia de tratamientos y diagnósticos, así como también aumentar la eficiencia por parte de los profesionales de salud.
Durante la última década, los productos sanitarios basados en IA han salido de la etapa de prueba de concepto y han comenzado a reescribir nuestra comprensión de lo que podría ser posible.
La inteligencia artificial en la medicina también plantea desafíos éticos y legales importantes. Varios de estos responden a preocupaciones sobre la privacidad, la discriminación, el daño psicológico y la relación médico-paciente. Las nuevas legislaciones tendrían que establecer una serie de salvaguardas en torno a la inteligencia artificial, tal como se hizo con las pruebas genéticas.
Los dispositivos portátiles basados en inteligencia artificial se utilizan de forma rutinaria para monitorear a los pacientes, señalando cualquier cambio en sus signos vitales. Incluso existen herramientas de clasificación basadas en IA para Covid-19, que pueden determinar quién necesita una prueba de PCR.
La idea de un médico robot parece lejana, pero está claro que estas tecnologías digitales emergentes pronto serán herramientas que formen parte de nuestra realidad.
Los investigadores ya están usando la inteligencia artificial para predecir una multitud de condiciones médicas, que incluyen enfermedades cardíacas, derrames cerebrales, diabetes, deterioro cognitivo, futuro abuso de opioides e incluso suicidio. Como ejemplo: Facebook usa un algoritmo que hace predicciones de suicidio basadas en publicaciones con frases como «¿Estás bien?» Junto con «Adiós» y «Por favor, no hagas esto».
Lo que está menos claro es cómo se pueden utilizar estas nuevas tecnologías de forma ética y responsable. Un informe reciente de la Organización Mundial de la Salud (OMS) advirtió que las tecnologías de IA conllevan riesgos, entre ellos sesgos codificados en algoritmos; prácticas de recopilación de datos poco éticas; y riesgos para la seguridad del paciente y la ciberseguridad.
Dado que hasta ahora, no conocemos todos los efectos que el uso de inteligencia artificial puede ocasionar, la vigilancia después de la venta, es fundamental, es decir, revisar el ciclo completo de todo el dispositivo médico. El paradigma tradicional de la regulación de dispositivos médicos no fue diseñado para tecnologías de IA
Actualmente, hay muchas preguntas en juego, entre ellas, cómo se regula un algoritmo de aprendizaje automático que está diseñado para cambiar con el tiempo en respuesta a nuevas entradas.
Por su parte la FDA está estudiando nuevos enfoques para los dispositivos basados en inteligencia artificial, que tienen en cuenta su naturaleza iterativa y autónoma, en el que se pide a los fabricantes que especifiquen cómo es probable que el algoritmo se adapte con el tiempo.