Por Luis Tejerina - Esta columna fue publicada originalmente en el blog Gente Saludable del BID.

Seguramente has escuchado de las decenas de compañías que buscan hacer uso de la inteligencia artificial (IA) para volver a los médicos mas eficientes, extender los servicios de salud a zonas remotas y detectar la presencia de enfermedades con mayor rapidez. También es probable que hayas escuchado acerca de los accidentes causados por vehículos conducidos por IA. Estas historias normalmente resaltan que las tasas de accidentes serán menores. Sin embargo, la alarma internacional es mucho mayor en el caso de este tipo de vehículos en comparación con cualquier accidente rutinario.

Una pregunta que también se suele hacer es: ¿de quién es la culpa cuando se dan este tipo de situaciones? ¿De la persona que hizo el algoritmo? ¿De la compañía que fabricó el vehículo? ¿O del dueño del vehículo?

¿Cómo toma decisiones de salud la inteligencia artificial?

En el sector salud, como es de imaginarse, este tipo de problemas son aún mayores. No solo se debe definir de quién es la culpa, sino que en algunos países es necesario definir si un algoritmo califica como un servicio o un instrumento médico. En Estados Unidos, por ejemplo, los algoritmos deben ser regulados por la Administración de Drogas y Alimentos, a menos que el médico pueda tomar una decisión independiente y entienda el mecanismo que genera las recomendaciones de tratamiento. Sin embargo, todavía no existe claridad acerca de cómo se revisará el adecuado funcionamiento de un algoritmo.

El software que apoya con la implementación de la historia clínica electrónica, en los casos más avanzados, tiene un componente que apoya con decisiones clínicas. Basado en la información del paciente, este tipo de sistemas puede generar alertas simples como interacciones entre medicamentos o contraindicaciones que de otra manera podrían ignorarse. En otras ocasiones, puede proveer recomendaciones de diagnósticos a manera de opciones con diferentes niveles de probabilidad de cada diagnóstico. Este tipo de soluciones pueden ser parte de un sistema de historia clínica electrónica, servicios independientes o en ocasiones aparecer de forma gratuita en páginas web.

Por ahora, más preguntas que respuestas

Por otro lado, existen estudios que evidencian que algunos de estos algoritmos, en particular los que realizan análisis de imágenes, tienen un desempeño igual o mejor que el de los mejores especialistas. Un tema que no queda claro es el nivel de regulación al que deben someterse este tipo de algoritmos y el nivel de responsabilidad que deben tener los diferentes involucrados en el desarrollo y uso de un algoritmo. La tecnología para crear este tipo de herramientas se ha hecho tan accesible, que una persona puede acceder a bases de datos abiertas y gratuitas, a herramientas de elaboración de algoritmos, y en un par de días crear una aplicación que pueda dar diagnósticos sobre, por ejemplo, lesiones de la piel con altos niveles de precisión.

Un algoritmo que está disponible para realizar diagnósticos de forma gratuita o como parte integral de un sistema podría ser muy útil y a la vez riesgoso. ¿Debería este tipo de algoritmos ser regulado y certificado por alguna institución del país donde se utiliza? Si sabemos que existen algoritmos disponibles que pueden ayudar a mejorar los diagnósticos, ¿podemos considerar que es negligente no utilizarlos para ese fin? Y en caso de que sí se utilicen, ¿cómo se divide la responsabilidad legal en caso de un diagnóstico erróneo entre el médico que realiza el diagnóstico, el hospital que compró el sistema y el desarrollador del algoritmo?

Utilizar la IA sabiamente

Es interesante que parte de las respuestas a estas interrogantes debe considerar la decisión de si un algoritmo está brindando un servicio o cuenta como un equipo médico de por sí.

Una solución interesante a este problema se observa en el Portal de Telemedicina de Sao Paulo. Ellos disponen de un algoritmo que puede realizar diagnósticos con bastante precisión y se utiliza para priorizar la revisión por un especialista. El diagnóstico del algoritmo no se comparte con el especialista, pero en caso de encontrarse discrepancias, la información es compartida con tres especialistas adicionales que toman la decisión final. Es decir, el algoritmo no puede influenciar en la opinión del especialista.

Un reto pendiente es que la regulación suele estar atrasada con respecto al avance de la tecnología, y en la región todavía son pocos los casos en los que existen sistemas avanzados de apoyo a personal médico basado en algoritmos. Pero el futuro avanza rápido y es probable que en pocos años tengamos que enfrentar el tipo de dilemas legales y éticos que los casos recién descritos ilustran. Es necesario comenzar a discutir estos temas y pensar en soluciones cuando todavía el problema es relativamente manejable.

Si conoces iniciativas o tienes ideas de proyectos que empleen la IA en proyectos de salud de manera ética, compártelas en nuestra nueva plataforma de salud digital, +Digital.

Dejar una respuesta

Please enter your comment!
Please enter your name here