GenAI: cómo esta herramienta tecnológica puede ser útil al sector salud

32

La carrera por mejorar el sector salud en el país ahora involucra a un nuevo jugador: la IA generativa. Aunque sus beneficios en la optimización del servicio y la actividad médica están comprobados, todavía se debe usar bajo el estricto control del ojo humano.

Bogotá, abril de 2025. La crisis que atraviesa el sector de la salud en Colombia sigue siendo un reto que avanza simultáneamente con los esfuerzos gubernamentales por integrar la Inteligencia Artificial para mejorar la calidad del servicio.

Falta de medicamentos, demoras en la atención, falta de cobertura, desatención en zonas de difícil acceso, son algunos de los dolores que la medicina digital y la Inteligencia Artificial Generativa podría ayudar a aliviar.

Ya está demostrado que la IA Generativa (GenAI) puede ser un agente transformador en áreas clave como la experiencia del paciente, optimización de procesos administrativos e incluso el descubrimiento de fármacos. Así lo revela EPAM Systems Inc. en una reciente publicación.

Políticas regulatorias y actor humano en la IA para la salud

Llevar la IA a la salud en el país implica un compromiso tanto del sector privado como público. Con la llegada del 5G a Colombia y la urgente optimización de la infraestructura en el territorio, sumado a las regulaciones que ya se hacen —como la reciente aprobación de la política Nacional de Inteligencia Artificial anunciada por el gobierno— sientan las bases para soñar con una salud digital de vanguardia. No obstante, también se debe poner atención a l factor humano en este despliegue.

«La aplicación de GenAI sin la participación humana podría poner en peligro la seguridad del paciente. Su uso como agente que apoya las tareas realizadas por humanos libera todo su potencial, a la vez que refuerza las medidas de seguridad», indica la publicación de EPAM.

En este mismo punto coincide la Organización Mundial de la Salud, que ha llamado a un uso ético y seguro de la IA para la salud. Si bien la OMS es partidaria entusiasta del uso adecuado de tecnologías, incluidos los grandes modelos lingüísticos (LLM), en apoyo del personal de salud, los pacientes, la investigación y la ciencia, ha manifestado su inquietud por si las precauciones que normalmente se tienen ante toda nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos. Ello incluye la observancia generalizada de valores fundamentales como la transparencia, la inclusión, la colaboración pública, la supervisión de expertos y el rigor de las evaluaciones.

«La adopción precipitada de sistemas no comprobados podría inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo», declaran.

Ante este panorama de dudas es que EPAM aclara que «hasta que la humanidad no tenga la certeza de que la IA no diagnosticará erróneamente un infarto ni alucinará (proporcionar información falsa) algo que parezca consejo médico, no deberíamos usar GenAI sin supervisión humana», y «aunque las pruebas demuestran que GenAI está mostrando una mejor comprensión y respuesta al contenido médico, aún es demasiado pronto para incorporar la tecnología a la atención médica sin una supervisión estricta».

Lo que se debe y no se debe hacer con GenAI en la atención médica 

EPAM indica que antes de adoptar un enfoque en donde la GenAI intervenga en casos de atención médica, primero se debe definir el problema o desafío a solucionar y así evaluar si es que esta tecnología es la indicada. De serlo, el siguiente paso es comprender los riesgos y esfuerzos que conlleva su uso antes de determinar si la posible recompensa vale la pena. Y es que las ventajas son amplias, ya que existen áreas en las que su uso puede acelerar ciertas operaciones.

«El mejor enfoque es considerar GenAI no como un sustituto de los humanos, sino como una mejora que nos ayuda a realizar nuestras tareas con mayor rapidez y eficiencia», destaca la publicación. Algunos ejemplos son:

  • Resumen de textos para compartir únicamente con usuarios internos.
  • Generación de contenido borrador para su posterior revisión y aprobación a través de los canales correspondientes.
  • Apoyo de guardia a empleados internos para difundir las mejores prácticas y procedimientos operativos estándar, y mejorar la productividad de los trabajadores.
  • Extracción de metadatos y mapeo relacional.

En todos estos casos la intervención humana es esencial para garantizar la validación y el control de los resultados, contemplando que saben que los resultados son generados por computadora.

Por otro lado, existen áreas de la GenAI que parecen atractivas; sin embargo, requieren de pruebas y validación más exhaustivas, por lo que EPAM recomienda tomar las siguientes precauciones:

  • No utilizar grandes modelos lingüísticos (LLM) como interfaz de preguntas y respuestas para pacientes o proveedores de atención médica sin restricciones. En su lugar, utilice métodos de recuperación y generación aumentada (RAG) para mejorar la calidad de los datos.
  • No emplear LLMs para generar contenido dinámicamente sin seguir procesos para revisarlo y aprobarlo primero.
  • No compartir información personal con un LLM sin obtener su permiso. «Las leyes de privacidad de datos deben tenerse en cuenta al considerar qué conjuntos de datos exponemos a las aplicaciones de GenAI».