La inteligencia artificial (IA) en salud pasó de ser una visión de futuro a una herramienta concreta y presente. Su llegada al sector no ha sido gradual ni discreta: irrumpió con ímpetu y a gran velocidad. Estamos hablando de un mercado valorado en 39,34 mil millones de dólares en 2025 y que prevé que crezca de 56,01 mil millones de dólares en 2026 a 1.033,27 mil millones de dólares en 2034, con proyecciones de superar los 500 mil millones de dólares para 2033. Desde el apoyo diagnóstico hasta la gestión sanitaria, pasando por la medicina personalizada y la automatización de tareas administrativas, la IA está transformando profundamente el sistema de salud y la atención al paciente a nivel global.
Uno de los aportes más relevantes es su habilidad para transformar grandes volúmenes de datos en información clínicamente útil. El sistema genera a diario una cantidad inmensa de registros: historiales médicos, imágenes, resultados de pruebas, datos epidemiológicos, patrones de seguimiento terapéutico y mediciones de resultados. Durante mucho tiempo, buena parte de ese potencial permaneció sin aprovechar.
Hoy, la IA permite detectar patrones clínicos con mayor agilidad, respaldar decisiones con mayor evidencia y devolver tiempo a los profesionales para que lo dediquen a lo que verdaderamente importa: la atención al paciente. Porque la IA nunca reemplazará lo esencial de la medicina: el vínculo entre profesional y paciente, el criterio clínico, la empatía y la confianza las que continuarán siendo pilares irremplazables. Lo que sí ofrece esta tecnología es una capacidad notable para mejorar la anticipación, la priorización y la respuesta, contribuyendo así a un sistema más preventivo, preciso y eficiente.
Sin embargo, los datos disponibles muestran que la adopción real a gran escala sigue siendo bastante limitada. ¿Por qué? El desfase entre potencial y adopción constituye el eje central del informe Scaling Artificial Intelligence in Health, publicado recientemente por la Organización para la Cooperación y Desarrollo Económico (OCDE). El documento, de corte más técnico, tiene por propósito ofrecer un marco operativo dirigido a responsables políticos, gestores sanitarios y actores del ecosistema, para que puedan identificar barreras estructurales y diseñar intervenciones coherentes con su contexto.
El informe identifica así tres grandes factores que explican por qué la IA en salud sigue sin alcanzar una escala significativa. El primero es la fragmentación de los datos. La IA depende de información accesible, interoperable y de calidad; sin embargo, el sector sanitario aprovecha menos del 5% de los datos que genera para tomar decisiones. Esa infrautilización responde a problemas de gobernanza y acceso que frenan tanto el desarrollo como la implantación de soluciones. El segundo factor es la desalineación entre políticas, regulación y práctica clínica. Existen diferencias notables entre países -e incluso dentro de ellos- en aspectos como la evaluación de riesgos, la clasificación de dispositivos o los procesos de aprobación.
Las carencias en gobernanza y capacidad organizativa son el tercer factor. Solo el 18% de los países cuenta con organismos de supervisión específicos para la IA en salud, y apenas el 29% ha desarrollado políticas orientadas a adaptar la formación del personal sanitario. Esto pone de manifiesto que la transformación requerida no es únicamente tecnológica, sino también institucional. De esta manera, el informe plantea que el impacto de la inteligencia artificial en salud no será inmediato ni homogéneo, y dependerá en gran medida de las decisiones de política pública.
El riesgo, por lo tanto, señala la OCDE, no reside únicamente en un uso inadecuado de la IA, sino también en la decisión de no adoptarla. Prescindir de esta tecnología puede acentuar desigualdades, restringir el acceso a avances relevantes y consolidar ineficiencias que ya arrastra el sistema. Bajo esta perspectiva, la IA no se concibe como una solución que opere por sí sola, sino como una herramienta cuyo verdadero impacto está condicionado por cómo se aplica el principio de "escala responsable": avanzar en su integración no significa simplemente desplegar tecnología, sino crear las condiciones estructurales que hagan posible un uso seguro, justo y eficiente.