Un paciente llega a urgencias en estado crítico. En paralelo, un ataque de ransomware está desconectando los servidores del hospital. Mientras el equipo de ciberseguridad responde al incidente, el sistema debe tomar una decisión: ¿cómo mantienen los equipos médicos la conexión con los registros del paciente si la red corporativa está comprometida? ¿Qué datos críticos se sincronizan de forma automática? ¿Quién decide cuáles son las prioridades cuando no hay tiempo para escaladas formales?

Este no es un escenario teórico. En los últimos años, hospitales en México, Argentina, Brasil y Colombia han enfrentado precisamente esto: ciberataques masivos contra infraestructuras sanitarias mientras continuaban atendiendo pacientes. La diferencia entre un resultado catastrófico y una continuidad operativa medianamente controlada radicó en una cosa: si los sistemas tenían capacidad de tomar decisiones automatizadas con criterios claros sobre qué proteger primero.

La inteligencia artificial en salud ya no es una promesa de futuro. Es un componente operativo hoy, presente en diagnóstico asistido, monitoreo de pacientes, gestión de camas, predicción de descompensaciones. El desafío es que muchas organizaciones sanitarias la han adoptado sin preguntar: ¿qué sucede cuando un ataque cibernético o un fallo de infraestructura interrumpe esos sistemas? ¿Los algoritmos saben cómo seguir operando en modo degradado priorizando a los pacientes sobre los datos?

El dilema de la continuidad operativa en hospitales

La infraestructura crítica sanitaria en América Latina opera bajo una presión constante. Los presupuestos para tecnología son limitados. La adopción de sistemas cloud y digitales ha sido rápida, pero a menudo sin una arquitectura de resiliencia que anticipara interrupciones graves. El resultado es lo que los expertos en ciberseguridad industrial denominan fragilidad operativa encubierta: el sistema funciona bien hasta que algo falla, y entonces falla completamente.

Cuando un hospital enfrenta un incidente de ransomware, el tiempo es el enemigo. Según datos del Cost of a Data Breach Report 2024 de IBM, el sector salud experimenta el costo promedio más elevado por violación de datos entre todas las industrias críticas, alcanzando cifras que superan los 10 millones de dólares cuando hay impacto en la continuidad operativa. Pero el costo económico es una métrica secundaria cuando hay vidas en juego.

El auténtico desafío es operativo: un hospital con sistemas IT desconectados debe poder seguir atendiendo pacientes. Eso requiere que los equipos médicos, los monitores de pacientes y los sistemas de información clínica tengan mecanismos para funcionar en modo aislado, sincronizando datos de forma automática cuando la red se recupera. Y requiere inteligencia en esa sincronización: decidir qué información es crítica, qué puede esperar, y qué cambios en el estado del paciente justifican una alarma incluso si los sistemas están degradados.

La IA entra aquí no como la solución mágica, sino como un componente de una estrategia mayor. Un sistema de IA puede aprender, durante la operación normal, cuáles son los patrones de datos que más importan para la seguridad del paciente. Puede clasificar automáticamente qué eventos requieren intervención inmediata del médico y qué pueden resolverse con protocolos locales. Cuando llega un incidente, ese conocimiento acumulado permite al sistema funcionar de forma inteligente incluso con recursos reducidos.

Decisiones automatizadas con supervisión humana

Una de las confusiones más peligrosas en tecnología médica es asumir que la automatización elimina la necesidad de supervisión humana. Es exactamente lo opuesto: la automatización requiere supervisión más rigurosa, porque el margen para el error no es un reporte incorrecto, es una muerte prevenible.

Cuando un hospital implementa sistemas de IA para tareas como la triaje automática de pacientes, la predicción de sepsis, o la optimización de ventiladores en UCI, está delegando decisiones que tienen consecuencias inmediatas. ¿El sistema clasificó correctamente la gravedad del paciente? ¿Tuvo en cuenta todos los factores clínicos relevantes? ¿Y si los datos de entrada están parcialmente corruptos por un ataque cibernético, sigue siendo confiable la salida del modelo?

La arquitectura correcta de IA en salud responde estas preguntas con diseño, no con esperanza. Eso significa:

Trazabilidad completa: cada decisión automatizada debe dejar un registro de qué datos la originaron, con qué nivel de confianza operó el modelo, y cuál fue la alternativa que se descartó. En un análisis forense post-incidente, ese registro es la diferencia entre entender qué salió mal y vivir en la incertidumbre.

Escaladas validadas: no todo requiere intervención del médico. Pero hay un conjunto de situaciones donde el sistema debe reconocer que está operando fuera de sus parámetros normales y solicitar confirmación humana. En urgencias, eso podría significar que una predicción de riesgo de sepsis que normalmente genera una alerta sugería, en cambio, contactar directamente con el médico si la confianza cae por debajo de un umbral.

Modo degradado inteligente: cuando hay un incidente que afecta la red o los datos, el sistema debe saber cómo seguir operando. Eso no significa continuar con los mismos algoritmos sofisticados. Significa revertir a protocolos más simples, basados en reglas, que preserven la seguridad del paciente incluso con menos información disponible.

Límites de actuación claros: la IA no toma decisiones médicas por sí sola. Puede proponer diagnósticos, alertar sobre riesgos, sugerir ajustes de tratamiento. Pero la decisión final siempre es del equipo clínico. La supervisión humana no es un complemento; es el centro del diseño.

Infraestructura crítica sanitaria: donde convergen OT, IT e IA

Los hospitales modernos son infraestructuras híbridas. Tienen sistemas tradicionales de tecnología de operaciones (OT) integrados con redes corporativas (IT) cada vez más sofisticadas. Un equipo de monitoreo de pacientes, un ventilador inteligente, un scanner de tomografía: todos están conectados a redes que a su vez están conectadas a internet.

Esa convergencia IT-OT en hospitales crea superficies de ataque que no existían hace una década. Un atacante que compromete la red corporativa podría, teóricamente, alcanzar equipos médicos. Un fallo de software en la nube podría dejar sin registros médicos a decenas de pacientes simultáneamente.

Según análisis de ciberseguridad en infraestructuras críticas, el sector salud en América Latina sigue siendo uno de los menos maduros en defensas contra ataques dirigidos. Muchos hospitales aún no tienen la separación adecuada entre redes clínicas y redes administrativas. Muchos siguen dependiendo de sistemas legados que nunca fueron diseñados para ser remotos o distribuidos.

Aquí es donde la IA puede contribuir a la resiliencia operativa. Un sistema de monitoreo basado en IA, integrado en una arquitectura de infraestructura crítica bien diseñada, puede:

  • Detectar comportamientos anómalos en la red mucho más rápido que un analista humano.
  • Reaccionar automáticamente a amenazas inmediatas (aislando equipos, forzando autenticación adicional) sin esperar a que un equipo de seguridad evalúe el riesgo.
  • Mantener un registro de cada acción tomada, asegurando que cualquier cambio en la postura de seguridad es auditable.
  • Coordinar entre múltiples sistemas clínicos para garantizar que la continuidad operativa se mantiene de forma consistente.

Pero esto solo funciona si la IA está integrada dentro de un marco de gobernanza sólido. Un sistema de IA suelto, sin límites claros de actuación ni supervisión formal, puede convertirse rápidamente en una vulnerabilidad en lugar de una defensa.

El rol de la supervisión en sistemas de agentes

En los últimos años, la conversación sobre IA en ciberseguridad ha evolucionado desde herramientas de análisis hacia agentes autónomos: sistemas que no solo analizan, sino que toman acciones de forma automática. La promesa es atractiva: un agente que detecta un ataque y responde instantáneamente, sin tiempo de reacción humana que pueda ser explotado por el atacante.

En entornos industriales y de infraestructura crítica, esa idea requiere un escepticismo sano. La autonomía sin supervisión clara es peligrosa. Un agente de seguridad que decide aislar una red podría terminar aislando accidentalmente los sistemas que soportan un cateterismo cardíaco en progreso.

Por eso los sistemas de agentes que funcionan en contextos críticos necesitan un diseño especial: el de agentes colaborativos bajo supervisión humana. Esto significa que el sistema puede sugerir acciones y ejecutar algunas de forma automática (como alertas, logs, aislamiento de amenazas de bajo riesgo), pero cualquier acción que afecte directamente la disponibilidad de servicios clínicos requiere confirmación o supervisión activa de un operador humano.

En un hospital, esto podría verse así: un agente detecta un patrón sospechoso en los registros de acceso a historias clínicas. Automáticamente, registra la amenaza, aumenta el nivel de autenticación para esos datos y alerta al equipo de seguridad. Pero si la acción que el agente propone es desconectar temporalmente una red que soporta el monitoreo de pacientes críticos, la decisión escala a un supervisor humano que puede evaluar el riesgo clínico antes de proceder.

Continuidad operativa en salud: más allá de los datos

Cuando hablamos de continuidad operativa en hospitales, solemos pensar primero en datos: ¿están protegidos los registros médicos? ¿Se pueden recuperar? Eso es importante, pero incompleto.

La continuidad operativa real significa que el hospital puede seguir atendiendo pacientes. Un equipo de reanimación necesita saber qué medicamentos le administró al paciente hace dos horas. Un cirujano necesita ver los resultados de laboratorio del paciente antes de entrar a quirófano. Un intensivista necesita acceso a los signos vitales continuos del paciente en UCI.

Si los sistemas se caen, el hospital no entra en modo seguro; entra en modo de crisis donde la información es escasa y los errores clínicos se vuelven más probables. La IA puede mitigar eso creando islas de información: datos críticos que se sincronizan localmente, sin depender de una conexión central. Un monitor de pacientes que sabe cuál es el estado previo del paciente puede alertar al equipo médico sobre cambios significativos incluso si está desconectado de los sistemas centrales.

Eso requiere que la IA aprenda, durante la operación normal, cuáles son los datos más críticos para cada contexto clínico. Para un paciente en UCI post-operatoria, los signos vitales y los valores de electrolitos son críticos. Para un paciente con asma, el flujo de aire y la saturación de oxígeno son lo primero. La IA puede codificar esa lógica, permitiendo que los sistemas funcionen de forma inteligente en modo degradado.

Gobernanza de IA en entornos sanitarios

Todo lo anterior converge en una pregunta de gobernanza: ¿quién decide qué hace la IA en un hospital? ¿Quién audita esas decisiones? ¿Qué autoridades están implicadas?

En América Latina, el marco regulatorio para IA en salud aún está en construcción. A diferencia de la Unión Europea, que tiene el AI Act, o los Estados Unidos, donde la FDA tiene potestad para regular software médico, muchos países de la región no tienen aún una política clara sobre qué tipo de IA es permitida en hospitales y bajo qué condiciones.

Eso crea un vacío donde la adopción avanza más rápido que la gobernanza. Hospitales implementan sistemas de IA para tareas operativas críticas sin que haya una auditoría formal del modelo, sin que se hayan probado sus fallos, sin que exista un protocolo claro para qué hacer si el sistema comete un error.

Para los CISOs y líderes de infraestructura crítica en hospitales, la gobernanza de IA debe integrarse en marcos de ciberseguridad existentes. Siguiendo las pautas de gobernanza IA y auditoría de decisiones automatizadas, esto incluye:

Inventario y clasificación: saber qué sistemas de IA operan en la red hospitalaria, qué datos procesan, cuál es su nivel de criticidad.

Validación y testing: antes de desplegar un modelo en producción, pruebas que validen que funciona en condiciones normales y en condiciones degradadas.

Auditoría continua: no es una auditoría anual o bianual. Es un monitoreo permanente de cómo el sistema está tomando decisiones.

Escaladas formales: cuando un sistema de IA detecta algo fuera de lo normal, hay un protocolo claro de quién es informado, en qué orden, y qué autoridad tiene cada persona para actuar.

Recuperación y rollback: si un modelo está generando predicciones incorrectas, hay un plan para revertir a la versión anterior, incluso en medio de una crisis.

Hacia una salud más resiliente

Los hospitales en América Latina están en una encrucijada. Necesitan modernizar sus sistemas para mejorar la atención, reducir costos operativos y responder a epidemias y emergencias con mayor velocidad. Pero al mismo tiempo, enfrentan presiones de ciberseguridad cada vez mayores: ataques dirigidos a ransomware, amenazas de estado, competidores que buscan acceder a datos de investigación o pacientes.

La IA puede ayudar en esa travesía, pero solo si se implementa con una mentalidad clara sobre lo que está en juego. No se trata de confiar en algoritmos. Se trata de diseñar sistemas que prioricen la vida del paciente incluso cuando todo lo demás falla.

Eso significa inversión en gobernanza, en capacitación de equipos, en arquitecturas de resiliencia que anticipen crisis. Significa que los CISOs tengan voz en las decisiones de adopción de IA, no como bloqueadores, sino como guardianes de que esa IA está diseñada para operar bajo presión, con supervisión humana clara, y priorizando siempre la seguridad del paciente sobre cualquier otra consideración.

El futuro de la salud en la región dependerá de si los líderes sanitarios y de ciberseguridad logran integrar IA, resiliencia operativa y gobernanza en una sola visión coherente. Los pacientes merecen nada menos que sistemas que, incluso cuando son atacados, siguen poniendo su vida en el centro de cada decisión.