¿Pidiendo peras al olmo? Los modelos matemáticos de la COVID

Beatriz Gonzalez Lopez-Valcarcel

Anteayer, 23 de septiembre, se celebró un webminar sobre modelización COVID en la Escuela de Verano de Salud Pública de Menorca, que se puede ver en youtube. La Escuela tiene larga tradición de 31 ediciones, y su sede es un lazareto para pasar cuarentenas, muy adecuado al tema de este año, aunque cada cual ha participado desde su casa. Hubo tres presentadores: Clara Prats, Jeffrey Harris y yo misma, tres "guerreros" de la COVID en terminología de nuestro moderador, Jaime Pinilla.

Clara Prats forma parte del grupo BIOCOMSC (Computational Biology and Complex Systems) de la Universidad Politécnica de Cataluña. Han creado uno de los modelos COVID supervivientes en el proceso darwiniano de selección iniciado en marzo. El suyo se ha ido adaptando a las nuevas necesidades, está financiado por la Unión Europea y la ECDC, que lo utilizan como guía, y aporta una valiosa información anticipatoria sobre nuevos brotes en Cataluña, muy desagregada territorialmente, que permiten tomar rápidamente decisiones sobre abrir o cerrar el grifo de las restricciones. Clara contó la intrahistoria de la evolución de su modelo. Muy interesante.

Jeffrey Harris, médico de atención primaria en activo en un barrio con mucha población hispana de California (el día anterior había atendido a 20 pacientes, contó, de los que la mitad tenían la COVID), es también profesor de economía en el MIT y desde marzo viene analizando en su blog Life under Quarantine los datos epidemiológicos, genómicos y de movilidad humana en algunos barrios de EEUU para formular hipótesis plausibles sobre la transmisión del virus durante las primeras semanas en Nueva York (el metro como vector), o sobre el papel de los bares en la transmisión de la COVID, aprovechando la gran variedad de normas regulatorias locales que se dan en EEUU, las cuales permiten comparar patrones en condados sujetos a distintas regulaciones.

Yo hablé del potencial de los modelos y de sus limitaciones. En un contexto de acceso universal a los datos en abierto (hay repositorios en csv que contienen prácticamente todos los datos disponibles de infecciones, tests, hospitalizaciones y fallecimientos, país por país y región por región), la modelización se ha globalizado. Puedes encontrar predicciones para España e incluso para cada una de sus CCAA en el Institute of Health Metrics and Evaluation (IHME) de la Universidad de Washington (Seattle). Su modelo ha recibido mucha financiación y atención gubernamental. Puedes encontrar también predicciones alternativas para nuestro país hechas desde EEUU, con un modelo basado en machine learning, por un grupo independiente muy activo autodenominado COVID-19 projections.

Claro que los datos son de calidad variable, llegan con retraso, no son comparables a lo largo del tiempo ni lo suficientemente desagregados para poder sacarles más partido, como ya se ha comentado en NeG en una entrada de 4 de junio de Boscá, Doménech y Ferri y en otra entrada en The Conversation por Clara Prats y sus colegas, por citar algunas.

Básicamente, la mayoría de los modelos que predicen la evolución de una epidemia parten de un modelo conceptualmente simple que formularan en 1927 dos investigadores del Royal College of Physicians de Edimburgo (Kermack WO y McKendrick AG, 1927). Es el modelo SEIR (Susceptible, Expuesto, Infectado, Recuperado), que sirvió para analizar la gripe "española" de hace un siglo y la COVID ahora. Algunos modelos han ido adquiriendo complejidad, incorporando datos de grano fino territorial y sobre movilidad humana, desagregan por grupos de población, pasan esa masa de datos por algoritmos de inteligencia artificial y terminan ofreciendo sus predicciones, que tienen tres variables dependientes: número (y tasa) de infectados, uso de recursos (camas de hospital y de UCI) y fallecimientos.

¿Para qué sirven? Los modelos son como mapas que nos guían en la era COVID. Así como hay mapas físicos, políticos y de riesgo sísmico, complementarios focos de un mundo prismático con muchas caras, los modelos sirven para comprender el funcionamiento de sistemas complejos, para predecir el futuro, para detectar anticipadamente nuevos brotes y para estimar el efecto de posibles medidas de salud pública, como la obligación de mascarillas o determinadas restricciones de movilidad.

Igual que los modelos meteorológicos, los modelos COVID predicen muy bien a corto plazo (unos pocos días, una semana); compran así un tiempo muy valioso, sobre todo para tomar decisiones sobre recursos (camas hospitalarias, respiradores, rastreadores) y hasta cierto punto, sobre restricciones. Se publican ranking de modelos según su capacidad predictiva con horizonte de cuatro semanas (en los que, por cierto, algunos de los mejor financiados, como el del IHME antes reseñado, no quedan muy bien).

Las predicciones a largo plazo (¡y aquí largo plazo son tres meses vista!) son muy inciertas. Ya lo escribía en abril en NeG Anxo Sánchez (aquí), a propósito del efecto mariposa y la teoría del caos. Hay una enorme incertidumbre en todos los órdenes, incógnitas biológicas y sobre la cronología de la aparición de tratamientos efectivos, vacunas y test sensibles, específicos y baratos. Una observación en este sentido: los test de antígeno aprobados hace pocas semanas por la FDA se están empezando a usar en España. Como los PCR, y con una sensibilidad similar en personas sintomáticas, detectan el virus y no los anticuerpos generados para combatirlo (eso hacen los test serológicos rápidos) pero cuestan 5€ (unas 18 veces menos que una PCR) y dan resultados en 15 minutos. La estrategia del Ministerio y el ISCIII de detección precoz, vigilancia y control de COVID-19, en su versión de 21 de septiembre (todavía no está en su web, que publica la del 10 de septiembre) ya incorpora el uso de ese nuevo recurso. Su efecto sobre las nuevas infecciones detectadas, y su coste, será muy tangible.

Pero si la predicción a largo plazo está sujeta a gran incertidumbre, la simulación del efecto de medidas alternativas de salud pública, mucho más, y no se puede evaluar retrospectivamente su grado de acierto, al ser contrafactual. Una buena estimación no solo depende de parámetros biológicos y del avance de la ciencia, también depende de las hipótesis sobre el comportamiento humano: adherencia a las medidas y grado de exposición al riesgo de diferentes grupos poblacionales. Los más vulnerables (personas mayores, afectados por problemas crónicos de salud) y los de mayor aversión al riesgo se resguardarán, confinándose más allá de las exigencias regulatorias: prisión preventiva voluntaria sin fianza. Los de menor vulnerabilidad, jóvenes en particular, no tienen los mismos incentivos para protegerse del contagio. Tampoco los tienen las personas que han de elegir entre contagiarse o desfallecer por falta de recursos económicos, sobre todo en países donde el sector informal de la economía es voluminoso. Algunos modelos incorporan la heterogeneidad interpersonal -lo relevante no es el número reproductivo básico, R0, promedio, sino también su distribución. Porque hay supercontagiadores y hay personas que no contagiarían a nadie si se infectaran. Una de las consecuencias de esta heterogeneidad es que la inmunidad de grupo podría alcanzarse con un porcentaje de personas que han pasado la COVID inferior al que se estimaba antes, como sugieren Britton y colaboradores en su modelo, publicado en Science en agosto. El mismo Britton afirma, a propósito del comportamiento humano, que "es el propio rebaño quien determina su inmunidad".

Decíamos que los modelos son como mapas que nos guían en la era COVID. Alimentados por datos masivos que se procesan con IA, algunos modelos se hacen mas y mas complejos, ignorando el principio de parsimonia o simplicidad (a igualdad de condiciones, un modelo simple con pocos parámetros es mejor que otro muy parametrizado). En el límite, llegaríamos al mapa del imperio a escala 1/1 del que hablaba Borges en su cuento "Del rigor en la ciencia". Teniendo en cuenta las repercusiones prácticas que pueden conllevar los modelos, un grupo de modelizadores han propuesto y publicado en Nature un código de conducta con cinco puntos: 1) tener en cuenta las hipótesis y establecer la incertidumbre y sensibilidad; 2) no hacer complejo lo que puede hacerse simple (el principio de la parsimonia); 3) considerar el marco. Cuando se modelizan comportamientos humanos, no se puede tratar igual a Suecia y a España; 4) considerar las consecuencias de lo que se comunica, y no sustituir el buen juicio con una batería de test estadísticos; 5) reconocer la ignorancia. Así se mitigaría la arrogancia de la ciencia.

Por tanto, quizá estemos pidiendo peras al olmo, y recogiendo bonitas y glamurosas margaritas que echar a los decisores políticos. Puestos a pedir, echo en falta la incorporación de la dimensión de desigualdad en los modelos (predicciones de infecciones y de fallecimientos desagregadas por grupos socioeconómicos). También me gustaría una integración entre los modelos matemáticos de la epidemia y los modelos económicos, que están totalmente segregados y son independientes de su base epidemiológica, aunque sean consecuencia de ella.

Termino diciendo que así como los modelizadores ejercen el sano ejercicio de la evaluación de sus modelos, según capacidad predictiva, la gestión de la epidemia debería ser evaluada por personas independientes, para aprender de los errores y reforzar lo que funciona. Eso es lo que venimos pidiendo un grupo de 20 científicos vinculados a la salud publica en sendas cartas publicadas en Lancet y Lancet Public Health este verano. El siguiente paso será concretar quién, como y cuando.

Hay 2 comentarios
  • Mucho me temo que pedir a nuestros políticos que “la gestión de la epidemia debería ser evaluada por personas independientes, para aprender de los errores y reforzar lo que funciona” sí sea pedir peras al olmo... 🙁

    De todos modos, mil gracias por el artículo y por los de Lancet.

Los comentarios están cerrados.