Vuelvo antes de lo previsto a Nada es Gratis para comentar un artículo aparecido en el servidor de preprints arXiv el martes 21 de abril, y titulado "Predictability: Can the turning point and end of an expanding epidemic be precisely forecast?" ("Predecibilidad: Pueden predecirse con precisión el pico y el final de una epidemia en expansión?").. Como desde el principio de la pandemia he estado muy preocupado por el elevadísimo número de trabajos basados en modelos más o menos realistas que produce la comunidad de físicos y matemáticos (cuando escribo esto hay 506 preprints en arXiv con la palabra "covid" en el título), el título me llamó la atención, y entonces me fui al abstract y ví que la respuesta era "No, no se puede", en línea con mis sospechas. Así que me fui al artículo y, en mi opinión, lo que encuentran los autores (Mario Castro, Saúl Ares, José A. Cuesta y Susanna Manrubia, que aclaro que además de buenos científicos son amigos, e incluso han contribuído a este blog, aquí y aquí) es muy importante para poner la discusión sobre predicciones en contexto (y para justificar mi vuelta repentina). Básicamente, amigo lector, el mensaje es que predecir estas epidemias es como predecir el tiempo, y más allá de dos o tres días el error es enorme, con lo que hay que tomarse todas las predicciones con muchísima precaución; de hecho, lo mejor es pasarse a la predicción probabilística. Resumido pues el mensaje del trabajo para el lector con poco tiempo, vayamos a algo más de detalle.
El concepto fundamental que hay detrás del resultado del artículo es el de "caos". En un post de hace ya casi siete años, ya hablé en detalle del trabajo de Edward Lorenz y su descubrimiento del caos, consagrado en una charla legendaria titulada «Predictibilidad: ¿El aleteo de las alas de una mariposa en Brasil provoca un tornado en Texas?», de la que imagino que los autores toman el título de su trabajo. Al introducir ese concepto, Lorenz había descubierto también una de sus mayores consecuencias: la impredecibilidad del tiempo (meteorológico). Por medio de un simple modelo, demostró que nunca se puede estar seguro de si, de aquí a una semana, tendremos un día soleado o uno lluvioso. Medio siglo después, estamos acostumbrados a escuchar el pronóstico del tiempo en términos de porcentajes, probabilidad de lluvia, intervalos de temperatura o velocidad del viento. «El tiempo» ocupa una buena parte de los informativos y es todo un alarde de tecnología e información. En ocasiones, es un tanto confusa, pero normalmente suficiente para decidir qué hacer el próximo fin de semana, aunque aceptamos con normalidad que hay incertidumbre en la predicción y que nuestros planes pueden truncarse a última hora.
Matemáticamente, esta incapacidad para predecir más allá de unos pocos días se debe a la amplificación exponencial de pequeñas diferencias iniciales prototípicas de los sistemas caóticos. Pero como mi sufrido lector ya habrá oído en las últimas semanas, todos los esfuerzos sociales y económicos a los que estamos haciendo frente tienen como objetivo «aplanar la curva»… exponencial. La exponencial es una función bien conocida y a la que nos aproximamos por primera vez en la educación secundaria a través de la progresión geométrica (Matemáticas) o el interés compuesto (Economía). Veamos ahora cómo conecta esto con las predicciones epidemiológicas.
Como ya he dicho, dado el impacto de la pandemia de COVID-19, gran número de epidemiólogos, estadísticos, matemáticos, físicos o economistas se han lanzado al modelado y predicción de la epidemia (di ejemplos en este post reciente, y aquí hay alguno más del que se ha hablado en NeG). La mayoría utilizan modelos tradicionales de la epidemiología, en los que se divide la población en categorías (o «compartimentos»): susceptibles (S), infectados asintomáticos (E), infectados sintomáticos (I), recuperados (R), fallecidos (D) y varias otras posibles etapas intermedias como en cuarentena, hospitalizados o en la unidad de cuidados intensivos (UCI). Las iniciales de las categorías principales dan nombre a los modelos (SIR, SEIR, etc., aunque a esta sopa de letras de denominaciones se la conoce genéricamente como «SIR»). Más allá de su clara interpretación y facilidad de uso, una de las principales motivaciones para aplicar esos modelos es tratar de estimar las próximas etapas de la epidemia y cuantificar los efectos de las medidas no farmacéuticas para «aplanar la curva». Un objetivo práctico (tal vez el más importante) es lograr controlar el número de camas en UCIs necesarias cuando la enfermedad alcanza su punto máximo en cada país o región, y eso, claro está, requiere predicciones cuantitativas y precisas.
En este contexto, los autores del trabajo se preguntan hasta qué punto somos capaces de predecir cuándo llegará la expansión de la epidemia a su máximo, cuál será el número final de fallecidos o incluso si el confinamiento tendrá el efecto deseado o no. Para responder, plantean un modelo con los ingredientes esenciales de la epidemia (infección/confinamiento/evolución de la enfermedad), pero que es lo suficientemente sencillo como para analizarlo y poder ilustrar las ideas principales de su argumento. En la figura, tomada de su artículo, aparecen las distintas categorías en las que dividen la población y cómo evoluciona de una categoría a otra.
Para poder alimentar el modelo, recurren a los datos oficiales publicados por el Ministerio de Sanidad con reportes diarios de casos confirmados, pacientes recuperados y fallecidos. A estas alturas de la película, todos somos conscientes de las limitaciones de estos datos, pero eso refuerza aún más el argumento acerca de la incertidumbre y la predecibilidad. Como los autores también tienen esta preocupación, intentan incorporar de manera probabilística esta ignorancia sobre los parámetros, mediante un modelo Bayesiano.
Gracias a la simplicidad del modelo, se puede obtener una fórmula aproximada para el valor efectivo del ritmo (o factor) reproductivo básico, R0, una variable dinámica que cambia conforme las medidas de confinamiento van haciendo efecto:
donde t es el tiempo, R0 es el valor al principio de la epidemia, antes de que se tome ninguna medida de control, q es tanto mayor cuanto más restrictivas sean las medidas de movilidad y distancia social, y p cuantifica la falta de adherencia al confinamiento, ya sea por personal sanitario o de servicios básicos que tienen necesariamente que salir de casa, o simple y llanamente por tramposos que se saltan las reglas a la torera. En el límite de tiempos grandes, el número
indica si el efecto del confinamiento será suficiente para alcanzar un pico y doblegar la curva: ocurrirá cuando este número sea menor que 1.
Una de las cosas interesantes que se aprenden del modelo es que «aplanar la curva» no es, ni mucho menos, sinónimo de controlar la epidemia. El confinamiento siempre curva lo que, sin él, sería un simple crecimiento exponencial. Esta curvatura se lleva interpretando desde su aparición en los datos como un signo de que el control de la epidemia se acerca. Lo que el modelo dice es que si R(∞) > 1, es decir, si las medidas de confinamiento son insuficientes, la curva no se doblegará hasta que, en promedio 1-1/R0 de la población se haya infectado (observe, amigo lector, que si R0 es muy grande, casi toda la población se infectará). En tal caso, la epidemia entraría en una segunda fase en la que simplemente crece como una exponencial más lenta. Por contra, si R(∞) < 1 la epidemia alcanza un máximo y luego empezará a decrecer el número de infectados. En ambos casos se observa esa curvatura de la exponencial, de manera que del hecho de aplanar la curva no aprendemos absolutamente nada. De hecho, el carácter probabilístico del método Bayesiano hace que los datos sean compatibles con distintos escenarios futuros, en algunos de los cuales se controla la epidemia y en otros no.
Conclusión: en la parte creciente de la curva, cuando la epidemia está aún expandiéndose, lo más que podemos afirmar es que los datos indican que la epidemia se controlará con una determinada probabilidad. En el caso de los datos que se proporciona diariamente para España el Ministerio de Sanidad, tomando la serie hasta el 29 de marzo (partiendo de que el confinamiento empezó con los colegios el 11 de marzo), lo único que se podía afirmar es que el pico se alcanzaría con una probabilidad de una entre cuatro. Esto es lo que recoge la siguiente figura (casos activos en vertical, en función de los días desde el primer caso confirmado):
En esta figura se muestra la misma información de dos maneras, por un lado, en escala logarítmica, donde sólo nos importan los órdenes de magnitud de la epidemia y, por otro, en el recuadro interior, la misma información en escala lineal. En la escala logarítmica se ve que las medidas de contención pueden dar lugar a una segunda fase exponencial o bien a una epidemia controlada. En la escala lineal (en la que lamentablemente se sigue presentando la información en muchos medios, o incluso se validan algunos modelos matemáticos) se ve que el grado de incertidumbre sobre el final del proceso es dramático (zona sombreada).
Aquí es dónde mi avispado lector se da cuenta de que esta conclusión suscita más preguntas que respuestas, y se plantea si la incertidumbre se debe al modelo que han elegido los autores (elegido con cuidado para que salga el resultado), a la mala calidad de los datos, o es en realidad algo intrínseco de la dinámica de las epidemias. No se preocupe; los autores del estudio también se lo han planteado, y lo que ven es que este fenómeno es algo intrínseco a la dinámica de la epidemia. Para ilustrarlo, toman los parámetros que resultan del ajuste anterior (la curva naranja de la figura) y generan los datos a ajustar con el propio modelo determinista. Es decir, con su propio modelo producen unos números y, lógicamente, los ajustes del mismo modelo deberían describirlos perfectamente. O dicho de otro modo, la calidad de los datos que se utilizan ahora es perfecta. Sobre esos datos, hacen la misma inferencia bayesiana que con los datos originales, y resulta la siguiente figura (mismos ejes que antes):
Como se puede ver, la incertidumbre es nula mientras estamos en los datos suministrados, pero en cuanto tratamos de hacer una predicción a futuro, la incertidumbre se abre en abanico y, de nuevo, es compatible con escenarios muy distintos. Esto demuestra que la imprecisión de los datos, que sólo puede complicar las cosas, no es la razón profunda de esta incapacidad para predecir.
Lógicamente, nos queda la otra pregunta, la relativa a si la conclusión aparece por la simplicidad del modelo. Lógicamente también, responderla requeriría hacer un estudio exhaustivo de distintos modelos (que ya hemos visto que son centenares). Sin embargo, los autores dan un argumento que sugiere que todos se van a encontrar el mismo problema. Recordemos que cualquier modelo epidemiológico tiene que explicar, en primer lugar, el crecimiento exponencial en la fase inicial de la pandemia. Una exponencial es extremadamente sensible a la incertidumbre en los parámetros, de manera que pequeñas variaciones en estos pueden dar lugar a predicciones divergentes igual que le ocurría al bueno de Lorenz. Añadir nuevas categorías para asintomáticos, y estratificar los datos por edades, movilidad geográfica, antecedentes médicos, nivel socioeconómico, etc., desde luego aumenta la fiabilidad de las predicciones a corto plazo, pero la amplificación exponencial dará al traste con la de las predicciones a largo plazo. Lo que resulta preocupante de emplear modelos sofisticados es que pueden crear una falsa percepción de realismo y minuciosidad que nos impide percibir que adolecen del mismo problema a largo plazo. Si se da cuenta, los modelos meteorológicos son extraordinariamente detallados y sofisticados, y ni por esas predicen bien una semana.
Enonces, ¿qué concluimos de este trabajo? ¿Que está todo perdido? ¿Es este un mensaje pesimista y negativo, y mejor vamos a darnos a la bebida para olvidar (no, que los bares están cerrados y beber solo en casa no es bueno)? Pues la verdad es que no, y en realidad la predicción meteorológica nos marca el camino a seguir. Para empezar, debemos abandonar la predicción determinista y asumir la incertidumbre inherente a estos procesos aceptando predicciones probabilísticas. Ya hay grupos consolidados en todo el mundo que han adoptado este enfoque (como el de Imperial College, que sin duda empujó al gobierno de Boris Johnson a cambiar su estrategia) y que permiten generar múltiples escenarios y no sólo uno como si la trayectoria futura de la epidemia se pudiese predecir sencillamente con los datos pasados y estuviese «ahí», esperando a ser descubierta. Por otra parte, necesitamos mejores medidas (el equivalente a los globos y las estaciones meteorológicas), con una granularidad suficientemente amplia. Y finalmente, necesitamos un plan global (a escala planetaria) para adoptar un enfoque unificado, donde la información sea compartida y detallada y donde los modelos, sus supuestos y sus conclusiones sean transparentes y realistas.
Aprendamos del pasado y confiemos en que el coronavirus nos deje, al menos, este legado positivo.
Nota importante: como en este blog he hablado muchas veces de predicciones sobre cambio climático, me veo obligado a aclarar que no es lo mismo predecir el tiempo que va a hacer dentro de dos o tres días que el clima que va a hacer dentro de uno o varios años (spoiler: por estas fechas el año que viene será primavera). No quiero que esta confusión, que hizo famosa Rajoy, se malinterprete y se aplique a que el clima no se puede predecir. Y dicho eso, las predicciones del IPCC son siempre probabilísticas, y asignan high confidence ("alta confianza") cuando la probabilidad de que algo pase es mayor que el 90%. Y sí, que si no hacemos nada antes de 2050 habremos aumentado la temperatura media del planeta en dos grados respecto a niveles preindustriales tiene "mucha high confidence".
Hay 27 comentarios
Muchas gracias por la entrada. Muy ilustrativa.
Se puede ya afirmar que las cuarentenas se aprobaron sin tener la mínima remota idea de sus beneficios?
No, en absoluto. Está bastante claro que las cuarentenas han impedido que la cosa fuera mucho peor. Todos los modelos están de acuerdo en eso, y lo único que predicen diferentemente son fechas concretas. También el conocimiento epidemiológico está de acuerdo.
Interesante, tal vez sea por conclusiones similares a las que aquí llegáis que Corea del Sur, a pesar del éxito cosechado hasta ahora (sin confinamientos masivos -pero si selectivos-ni parálisis de la economía), en vez de relajarse empiezan a tomar nuevas medidas restrictivas orientadas al distanciamiento social.
https://www.ticbeat.com/tecnologias/corea-el-sur-plan-evitar-segundo-brote-covid/
De hecho, nuestro estudio dice lo contrario: se sabe que la cuarentena lo suficientemente rigurosa funciona, lo que no se puede predecir a priori es si unas medidas van a ser bastante. Así que para no andar hundiendo la economía a lo tonto, la única opción razonable es, de hacer una cuarentena, hacerla lo más contundente posible.
Para llegar a la conclusión de que una cuarentena rigurosa funciona, no hace falta recurrir a sofisticados modelos. Es de lógica. Igual que prohibir la circulación de vehículos acabaría con los accidentes de tráfico. Lo que debería hacernos reflexionar es que, a pesar de todos los avances, un ente microscópico al que ni siquiera se puede calificar de ser vivo, nos haya puesto contra la pared y que, para derrotarlo, hayamos tenido que recurrir a una herramienta medieval.
Gracias por aportar cordura y enhorabuena por el excelente (otro más) post.
Gracias por el post , muy oportuno e interesante. Coincido con la imposibilidad de predecir con aproximada exactitud los distintos momentos de la pandemia pero creo que hay una confusión conceptual, que no tiene efectos prácticos en las conclusiones; entre caos e incertidumbre . El clima es un fenómeno caótico pero una pandemia, o epidemia, no es un fenómeno caótico sino de alta incertidumbre por ignorancia de mucha de las variables. Ya digo que esto no altera la tesis central del post pero si nos ofrece expectativas de mejora en futuros ajustes y modelos sobre la pandemia.
Gracias FGP. En el post hablo de "caótico" en sentido de que la evolución tiene una dependencia muy grande de las condiciones iniciales, y por tanto cualquier imprecisión explota en un tiempo razonablemente breve. Esto es una característica fundamental del caos determinista. En este sentido, el clima y los modelos de los que hablo son igual de caóticos.
De acuerdo con lo que ha contestado Anxo. En nuestro artículo, fuimos muy cuidadosos de no usar la palabra "caos", porque, efectivamente, el caos en sistemas dinámicos tiene una definición concreta, y los modelos epidemiológicos no son caóticos en ese sentido. Pero dada la naturaleza exponencial del crecimiento de casos de infectados, aún sin ser caótico se hace imposible la predicción precisa, y eso es así incluso en casos ideales con datos perfectos y modelos con muy pocos parámetros y variables. En la última figura mostrada en la entrada de Anxo ilustramos esto: aún con datos perfectos generados a partir del propio modelo que luego se ajusta, el intervalo de confianza de las predicciones del futuro se despendola.
Muy ilustrativo de lo importante que es utilizar bien la información. No es que los modelos no sirvan, sino que tienen límites. Y con esto, nos obliga a algo que también resulta muy intuitivo; decidir sobre la marcha. Aplicar acciones y si detectamos desviaciónes dentro del intervalo temporal predictivamente fiable; modificarlas.
¿Entraría entonces en cualquier modelo afinado la capacidad de establecer la modulación de las medidas o no sería fiable? Partiendo que se nos ha dicho que los efectos de nuestras acciones son visibles entre 1 y 2 semanas despues. ¿Es posible predecir con mayor certidumbe en el corto plazo? ¿Y eso justificaria modos distintos de establecer limitaciones? Si asumimos que la predcción es fiable a corto. Estariamos tomando decisiones en intervalos cortos, algo incompatible con disponer de datos representativos. Y en general las decisiones cortoplacistas, no parecen la norma. Por tanto las medioplacistas no puden soportarse en modelos con probabilidad aceptable. Entonces solo se pueden soportar en datos presentes y pasados; no en previsiones. Por tanto: ¿Son solo políticas?
Gracias, Miguel Angel. En el corto plazo, si se han hecho las cosas bien, se puede confiar en las predicciones, pero incluso en el medio y largo plazo se pueden realizar predicciones útiles: solo que esas predicciones han de tener necesariamente un carácter probabilístico. Por ejemplo, usando la serie de datos para España hasta el 29 de marzo, en el artículo nosotros calculamos que de seguir las cosas igual la probabilidad de alcanzar un pico y doblar la curva en algún momento era del 25%. A partir de esa fecha se decretó el cierre de trabajos no esenciales, y hoy es evidente que se alcanzó un pico y la situación está mejorando. Podría haber ocurrido también de no haberse decretado ese cierre, pero, creyéndose nuestro análisis, la probabilidad era de 1 entre cuatro...
Claro, no quería negar la utilidad de las estimaciones. Mi comentario va más por intentar clarificar que si el horizonte de fiabilidad representativa es corto; choca parcialmente con los plazos manejados para ver las consecuencias de las decisiones de permitir aumentar la movilidad.
Obvimente ciertas medidas que modifiquen habitos son otra forma de convatir la trasmisión; pero no evaluables hasta pasados esos plazos que permiten identificar las consecuencias, la tendencia. Por tanto, parece que pesará más esperar y ver, que las predicciones de los modelos.
Más si tenemos en cuenta que los nuevos comportamientos que tendremos que aprender no se afinan de un día para otro. Lleva tiempo informar, más disuadir incredulos y más reprimir reveldes.
Gracias por la aclaración.
Gracias Anxo por el post. Creo que es de gran relevancia para definir los criterios que se deben utilizar para dar respuesta a la crisis económica generada por la epidemia. Si no sabemos cual será su comportamiento en los próximos meses, ¿cómo debemos actuar? ¿Tomando como referencia, simplemente, lo que consideramos más probable o atendiendo a todas las trayectorias -relevantes- de los acontecimientos que pueden producirse? Creo que en lugar de intentar dar respuestas de corto plazo, que muy probablemente se mostrarán inadecuadas por estar basadas en predicciones erróneas, deberíamos aplicar los mismos criterios de solidaridad intergeneracional y de mitigación de escenarios catastróficos que aplicamos para el cambio climático.
Gracias por la entrada, como todas las suyas interesante e ilustrativa (y pedagógica). Hay sin embargo algunas cosas que me llaman la atención. Respecto a la analogía con el tiempo, éste se puede predecir con bastante precisión a corto plazo, pero no sé si podríamos hacer esto con todas las variables relevantes de la epidemia: por ejemplo, alguien se atreve a predecir con precisión el número de muertos que habrá mañana (dicen de la economía, pero esto sí que es una ciencia lúgubre). Respecto a que "de hecho, lo mejor es pasarse a la predicción probabilística", pensaba que en general todas las predicciones eran así, incluso en muchas ciencias duras (en matemáticas no sé si es
correcto hablar de predicciones o si es mejor hablar simplemente de cálculos).
Aplanar la curva, no es en efecto controlar la epidemia (incluso una vez alcanzado el pico, queda mucho por hacer y padecer) pero sí, entiendo, empezar a controlarla, en el sentido de que va a generar menos estrés, por ejemplo, en el sistema sanitario.
Una duda final. ¿No debería aumentar la precisión de las predicciones a medida que la epidemia avance y un mayor porcentaje de la población esté o haya estado ya contagiado
PD. Entiendo que virólogos y epidemiólogos, son conscientes de todo esto.
Gracias Parejo. El problema es que con los datos que tenemos no hay quién prediga nada, ni dentro de dos días ni dentro de dos horas, ni en cualquier fase de la epidemia. Los modelos epidemiológicos que se usan en matemáticas son por lo general ecuaciones que dan números concretos, por eso para ser probabilístico hay que hacer trabajo adicional para estimar todas las incertidumbres, y entonces sí se vuelve probabilístico. Por otro lado, predecir cuándo ya haya muy pocos infectados o susceptibles es también muy difícil, porque entonces entran factores aleatorios con muchísimo peso (pongamos que hay solo tres infectados y dos susceptibles, y si salen a la calle unos u otros hará toda la diferencia) y la descripción con modelos SEIR o semejantes es irrelevante.
Bien se ve que es Vd. de otra área. En ciencias sociales los datos son con frecuencia, mucho peores que estos!
Gracias Ricardo, soy de otra área, sí, pero llevo tiempo trabajando con datos sociales y efectivamente pueden ser malos. Pero en este caso también hablamos de datos sociales, es el mismo problema, son datos demográficos, sanitarios... Simplemente por dejar claro que es el mismo problema.
Epidemiological Modeling, Policy, and Covid-19
https://www.youtube.com/watch?v=ErsVu3br39Y
Por si apetece.
Saul:
"se sabe que la cuarentena lo suficientemente rigurosa funciona, lo que no se puede predecir a priori es si unas medidas van a ser bastante. Así que para no andar hundiendo la economía a lo tonto, la única opción razonable es, de hacer una cuarentena, hacerla lo más contundente posible."
Pero funciona, ¿en qué medida?. ¿Cuántas vidas salva?. ¿Cuántas vidas que no estuviesen ya pendientes de un hilo por su edad y patologías previas?. ¿Y cuántas vidas a cambio del derrumbe de la economía mundial?. Para estimar lo primero debemos consultar a los epidemiólogos y sus modelos. Pero lo último, estimar la relación entre coste y beneficio, dependerá de nuestros valores, que son plurales (por mucho que pese a algunos) y lo que importa es nuestra capacidad para influir en las decisiones políticas.
Gracias Masgüel por el comentario. La cuarentena funciona para detener la epidemia, se ve fácilmente tomando el límite: si absolutamente todo el mundo se encerrase en casa, la epidemia se acabaría en un par de semanas. No entramos ni en consideraciones morales ni en si es la mejor estrategia. Puntualizando un poco mi comentario anterior, lo que quiero decir es que en el supuesto de decidirse por una estrategia de cuarentena y confinamiento, conviene que sea lo más estricta posible para que al menos sea exitosa contra la epidemia. Un confinamiento más relajado se arriesga a no valer de nada contra la epidemia, y va a tener un coste económico y social que, de fallar en el aspecto médico, necesariamente se extenderá más en el tiempo. Ojo, no estoy abogando por encerrar a todo el mundo más de lo que está ahora: como a priori es difícil calcular el efecto de ir levantando la mano, se pueden usar los modelos para calcular las probabilidades de que haya un repunte, pero al final serán eso: probabilidades, no certezas, y habría que estar preparados para actuar sobre la marcha si las cosas no van saliendo como queremos.
“ pero al final serán eso: probabilidades, no certezas, y habría que estar preparados para actuar sobre la marcha si las cosas no van saliendo como queremos“. Creo que esto lo tienen claro los responsables de la gestión de la epidemia. El problema es tener un sistema de vigilancia efectivo que pueda evaluar las consecuencias de la desescalada día a día. Después de lo leído aquí, no creo que modelizar eso sirva de gran cosa. Sobre todo teniendo en cuenta que esas consecuencias pueden tardar semanas en dar la cara.
Gracias a tí, Saúl.
"Un confinamiento más relajado se arriesga a no valer de nada contra la epidemia"
Pues de eso se trata. Que para un patógeno tan contagioso, si una cuarentena no se puede llevar al límite, y no se puede, entonces es inútil para la sanidad y nefasta para la economía.
El informe del Imperial College hablaba de millones de muertos. Se impuso el principio de precuación. Para cuando se publique el resultado de los muestreos de anticuerpos en la población y muestren una enfermedad mucho menos letal de lo que se pensaba, el daño económico ya estará hecho. Poco consuelo encontraremos entonces en exigir dimisiones a los responsables políticos.
No, el límite era sólo un ejemplo. No hace falta una cuarentena extrema para que sea efectiva. Si se pudieran determinar los parámetros de los modelos de forma precisa, sería posible predecir el nivel de confinamiento mínimo para inhibir la epidemia. Como esto es inherentemente imposible, la filosofía es que ante la duda es más barato, en vidas y en costes sociales y económicos, pasarse que quedarse corto.
Pero acciones de prevención si se pueden tomar....Non-pharmaceutical public health measures for mitigating the risk and impact of epidemic and pandemic influenza; 2019 https://apps.who.int/iris/bitstream/handle/10665/329438/9789241516839-eng.pdf?fbclid=IwAR15LmD1x8AaLxqZqKm73du5Xp73bPbIYq0d01hhnuujtcyBSypLsTvBfR4
¡No sólo se puede, sin o que se debe! La incapacidad de hacer predicciones exactas no debe tomarse como excusa para la inacción... ¡todo lo contrario! Obliga a plantearse siempre el peor caso posible.
Algo que no acabo de entender es que en las ecuaciones de R(t) y R (∞) se escriba "q+p" en lugar de "q-p". ¿O hay que sobrentender que p siempre tendrá un valor negativo?
En cualquier caso, q debe ser siempre > 1, no?
La fórmula está bien escrita, y q y p son siempre positivos, y pueden ser menores que 1. Aunque en un modelo tan simplificado los parámetros son efectivos (en el sentido de que no se corresponden necesariamente de forma exacta con un parámetro medible en el mundo real), q y p se pueden entender como el inverso del tiempo que tarda la gente en confinarse de forma efectiva y el tiempo que aguanta la gente sin hacer trampas (hay otras interpretaciones posibles), medidos en días. Esto es, si esos tiempos son de varios días, q y p de hecho serán menores que 1 (que es lo que sale en nuestros ajustes). Fíjese que si p fuese negativo, si su valor absoluto fuese parecido al de q, R(∞) divergiría. La condición que hace falta para que R(∞)<1, que es lo que se busca, es que q sea lo suficientemente mayor que p.
Los comentarios están cerrados.