Anxo Sánchez es un investigador de primer nivel internacional que pertenece al Grupo Interdisciplinar de Sistemas Complejos del Departamento de Matemáticas de la Universidad Carlos III de Madrid. Anxo ha accedido a nuestra invitación de explicarnos lo que los sistemas complejos pueden aportar para la comprensión de los atascos de tráfico, y sus soluciones. Con esta aportación queremos inaugurar una serie, que esperamos tenga continuidad, en el estilo de la sección de ciencia y tecnología del Economist.
839 millones de euros y 81 millones de horas perdidas al año. Estos datos, referidos a Madrid en 2010, son sólo un pálido reflejo de las enormes repercusiones económicas y sociales de los atascos de tráfico; pero por supuesto hay repercusiones psicológicas sobre nuestro estado de ánimo que no están incluidas en dicha valoración. No es de extrañar, por tanto, el esfuerzo que investigadores de todo el mundo están haciendo para entender cómo se forman los atascos.
Uno de los tipos más intrigantes de atasco, cuyo estudio está conduciendo a avances relevantes en ingeniería del tráfico, es el de los que ocurren en autopistas. A todos nos parece natural estar parado en una ciudad, con sus cruces, semáforos, rotondas y demás obstáculos al flujo del tráfico. Sin embargo, todos hemos vivido la experiencia del atasco fantasma en una autopista a muchos kilómetros de nada que pueda afectar al tráfico. Una situación típica ocurre cuando nos encontramos de repente parados en mitad de ninguna parte, y tras unos minutos que parecen horas comenzamos a movernos, un poco a trompicones al principio, para enseguida alcanzar la velocidad habitual de la autopista. Lo que más nos sorprende es que después no encontramos nada a lo que culpar de los atascos.
La investigación sobre este problema se remonta a mediados del siglo XX, si bien es con la introducción del paradigma de los sistemas complejos y la simulación de ordenador cuando se producen los mayores progresos, en los últimos 20 años. En 1992, los físicos alemanes Kai Nagel y Michael Schreckenberg propusieron un modelo muy sencillo para entender estos llamados "atascos fantasma". En este modelo, los coches son "agentes" que se desplazan en una carretera que, por comodidad, supondremos dividida en tramos (que para que los números que luego daremos se correspondan con los reales deben ser de unos 7,5 metros), como en la figura:
Cada coche está en un momento dado en una cierta posición y tiene una cierta velocidad, que varía entre 0 y un máximo de 5 tramos por segundo (como buenos alemanes, los investigadores asumían que nadie supera el límite de velocidad). Para completar la definición del modelo, tenemos que especificar como evolucionan los coches: para ello, en cada instante de tiempo cada coche se desplaza lo que indica su velocidad si es posible. Si no lo es porque tiene otro coche a menor distancia, reduce su velocidad para quedarse en el tramo inmediatamente anterior. Y si puede, aumenta una unidad su velocidad hasta el máximo de 5. Con un modelo así, no ocurre nada: no se forman atascos ya que aunque los coches se dispongan inicialmente al azar sobre la carretera, las reglas conducen a que en un tiempo muy corto se organicen y todos circulen a la velocidad máxima.
El ingrediente interesante del modelo es que, con cierta probabilidad, algunos coches reducen su velocidad en una unidad, de manera totalmente azarosa. Esto representa sucesos cotidianos en la carretera: frenazos que ocurren porque nos hemos despistado un instante mirando un anuncio, o se ha cruzado un animal, o hay un bache, o cualquier otro motivo. Pues bien, con este ingrediente, el modelo genera espontáneamente atascos que se comportan exactamente igual que en el tráfico real, es decir, crecen en longitud y se propagan en dirección contraria a la de los coches, como se aprecia en las famosas fotos aéreas de Treiterer de 1975:
El modelo no sólo reproduce estas imágenes, sino que también predice la herramienta de diagnóstico típica de los ingenieros de tráfico, el llamado diagrama fundamental o diagrama flujo-densidad:
El diagrama de la izquierda ha sido obtenido por Kerner y Rehborn en una autopista alemana, mientras que el de la derecha corresponde a simulaciones del modelo y, como se puede ver, el acuerdo es muy bueno. En el diagrama, vemos lo que la experiencia nos muestra: cuando hay pocos coches en la carretera (densidad baja) se circula a gran velocidad hasta que a partir de una cierta densidad, el flujo (número de coches que atraviesan un cierto punto, como el final de la autopista, por unidad de tiempo) disminuye considerablemente. Fijémonos en que la disminución de flujo cuando hay muchos coches quiere decir que su densidad es muy baja (flujos bajos con pocos coches son velocidades altas: salen pocos coches porque hay pocos, no porque vayan despacio).
Hasta aquí, hemos hecho ciencia básica, es decir, hemos entendido qué es lo que puede causar los atascos fantasma. La principal conclusión del modelo es que los atascos fantasma pueden formarse por desacelaraciones puntuales de algún coche en condiciones de densidades medias y altas. Y siguiendo el paradigma del método científico, que lo hemos entendido se demuestra mediante experimentos controlados, como el fascinante video de Sugiyama y colaboradores sobre formación espontánea de atascos.
Sobre la base de esta ciencia básica (sin la cual estamos condenados al estancamiento como recientemente decía el premio Nobel de física 2010, Andre Geim), podemos ahora trabajar en innovación, en mejorar nuestra calidad de vida. ¿Qué le interesaría maximizar a los gestores de la autopista? En un principio, uno pensaría que el flujo: de esta manera, estaríamos dando el mejor servicio posible y haciendo que más coches llegaran a su destino. Si uno ahora utiliza el modelo para estudiar cómo se comporta el tráfico en esas condiciones, descubre algo perturbador: cuando el flujo es máximo tienen lugar las fluctuaciones más altas en los tiempos de viaje. En otras palabras, el flujo, el número medio de coches que llega es el más alto, pero los coches individuales tienen variaciones muy grandes en la duración del viaje. Y eso es inaceptable para los usuarios, ya que todos preferimos tardar algo más pero tener una cierta idea de lo que vamos a tardar, que estar en la situación en la que el viaje puede durar cualquier cosa entre media hora y dos horas, por ejemplo. Así que ya hemos aprendido algo útil: no hay que maximizar ciegamente el flujo, sino que hay que buscar un compromiso con la predecibilidad del tiempo de viaje.
A partir de aquí, son muchas las aplicaciones que se han desarrollado. En el land alemán de Renania-Westfalia, hay disponible en internet una aplicación que predice el tráfico en su red de autopistas, y que nos permite planificar nuestro viaje. En el grupo del profesor Nagel, en colaboración con otros grupos se ha diseñado MATSim, una herramienta de planificación y simulación de tráfico a gran escala (millones de vehículos) muy versátil que puede ser utilizada con distintos propósitos, desde el diseño de nuevas carreteras o la mejora de la red existente hasta estudios de difusión de contaminantes. El Departamento de Transporte de Estados Unidos promueve una aplicación similar, Transims, desarrollada originalmente para el tráfico en la zona de Dallas-Fort Worth, en Texas. Estas herramientas, y otras que sería demasiado largo reseñar aquí, nos muestran una vez más como la ciencia proporciona los medios para que los gestores puedan tomar sus decisiones racionalmente, entendiendo las consecuencias de las mismas y probándolas en el laboratorio en vez de con nosotros como conejillos de indias.
Hay 31 comentarios
> Fijémonos en que la disminución de flujo cuando hay
> muchos coches quiere decir que su densidad es muy baja
Creo que donde dice "densidad" debería decir "velocidad".
Gracias Anonymous, tienes razón, debería decir velocidad.
Hola. Me ha encantado el artículo. Me gustaría saber qué pasa cuando llegas a la ciudad y los sémaforos hacen de cuello de botella en situaciones de flujo alto. Entiendo que el modelo contempla a todos los tramos por igual, pero imagino que los puntos de origen y destino alteran la distribución de probabilidad de tráfico. ¿No?
Gracias por tu comentario, Ludwig. No te puedo dar una respuesta general porque la fenomenología depende del caso concreto, ya que intervienen factores como la duración de los semáforos, si hay además reducción de carriles o no y en qué distancia se hace, etc. Lo que sí se puede hacer es, dado un punto concreto y la información completa, simular el problema y analizar lo que se puede hacer para mejorar el tráfico. De hecho ha habido propuestas de semáforos descentralizados basados en modelos de este tipo.
Muy bien explicado el fenómeno Anxo.
Siempre que mencionan el modelo este de Nagel me surge la duda de si se baso en cómo explica los efectos de cuellos de botella Goldratt (el gurú del Management) en "La Meta" (1992), si fue al revés, o si se les ocurrió independientemente, porque la idea "fenómenos aleatorios unidos a dependencias se acumulan y no se compensan" de ambos es prácticamente idéntica.
Gracias Josema. Yo creo que se le ocurrió independientemente, al menos a Nagel. Coincidimos durante nuestro postdoc en Los Alamos y sus ideas venían de la física estadística. Ya no tengo datos sobre su co-autor Schreckenberg, pero también es un físico más o menos estándar. Pero tu comentario me ha dado ganas de leer ese libro, que yo mismo desconozco!
Pues igual fue al revés, Goldratt era físico metido en gestión.
Fabuloso Anxo, muchas gracias. Bienvenido al blog, será un placer leer tus posts, especialmente si son tan interesantes como el que has puesto hoy.
Gracias Luis. Es lo menos, después de lo que aprendo leyendo este blog!
Buenísimo.
Me parece una gran idea la nueva sección, y también os animo a que continuéis con la temática del tráfico, un tema fascinante donde los haya. Por ejemplo, el tráfico en las ciudades, muy de actualidad por ejemplo en Madrid después de la mega-obra de la M-30: ¿mejora de verdad el tráfico después de la eliminación de algunos cuellos de botella, o simplemente éstos se trasladan a otra parte? Y si mejora, ¿el efecto-llamada de la disminución del tiempo de viaje nos vuelve a colocar en la situación de partida?
Son sugerencias...
Un saludo.
Gracias Ender. Tu pregunta es muy interesante porque hay fenómenos muy sorprendentes, que además tienen analogías en física. No me puedo extender aquí, pero hay muchos casos en que añadir carreteras nuevas empeora el tráfico, al igual que hay circuitos eléctricos que cuando se amplían conducen peor. Si sabes un poquito de física elemental, hay un trabajo muy bonito de Cohen y Kelly en Nature en 1991 dónde presentan un análogo mecánico de este problema: dos pesos colgados de tal manera que al cortar una cuerda de las que los unen suben en vez de bajar. En cuanto al efecto llamada que mencionas, es un problema típico de teoría de juegos, y hay experimentos al respecto, como por ejmplo: "D. Helbing, M. Schönhof, H.-U. Stark, and J. A. Holyst (2005) How individuals learn to take turns: Emergence of alternating cooperation in a congestion game and the prisoner's dilemma. Advances in Complex Systems 8, 87-116."
Muy interesante.
Un dato sobre la relevancia de todo esto: hace un año o así leí sobre un estudio (que ahora no consigo encontrar) en el que se había dado a una serie de sujetos un aparato que cada cierto tiempo pitaba; al hacer esto, los sujetos tenían que apuntar qué estaban haciendo, y su grado de felicidad o angustia en ese momento.
Según los resultados de ese estudio, las dos actividades que percibimos como más desagradables son "commuting" y "talking to my boss".
me gustaria que algun guru de este foro echara un vistazo al libro de Charles Perrow: Normal accident, living with High risk technologies. Desde mi punto de vista este libro explica perfectamente lo que pasa con los mercados financieros: son demasiado complejos y tarde o temprano acaba habiendo una catástrofe como la actual. Lo que ocurre, igual que con el tráfico, es que el sistema financiero es como un avion o una central nuclear. Son sistemas complejos con fuerte interaccion hombre-máquina (hoy en día el 50% de las transacciones de bolsa la deciden ordenadores), con alto grado de acoplamiento y con alta complejidad técnica. Simplemente eso. La solución es cambiar totalmente de paradigma o abandonar este sistema. Desde luego, empezaría por tratar de desacoplar lo más posible el sistema financiero. Pero claro, esto es acabar con la globalizacion....
Javier, el otro día decía Guillem López Casasnovas en una entrevista en tv3 que el pasivo de las empresas españolas es 4 veces más dependiente de los bancos que el de las empresas anglosajonas, que dependen en mayor medida de otras fuentes de capital. Esto las aisla en parte , por ejemplo, del problema de liquidez que actualmente hay en españa
¡Aun si no cambiamos el paradigma a nivel internacional, o solo ocurre lentamente, se pueden hacer muchas cosas a nivel nacional!
Los resultados que los modelos ABM están ofreciendo en ámbitos como el de control del tráfico o la propagación de enfermedades (por ejemplo http://jasss.soc.surrey.ac.uk/10/4/9.html) son ciertamente espectaculares.
¿Por qué se aprecia tanta reticencia entre la academia sobre su aplicación en Economía?
Necesitamos urgentemente estudios rigurosos sobre las posibilidades que los sistemas complejos ofrecen a la Economía (http://www.nature.com/nature/journal/v460/n7256/full/460685a.html)
En otros ámbitos se están haciendo.
En este paper del Departamento de Defensa australiano se compara los métodos tradicionales de análisis de contagios con los ABM.(http://dspace.dsto.defence.gov.au/dspace/bitstream/1947/10013/1/DSTO-TR-2342%20PR.pdf)
Fede,
(perdona los acentos) Buena pregunta. Yo tambien me lo he preguntado; supongo que llegara. Pero de momento, el problema fundamental es que tenemos ya demasiados grados de libertad y la gente tiene miedo del "everything goes", especialmente en areas donde nuestro conocimiento cuantitativo es escaso. Que pensais los demas?
Creo que tienes razón. El desarrollo de los modelos ABM requieren un nivel de desagregación de la información estadística muy superior al de los modelos tradicionales.
Por eso creo que su desarrollo está ligado a los avances en fusión estadística de bases de datos (stochastic matching) y elevación artificial de precisión geográfica (downscaling).
Para los que estén interesados en el desarrollo de los aspectos económicos en sistemas complejos globales: http://www.futurict.eu/
Añado al post de Fede: hay un grupo importante del proyecto FuturICT en España: http://www.futurict.es Este grupo no nace de repente, sino que son años de intentar colaborar a través de una Red llamada coloquialmente de "socioeconofísica". Tengo que decir que es de los foros dónde más he aprendido y más refrescado he sentido mi cerebro.
La pregunta de Fede es muy buena, y para mí la causa fundamental es que pese a que a todo el mundo se le llena la boca diciendo que hay que promocionar la investigación interdisciplinar, hacerla es muy difícil y en general (particularmente en España) está muy mal visto. En el caso de las aplicaciones de ABM en Economía, yo creo que el problema básico es que primero hay que hacer el esfuerzo de entender lo que se ha hecho hasta ahora, que es mucho y muy interesante, y muchos investigadores (sobre todo físicos, que somos famosos por entrar en los temas ajenos como elefante en cacharrería) simplemente vienen de salvadores de los que hacen las disciplinas tradicionales. También exige, por supuesto, apertura de miras entre los investigadores ortodoxos, por supuesto. Pero con esfuerzo se pueden ir abriendo canales de interacción y combinando lo mejor de ambos mundos. Ya digo, de todas maneras lo peor es que muchas veces los incentivos lo que premian es seguir haciendo lo de toda la vida.
Estoy plenamente de acuerdo.
Resulta interesante observar la visión que desde fuera de la Economía tienen muchos científicos de la situación de nuestra disciplina (y que comparto en buena medida).
Desde una aproximación 'amigable' y 'constructiva' consideran que hay aspectos y desarrollos 'aprovechables'. Para los más radicales haría falta rehacerlo todo bajo otros parámetros.
Esta visión contrasta con la que tienen la mayoría de los economistas, quienes consideran que el paradigma actual, en el peor de los casos, goza de una mala salud de hierro y, en el mejor, que solo necesita de un mayor desarrollo para poder responder de forma perfecta y completa, esta vez sí, a los retos de la sociedad del siglo XXI.
Normalmente, la respuesta de los economistas es más violenta cuando se le dice que en su bagaje de conocimientos hay cosas 'aprovechables' que cuando se les dice directamente que no valen (casi) nada. 🙂
En todo caso resulta inútil oponerse a la marcha de los tiempos.
Aprovechando que son las dos voy a tratar de comentar la pregunta de Fede y la respuesta de Luis. El trabajo de Anxo me ha emocionado (los años) porque cuando comencé a trabajar iba para quant modelizador de falsos azares hasta que un jefe francés que tuve me sugirió otros campos.
Pese a elle he tenido siempre una cierta nostalgia por el oficio y he seguido su desarrollo porque la búsqueda de la certidumbre matemática, en el fondo, es una de las mayores pasiones del ser humano. El miedo y la inseguridad son nuestros motores más fuertes, dicen.
Por consiguiente seguiremos recurriendo a las matemáticas para predecir, limitar nuestros miedos y aumentar nuestra seguridad.
Pero hemos de tener mucho cuidado porque la cibernética ya predice desde hace mucho tiempo cosas que son claramente hostiles a los designios del poder y sólo aparecen fondos para aquellas que al poder convienen. Además sobre sus autores penden los hilos del olvido y el silencio.
Por ejemplo la célebre Ley de Ashby y sus efectos en nuestros grados de libertad y costes de control o la predicción de Wiener de los nefandos efectos que en el empleo tendría la informática aplicada en determinadas direcciones.
Enhorabuena a Anxo. Gracias por el artículo.
Gracias Manu. Como he dicho en mi comentario anterior, creo que hay problemas básicos antes de pensar en las consecuencias del modelado con agentes. Muchas veces ni siquiera nos ponemos de acuerdo en si son descriptivos o predictivos, así que si encima las consecuencias pueden ser polémicas, más difícil.
Muy cierto, Anxo.
Uno de los primeros asuntos que habría que fijar es la naturaleza del "Agent". Ahí es nada.
Imaginemos agentes al modo "handicapped" --como Rawls en su escenario original--. O tipo Maslow, de geometría psíquica variable y aspiraciones dinámicas función de su grado de independencia de necesidades materiales y morales previas. O tal como Jaeger explica en su búsqueda del Areté o como Wilber. Dejo aparte componentes culturales, políticos y religiosos que --como Weber, Fukuyama, Tainter y otros explican-- son determinantes en el ascenso y descenso de la riqueza social. O la uniformidad y cohesión de los colectivos sociales.
Más que complejo, delicado.
Un saludo.
Interesantísimo artículo. Felicitaciones al autor y a los anfitriones virtuales. Un asunto similar puede modelarse utilizando la herramienta Netlogo que ofrece posibilidades gráficas muy dignas. A propósito, con otras variantes muy curiosas de aplicación en la economía.
Me ha encantado el articulo, Anxo (perdon por la falta de tildes, estoy con teclado estadounidense). Para los que les interese, el Economist tiene un par de articulos recientes sobre dinamica de masas aplicada a peatones que estan bastante bien. Aqui teneis los enlaces:
http://www.economist.com/node/21541709
http://www.economist.com/blogs/babbage/2012/01/crowd-dynamics
Primero las felicitaciones
A Anxo por regalarnos esta deliciosa entrada. Espero que sólo sea el inicio de una larga serie de colaboraciones
A los editores, por ampliar el abanico de temas que se abordan en NeG. Un problema serio de la sociedad española es su escasa valoración de la ciencia. Esperemos que esta iniciativa que hoy comienza contribuya a que se perciba con más claridad su valor.
Y 2 preguntas y una sugerencia
Anxo, supongo que la problemática en las ciudades es muy distinta a la de las autopistas. ¿estoy en lo cierto? Y otra cosa, no mencionas ninguna aplicación de estos métodos en España ¿no se ha hecho nada aquí en este campo?
Editores, al hilo de la pregunta de Fede, sugeriría un post sobre las vías más prometedoras para el futuro de la modelización macroeconómica como soporte de la política económica. Creo que la aguda recesión que nos asola ha puesto de manifiesto la necesidad de repensar los enfoques utilizados hasta la fecha. Me temo que se han abierto muchas vías de agua en la nave y es preciso huir de la autocomplacencia
Saludos
Gracias Penny. Las ciudades, como decía más arriba en mi respuesta a Ender, son difíciles porque tienen una geometría muy complicada y particular de cada una. Cuando yo trabajé en esto, en los noventa, hicimos un modelo con una ciudad muy sencilla, con calles sólo en dirección este y norte, y coches tontos que no tenían destino y que simplemente giraban con cierta probabilidad (el artículo original está en http://allariz.uc3m.es/~anxosanchez/ep/pre_48_r4175_93.pdf). La conclusión fue que el tráfico en esa ciudad muy idealizada se comportaba como un fluido, y la transición del tráfico fluido al atascado ocurría igual que la transición líquido vapor en el agua. El problema es que cuando nos alejamos del modelo ideal pasa igual que con el problema físico: en cuanto hay desorden (es decir, en cuanto la ciudad no es regular) ya no sabemos estudiar matemáticamente el modelo, y los resultados de simulación no son generales, no se puede aprender nada que sirva para todas las ciudades. Pero eso no impediría, dada una ciudad concreta, estudiarla con este tipo de modelos, y de hecho se hace en muchos sitios del mundo. En España, que yo sepa, no hay ningún grupo de investigación trabajando en esto (nosotros lo dejamos hace más de quince años por razones que no vienen al caso), y la verdad no puedo decir si hay alguien explorando aplicaciones concretas. Se podría hacer, como digo, y ciudades como Madrid serían un sitio perfecto para aplicarlo ya que el Ayuntamiento dispone de muchísimos datos a través de sus medidores que podrían guiar la aplicación del modelo.
Magnífico artículo, espero que tenga continuación.
Cuando la necesidad y el temor confluyen unidos a una capacidad de cálculo masiva con una cantidad de información y unos instrumentos de modelización con los que nunca se pudo soñar no cabe duda de que nos adentramos en una nueva fase.
"Más de 500 científicos de toda Europa se unen persiguiendo un sueño: Predecir el mundo."
1. Entender y gestionar sistemas sociales complejos, globales e interactivos
incidiendo en sostenibilidad y resistencia a fluctuaciones.
2. Descubrir las leyes y procesos que rigen el comportamiento
de la sociedad humana en todas sus facetas y su interacción con el planeta.
3. Desarrollar nuevas tecnologias de la información y comunicación
(ICT), inspiradas en los paradigmas sociales.
http://www.futurict.es/futurict/media/Presen_FuturICTes.pdf
Siempre he sentido preferencia por los modelos holísticos, quizás sea porque son los que ofrecen un reto mayor. Cuando a George Mallory le preguntaron por qué intentaba escalar el Everest al parecer respondió: "porque está ahí".
La especie humana ha sido la más exitosa en la historia de la Tierra, y es la única que tiene la capacidad técnica de destruirla. Eso hace que debamos medir muy bien nuestros pasos y la necesidad de autoconocimiento es mayor que nunca.
Ciertamente la búsqueda de ese autoconocimiento no está exenta de peligros:
"Q: Doesn't this need AI-complete sense-making?
A: No, we're not replacing human intelligence; we are mixing human intelligence with machine processing to let each do what they are best at. Much of the sense/meaning-making and interpretation is done by people, not by machines.
Q: What about ethics, privacy and the possibility of abuse of the system? Will this only be a tool for powerful, and even nasty governments?
A: Yes, we are acknowledging this risk, we are therefore including these aspects explicitly in our programme, for example, we have people thinking about privacy by design. This will help us in understanding what's possible in order to help solve these problems. Think of Futurict as a lab to understand these issues and to design counter measures, in this lab we will perform both in vivo and in silico experiments."
...
http://www.futurict.eu/q-and-a
http://ethics.ccsr.cse.dmu.ac.uk/etica/EIEX06ETICA2.pdf
Gracias Anxo!
Excelente artículo, no puedo estar más de acuerdo. En el día a día trabajamos generando modelos para gestionar el riesgo de no recuperar el coste hundido en la adquisición de los clientes. Aún hoy me sorprendo introduciendo conceptos básicos -de física y matemáticas de segundo de carrera- que mejoran los modelos y la operativa; que, o bien se habían pasado por alto, o sencillamente la gente anterior despreciaba desde la ignorancia (o, peor aún, ignoraban desde el desprecio al conocimiento académico otrora adquirido).
Que no me quiero poner amargo, pero es que me llevan mil demonios cuando oyes a la gente jactarse de haber olvidado todo lo que "tuve que aprenderme" en la carrera. Que casi habría que pensar en hacer un examen de conceptos básicos cada 5 años para poder conservar el título.
Gracias de nuevo.
ps: Hay un modelo de simulación de tráfico "Carril de incorporación a la autopista" de la Universidad de Dresde (aquí: http://vwisb7.vkw.tu-dresden.de/~treiber/MicroApplet/) muy parametrizable, y que llega a enganchar cuando empiezas a jugar con él. Mi factor favorito es el de "Politeness factor" 😀
Gracias Deneb. En mi caso, la formación que adquirí en físicas fue, más que conocimientos, una manera de intentar entender el mundo y de enfrentarse a los problemas. Me temo que yo caigo en la categoría de los que han olvidado mucho de la carrera pero sé que incluso lo que he olvidado me formó en ese otro aspecto.
Una cuestión que creo importante y sobre la que no he visto trabajos es la del análisis de la variabilidad.
No solo es importante determinar la trayectoria más rápida; en algunos casos, como cuando no queremos perder un avión, puede ser más importante buscar una ruta en la que la probabilidad de incidentes que nos puedan retrasar sea menor.
Calcular la ruta óptima es relativamente sencillo ya que basta con ir sumando los tiempos (¿medios?) de los tramos seleccionados con algún algoritmo de encaminamiento como el Dijkstra. Sin embargo, calcular la variabilidad de toda la ruta me parece complicado. Supongo que para análisis punto a punto podría realizarse alguna aproximación mediante técnicas de montecarlo pero no me parece viable para una valoración global.
Los comentarios están cerrados.