¿Nos podemos fiar de los economistas?

Con mayor o menor fortuna, los economistas académicos intentamos contribuir a la sociedad analizando la situación económica, evaluando las políticas públicas y proponiendo medidas basadas en la “evidencia empírica”. Sin embargo, muchos lectores se preguntarán, legítimamente, hasta que punto se deberían fiar de los economistas y de nuestra “evidencia empírica”.  Y no son los únicos. Como Edward Leamer observó hace casi treinta años en un artículo que se ha convertido en un clásico, “(c)asi nadie se toma el análisis de los datos en serio. O, para ser más precisos, casi nadie se toma en serio los análisis de los demás.”

Más allá de los conocidos problemas metodológicos que han sido discutidos muchas veces en este blog, existe un problema quizás más básico: ¿cómo sabemos que un economista no ha manipulado los resultados? Periódicamente saltan a la luz casos de fraude académico. Por ejemplo, hace unos años se supo que el profesor alemán Hans Werner Gottinger, con más de 120 publicaciones en su haber, plagiaba el contenido teórico de sus artículos y se inventaba la parte empírica. (Para mayor esperpento, en el trascurso de la investigación iniciada por la revista Research Policy también se descubrió que uno de estos artículos había sido a su vez plagiado por un tercer autor.) Más recientemente, varias revistas han decidido retirar los artículos publicados por Ulrich Lichtenthaler, uno de los economistas más prolíficos de Alemania en el área de Economía de la Empresa. Aparentemente, además de autoplagiarse repetidamente, sus artículos contenían errores matemáticos e inconsistencias metodológicas, incluyendo una falsa significatividad estadística de los principales resultados.

¿Se trata de casos puntuales que el buen funcionamiento del sistema ha sabido detectar y depurar o, por el contrario, estaríamos viendo únicamente la punta del iceberg? Dos recientes artículos examinan la importancia del problema del fraude académico utilizando perspectivas muy diferentes. Lars Feld, Sarah Necker y Bruno Frey han realizado una encuesta anónima entre los economistas asistentes a la conferencia anual de la European Economic Association donde directamente preguntan si se ha incurrido en algún tipo de comportamiento poco ético o si lo han observado en su entorno. Algunos economistas quizás sean tramposos, pero no se les puede acusar de falta de sinceridad. Un 3% de los encuestados confiesa haber falseado los datos originales en alguna ocasión. Un número muy superior, el 36%, admite haberlos “masajeado”. Es decir, reconoce haber escogido de forma arbitraria las variables de control para así poder obtener resultados estadísticamente significativos (“si torturas los datos lo suficiente acabaran confesando”, que decía Coase). También hay un 32% que admite que en sus artículos presenta únicamente los resultados que favorecen su tesis y un 21% que no cita los artículos que pudieran contradecirle. Irónicamente, al poco tiempo de realizarse esta encuesta, uno de sus autores, Bruno Frey, quizás el economista suizo de mayor fama, se vió envuelto en un sonado escándalo de autoplagio compulsivo, que provocó que la universidad de Zurich decidiera no renovar su contrato.

El estudio realizado por Abel Brodeur, Mathias Lé, Marc Sangnier y Yanos Zylberberg, titulado "Star Wars: the Empirics Strike Back",  emplea una estrategia empírica diferente para intentar averiguar si los economistas manipulan sus resultados. En lugar de preguntar a los economistas, los autores examinan la distribución estadística del grado de significatividad de sus resultados. En los artículos académicos, por convención, se suele señalar el grado de significatividad estadística utilizando estrellas (* significativo al 10%, ** significativo al 5% y *** significativo al 1%). Un autor que inicialmente observa que su hipótesis principal no es significativa a estos niveles estándar podría caer en la tentación de “torturar” los datos hasta alcanzar el número de estrellas deseado.  Si esto fuera un fenómeno muy extendido, habría relativamente más artículos con coeficientes marginalmente significativos que artículos con coeficientes claramente significativos o marginalmente no significativos. Los autores contrastan esta hipótesis utilizando datos de todos los artículos publicados entre 2005 y 2011 en tres de las principales revistas de Economía (QJE, AER, JPE). Como se observa en la siguiente gráfica, la distribución tiene forma de dromedario. Al comparar estos datos con una serie de posibles distribuciones contrafactuales, los autores concluyen que el número de artículos con resultados marginalmente significativos al 5%  es excesivo y faltarían coeficientes entre el 10% y el 25%. Según sus cálculos, en al menos un 10-20% de los casos se habrían inflado los resultados para lograr alcanzar un grado de significatividad estándar.

Es posible que el comportamiento poco ejemplar de algunos economistas se vea favorecido por la escasez de replicaciones de los artículos empíricos, quizás una de las grandes asignaturas pendientes de nuestra disciplina. Como dice Daniel Hamermesh, “los economistas tratamos el tema de la replicación del mismo modo que los adolescentes tratan el tema de la castidad: un ideal que debe ser profesado, pero no practicado”. En nuestra profesión los incentivos a la replicación son muy escasos. Un artículo que corrobore un resultado ya conocido difícilmente será publicado. Afortunadamente, los costes de replicación han disminuido enormemente en los últimos años gracias a la política de las principales revistas de exigir a los autores la difusión pública de los datos y los programas utilizados (ver, por ejemplo, AER, Restud o QJE). Hoy en día, legiones de estudiantes de doctorado completan su formación examinando en detalle los artículos publicados en estas revistas, para embarazo de muchos autores. Economistas del prestigio de Caroline Hoxby, Steven Levitt o Daron Acemoglu han visto como se cuestionada la credibilidad de sus resultados. Confiemos en que el resto de revistas académicas adopten pronto esta práctica.

Un problema más amplio es la validez de un determinado resultado en otro contexto. El coste de una replicación de este tipo puede ser muy elevado, especialmente en el caso de los experimentos de campo.  En este ámbito debemos dar la bienvenida a iniciativas como la “International Initiative for Impact Evaluation (3ie)”, financiada por la Bill and Melinda Gates Foundation (BMGF) y diversas agencias estatales de una decena de países. 3ie proporciona fondos para la realización de replicaciones de los estudios científicos más relevantes en el área de la economía del desarrollo. La lista de 20 artículos a replicar ha sido elaborada por un grupo de expertos e incluye algunos de los más brillantes e influyentes artículos de los últimos años.

Esperemos que estas iniciativas sean el principio de una nueva forma de hacer economía aplicada.  Si queremos contar con la confianza de la sociedad es imprescindible que mejoremos nuestros estándares de calidad y de control. Mientras tanto, aunque es probable que la mayoría de los economistas sean honestos en sus análisis, quizás no debería sorprendernos que la sociedad se tome con cierta cautela la pretendida seguridad y precisión con la que en ocasiones presentamos nuestros resultados empíricos.

Hay 44 comentarios
  • Estimado Manuel, el problema de la replicación es gravísimo y no sólo de la economía sino de todas las ciencias. En las ciencias "duras" tampoco lograrás publicar jamás un artículo de replicación de resultados. Dado que hoy en día muchos de los trabajos (por ejemplo en física) se obtienen con complicados programas de ordenador, la probabilidad de que contengan algún error no es despreciable, pero replicar esos trabajos sería muy costoso (habría que escribir un nuevo programa desde cero) y como decía antes impublicable. También está el caso de que el acceso a los datos (por ejemplo de un reciente experimento con facebook, http://jhfowler.ucsd.edu/massive_turnout.pdf) puede ser imposible (los tiene facebook pero no los comparte). Habría que incentivar la replicación de trabajos seguramente imitando la iniciativa de los Gates en otros ámbitos. Pero a fecha de hoy, lo que nos queda es la sombra de la duda.

    • Anxo,

      A mí también me encanta la iniciativa de los Gates. Si el "mercado" no provee los incentivos adecuados, una intervención de este tipo puede ser muy útil. Sobre el tema de los datos propietarios, yo creo que en general debería ser posible encontrar una solución, ya sea anonimizando los datos y cediéndolos únicamente para la replicación o, al menos, facilitando los programas y habilitando algún lugar donde sea posible realizar la verificación. Esto último es lo que se suele hacer por ejemplo con estas fantásticas bases de datos nórdicas que incluyen información muy detallada de toda la población.

      • Entiendo que si la "replicación" de resultados fuese negativa, i.e. no confirma los resultados originales, no sería díficil de publicar ¿O no?.

        Saludos

        • Efectivamente Keynes publicar resultados que desmienten los originales yo creo que no sería muy difícil, especialmente si desmienten un artículo relevante.
          Aún así, la idea de incentivar los trabajos de replicación es muy interesante. En el campo de la simulación social y con el fin de aumentar la confianza en los resultados obtenidos, una de las principales revistas científicas, JASSS, no sólo pide información suficiente para la replicación, sino que fomenta la replicación independiente mediante el Volterra replication prize http://www.openabm.org/node/107

        • KEyNES,

          Yo creo que en general tienes razón, pero depende un poco del caso. Un tema que juega en contra de muchas replicaciones es que normalmente existe una gran asimetría entre el prestigio del autor del artículo original y el prestigio del autor de la replicación. Mi impresión es que si, por poner un ejemplo, la replicación realizada por un estudiante de doctorado muestra que, utilizando una especificación aparentemente más razonable, los resultados principales son únicamente significativos al 13% en lugar del 3%, sospecho que no recibirá mucha atención por parte del editor, pero a lo mejor me equivoco. Por otro lado, el coste de acusar a un economista poderoso puede ser alto, o al menos eso lo que a veces se cuenta del caso de las polémicas de Hoxby o Acemoglu.

  • ¿Hay alguna comparativa como la de 'Empire strikes back' en otros tipos de publicaciones?

    • Álvaro,

      En muchas disciplinas se ha observado que raramente se publican resultados marginalmente no significativos. Los autores mencionan varias referencias: "...in the medical literature (Berlin et al. (1989), Ioannidis (2005)), in psychological science (Simmons et al. (2011), Fanelli (2010)) or in political science (Gerber et al.
      2010)." La contribución de "Star Wars: the Empirics Strike Back" creo que es intentar diferenciar qué parte se debe a los sesgos de publicación por parte de los editores respecto a lo que sería manipulación por parte de los autores.

  • Este mismo estudio que destacas puede también haber sido "masajeado" para poder obtener resultados estadísticamente significativos...

    • Pol,

      Yo confío en que cuando publiquen el artículo se divulguen los datos y se pueda comprobar la robustez de los resultados. De todas formas, como muy bien ilustra el caso de Bruno Frey, no nos podemos fiar ni siquiera de aquellos que manifiestan públicamente su preocupación por el fraude académico (naturalmente, me incluyo 🙂 )
      Necesitamos mecanismos de control que no dependan de la reputación o la confianza.

  • Una entrada muy interesante. Torturar los datos me parece legítimo, siempre que los resultados que publiques coincidan con lo que has hecho en realidad y lo expliques todo de manera transparente.
    El tema de publicar resultados falsos es una amenaza constante, pero al fin y al cabo si el tema es importante o los resultados son impactantes alguien se tomará la molestia de replicar la estimación y así los resultados falsos desaparecerán de manera evolutiva y descentralizada.
    A mí me preocupa la deriva teórica que ha venido con los modelos DSGE. Los autores tienen el artículo hecho en Latex y cambiando una pequeña cosa ya tienen otro hecho en un santiamén. Escrbir un artículo ya no tiene la magia de empezar desde cero.
    Los autores de prestigio pueden así escribir muchos artículos al año, normalmente con autores desconocidos que supongo que serán sus doctorandos, becarios y asociados y que imagino que serán los verdaderos autores.
    Esto también es un fraude.

    • Pedro,

      Tocas un tema muy interesante, ¿qué comportamientos son aceptables y cuales constituyen fraude académico? Hay temas en los que no existe una total unanimidad. Un 85% de los economistas encuestados por Feld, Necker y Frey considera que incluir variables de control de manera estratégica con la intención de mejorar la significatividad del coeficiente de interés no es correcto. La acepción que tú otorgas a torturar los datos es más benévola, porque si entiendo bien incluye una declaración explícita de que modelos alternativos igualmente plausibles darían lugar a resultados no significativos.
      Otro posible caso de fraude académico que mencionas son las falsas co-autorías. En la encuesta son rechazadas por el 93% de los economistas. Es un tema polémico, especialmente en España. Los doctorandos a veces tienden a sobreestimar su propia contribución y, por otro lado, algunos directores de tesis creen que tienen un derecho intrínseco a imponer su nombre en el artículo, independientemente de su contribución. Esta práctica de incluir por sistema a los directores de tesis creo que dificulta el reconocimiento de los jóvenes investigadores españoles en el job market, muchas veces es difícil saber cual ha sido realmente su contribución.

      • El tema de las "falsas/multiples coautorias" en Economia (en las ciencias medicas o biologicas, la cosa es, teoricamente, mas comprensible por la experiementalidad) es interesantisimo y da aun para mas. Por ejemplo, no deja de ser extremadamente sorprendente que algunos economistas sean capaces de "producir" 4-6 e incluso mas articulos de economia teorica o empirica (insisto, excluyo la experimental economics) en revistas SSCI al anho (durante muchos anhos). Naturalmente todos con co-autores (2,3 e incluso 4 firmantes, en trabajos del tipo revision bibliografica, datos semipublicos y modelo econometrico). Aun aceptando que el trabajo entre los co-authors fuese equilibrado (no seria importante saberlo, por cierto), no deberia dividirse su produccion, por ejemplo a la hora de otorgar sexenios, asignar proyectos, conseguir acreditaciones,....?; esto es: 1 articulo/year firmante unico= 2 articulos/year con 2 firmantes = 3articulos/year con 3 firmantes....No es otra pervesion como el autoplagio (y diferente, diria yo, del plagio)?Que opinais?.

        • Andamio,

          El tema que planteas es un debate clásico en las discusiones sobre la medida de productividad científica y daría en sí mismo para una entrada en nadaesgratis. Solamente un pequeño apunte. Personalmente, a mí también me preocupa que las instituciones no descuenten proporcionalmente por el número de co-autores. Esta práctica podría multiplicar el número de co-autores de una manera artificial. Y el problema es que este tipo de gaming no es inocuo, distorsiona la información que tiene el mercado acerca de la calidad de cada co-autor y también puede generar serios problemas de incentivos dentro del grupo de co-autores. Cuantos más co-autores tenga el artículo más fácil es que surjan problemas de comportamiento oportunista.

  • Vaya tela. Wikileaks total!. Yo también tuve un profesor de econometría que me soltó la frase de:
    “si torturas los datos lo suficiente acabaran confesando” sólo que no dijo que era de Coase. ¿plagio?. lol. Eso sí, él ya sólo da forecasts "que gusten" a los señores gobernadores de la banca central^^
    Con respecto a los mecanismos de control, es muy sencillo y cada vez se hace más. Debería ser obligado que las rutinas de MATLAB, GAUSS, o el software que sea con el que se haya realizado el análisis empírico fuesen públicas junto con los conjuntos de datos utilizados.

  • Manuel,

    Importante separar dos problemas. Primero, distingamos entre científicos y profesionales, válido para todas las disciplinas científicas, porque siguen reglas distintas. Por esto no comparto sus primeras líneas sobre qué hacen los economistas. En principio, los científicos son preparados en doctorados donde sus mentores son científicos, aunque no todos lo son porque en algún momento aceptaron asesorías. Por ejemplo, Minnesota en los 60s donde Leo Hurwicz (Premio Nobel) era alguien dedicado a la ciencia y Walter Heller estuvo a cargo del CEA con Kennedy. Basta revisar sus legados (ver wikipedia) para darse cuenta de las grandes diferencias en sus actividades. Desde esa época y lugar siempre he pensado en los fuertes conflictos que se nos producen cuando mezclamos las reglas del fútbol y las reglas del baloncesto. Nunca juzguemos lo que afirman los profesionales con los estándares de los científicos y nunca dejemos que los profesionales nos engañen haciéndose pasar por científicos. Si hoy tengo que juzgar a Bernanke, me importa un bledo lo que hizo y dijo en Princeton.

    El segundo problema tiene dos partes --una, si los economistas en tanto científicos constituyen una población cuya fiabilidad es similar a la de los científicos en otras áreas, la otra es juzgar la fiabilidad de los científicos versus la fiabilidad de otros académicos. Mi respuesta es que los economistas somos menos fiables (estamos contaminados por nuestra cercanía a gente de poder) y los científicos son menos fiables que lo que dicen ser aunque no necesariamente menos fiables que otros académicos.

    • Quasimontoro,

      Gracias por la precisión, donde dice "los economistas académicos ..." quizás hubiera sido más correcto poner: "algunos economistas académicos ...". Muchos economistas académicos no tienen ningún interés por la posible aplicabilidad de su trabajo y es perfectamente legítimo que sea así.

      • Manuel,

        Jamás diría que un Leo Hurwicz no tuvo interés en la “aplicabilidad“ de su investigación científica. No hay análisis científico sin teoría y sin intento de autenticación o validación o falsificación empírica. Que algunos científicos centren su esfuerzo en la teoría de manera alguna quiere decir que ignoren la necesidad de esos intentos. Uno podrá cuestionar la división del trabajo entre científicos pero no es diferente a las divisiones que se dan en otras actividades.

        La diferencia importante es entre científicos y profesionales, cada uno con sus propias reglas de juego (aunque algunos creemos que los profesionales prefieren jugar sin reglas y a veces sin principios).

        • Mis disculpas Quasimontoro, había leido demasiado apresuradamente tu mensaje anterior.

  • Como en la mayoría de problemas de naturaleza política, la solución está en clásicos como la transparencia y la opinión pública. Si el trabajo de los economistas llama la atención de un público mayor y más amplio, habrá más presión por saber qué hacen y cómo lo hacen, más debates sobre sus conclusiones, más crítica a la metodología empleada y, por lo tanto, más transparencia sobre “la alquimia” a la que se someten los datos.
    Por el contrario, si se impone la autorregulación gremialista del colectivo sin un público que exija saber más, se extenderán y propiciarán malas prácticas. Al fin y al cabo, “entre economistas no se pisan las estadísticas” (Si alguien soltó esta frase con anterioridad, es pura coincidencia: no hay plagio).
    Por otra parte, la desatención que ha merecido la carga empírica en muchas disciplinas sociales en estos últimos años es síntoma de un grave problema. Muchos empiristas han sesgado como querían sus trabajos, mientras que aquellos partidarios de enfoques teóricos no entraban en el debate por las limitaciones epistemológicas que tienen las metodologías empíricas de tal forma que el debate se segmenta y empobrece.
    En este sentido, la autorregulación es peligrosa, porque en algunas disciplinas uno se encuentra con el rechazo a sus proyectos de investigación porque tienen “demasiada investigación empírica, demasiado uso de datos” y poca “teoría”. Es decir, si usted tiene éxito en sus investigaciones, forzaría al colectivo de académicos a trabajar más y más duro en vez de escribir monumentos filosóficos ante una pared blanca.

    • Carles,

      Tienes razón, necesitamos entrar en un círculo virtuoso en el que produzcamos buena evidencia empírica, que sea útil y atraiga la atención de la sociedad, y que esta a su vez nos exija más transparencia y más rigor. Un caso quizás de relativo éxito es la revolución que se ha producido en Economía del Desarrollo, y la intervención de la Bill and Melinda Gates Foundation creo que forma parte de esta dinámica positiva.

  • Como siempre, muy interesante

    Me pregunto si dependerá la distribución de los p-values del asunto analizado. Esperaría que el efecto fuese más acusado en cuestiones en las que hay importantes discrepancias ideológicas u otros intereses en juego

    ¿Alguna evidencia?

    PD Me extrañaría que la (falta de) fiabilidad percibida de los economistas se debiese a esto

    • Hola Penny,

      En el artículo de Star Wars no lo analizan, sospecho que es una dimensión difícil de cuantificar. Un saludo!

  • Gracias por la entrada.

    Si bien seguro que hay economistas tramposos, como hay tramposos en todas las profesiones, creo que un problema (más) fundamental es el siguiente. Pongo mi argumento en dos puntos:

    1) Escribir los programas en el ordenador no es fácil, y se suelen cometer errores
    2) Cuando se parte de una hipótesis y los datos corroboran las hipótesis iniciales se tiende a asumir que no ha habido errores de programación. De la misma manera, cuando el resultado no corrobora la hipótesis de trabajo, el investigador está en la duda de si se equivocó en la programación o en la hipótesis.

    Esto creo que crea un sesgo natural hacia la corroboración de las hipótesis de partida, incluso en el caso que no haya tramposos.

    • Gracias Joan, totalmente de acuerdo en el mecanismo que describes!

      De todas formas, no olvidemos que en nuestra profesión los incentivos a publicar, tanto monetarios como no monetarios, son muy poderosos.

  • Hola Manuel,
    Me ha gustado mucho la entrada. En todo caso, esto es una interacción estratégica entre autor, revista y lector. Si todos suponemos que los artículos son torturados en un x% quien no llega al nivel deseado torturándolos es p0rque sus datos no dan más de si (dejando de lado diferentes preferencias por la corrección científica). Dicho de otro modo, en media, el sistema genera un ranking apropiado de los artículos. Con el tiempo los lectores desarrollan una medida de cuán creíble es un resultado con un determinado grado de significatividad y un tamaño muestral y se infiere correctamente. La distribución resultante es similar a la de "nivel educativo" donde muy poca gente se queda a una asignatura de completar un grado universitario o el instituto. El proceso añade ruido pero no necesariamente credibilidad.

    • Hola Daniel,

      En el "modelo" que propones me imagino el efecto sobre la credibilidad dependería de las asimetrías informativas y de la tecnología de manipulación, ¿no?
      Yo creo que hay bastante heterogeneidad en cómo de "maleables" son los datos y esto no es siempre obvio para el lector o evaluador. Y en términos de tecnología, en algunos casos hay técnicas de tortura que harían confesar a cualquiera los crímenes más horrendos. Quizás por esto a veces el juez (editor) parece dar tanto o más peso a la reputación del inquisidor (autor) y al móvil del crimen (la teoría), que a las confesiones de los sujetos (datos). Por otro lado, la tortura/masaje de datos también tienen otros costes añadidos que son difíciles de cuantificar, es costoso para el autor (y para el contribuyente que le paga su salario) y es probable que retrase los procesos de evaluación de las revistas.

  • Economistas, arquitectos, escritores, biólogos, médicos investigadores y... hasta diseñadores como yo. Todos son potencialmente replicadores de sí mismos o de otros. Quizá la explicación esté en los adelantos en el mundo de la información y en la excesiva credulidad de algunos responsables, que ven un artículo firmado por un catedrático y lo dan por bueno sin estudiarlo.
    Ahora lo fácil sería decir que antes no pasaba, pero sí, mucho y en todos los ámbitos.

    • Pautax,

      Ciertamente, las tecnologías de la información facilitan el plagio, y también su detección. Quien le iba a decir a aquel catedrático gallego de cuyo nombre no quiero acordarme que alguien se iba a dar cuenta de que sus artículos en realidad son plagios de unos artículos escritos por unos científicos chinos. Y las tecnologías de la información también están reduciendo el coste de realizar replicaciones, es decir, de comprobar si lo que se asegura en un artículo es correcto. Yo confío en que el efecto neto será positivo.

  • Buenos días, Manuel
    Sobre tu pregunta. Creo que sí, que nos podemos fiar, con reservas.
    Las ciencias sociales se desarrollan en un sistema político que es relevante para el bienestar profesional de sus académicos. Como explicaba Kuhn la vida dentro de un paradigma tiene sus costes y sus beneficios. Los ciudadanos debemos simplemente ser conscientes de ello y no pedir peras al olmo. Reconocer los límites.

    Sobre la pregunta distinguiría dos aspectos: Fiabilidad cada trabajo concreto y el resultado del trabajo colectivo de la profesión.

    Las personas quieren hacer bien su trabajo. El mal trabajador es excepción y, como los arrantzales en cada marea, los malos son rápidamente identificados y desaparecen pronto. El peer review es bastante efectivo.

    Es más problemático, a mi modo de ver, el efecto del sistema que dirige la vida del colectivo profesional.

    La investigación (pública y privada) depende de fondos y estos se asignan en función de criterios económicos y políticos.
    Cambia la moneda pero siempre hay una cuenta de pérdidas y ganancias. El sistema se mueve en la dirección marcada por esa cuenta por lo cual la libertad, la creatividad y hasta la misma productividad innovadora están muy restringidas.
    Esto, el público lo nota muchísimo en ciencias sociales y es un hecho citado con frecuencia.
    Por ejemplo lo cita el antropólogo Tainter al hablar de los rendimientos decrecientes en investigación desde que a lo largo del siglo veinte se aumenta el efectode los intereses de pocos sobre los de muchos (por decirlo amablemente).

    Saludos

    • A mi me preocupa mas otro tema, si los economistas hacen buenos informes, pero estos informes no salen a la luz publica, porque el político de turno, que controla la dirección, esconde dichos artículos porque "no toca.."
      El veterano economista del consejo ejecutivo del Fondo Monetario Internacional (FMI) Peter Doyle "...las notables dificultades en estas crisis que, como en otras, fueron identificadas bien de antemano pero suprimidas después», afirma Doyle, certificando que el FMI ha eliminado información" El veterano economista del FMI achaca «los fracasos de la vigilancia del FMI» a la «aversión hacia el riesgo analítico, las prioridades bilaterales y la influencia europea», unos factores, puntualiza, «están cada vez más arraigado, en detrimento de las iniciativas» propuestas para solucionarlos.
      Información eliminada
      En este sentido, pone como ejemplo la elección de los directores generales del FMI que, en la última década, «han sido un absoluto y evidente desastre» y cuyo proceso es «ilegítimo». Para terminar, Doyle arremete contra el consejo ejecutivo por preferir mantener a un «Fondo inválido».

      • Ramón,

        En el FMI y todos los organismos internacionales de ayuda financiera, las decisiones son tomadas por ejecutivos con alguna formación en economía --no es necesario ni suficiente tener un postgrado en economía para ser ejecutivo. El problema de los economistas en esos organismos es que son contratados para asesorar o estudiar temas de su especialización, pero no para tomar decisiones. Hasta fines de los 90, en algún momento de su carrera en la organización esos economistas tenían que optar entre seguir como economistas o ser ejecutivos. Los economistas que tomaban puestos de ejecutivos tenían que (a) haber mostrado habilidades administrativas, o (b) haber tenido un buen padrino. Los economistas que no tomaban esos puestos (c) se iban porque encontraban mejores oportunidades, o (d) se quedaban esperando la edad mínima para una buena jubilación.

        No conozco los detalles de la carrera de Doyle pero aparentemente habría optado por (d). En todas esas organizaciones los economistas que optan por (d) tienen a su vez que decidir cuánto critican las decisiones que se toman y por eso yo siempre he recomendado a mis amigos en esos organismos que si quieren pero no pueden conseguir (a), opten por (c) buscando activamente oportunidades fuera. Trabajar en esos organismos como asesor “viejo“ es muy frustrante porque las decisiones las toman ejecutivos que son paracaidistas (cayeron en cargos muy altos por “arbitrariedades“) o gente apadrinada como en (b).

        Esa situación parece haber empeorado mucho en los últimos 10-15 años por varias razones. Para evitar la censura, no menciono casos.

      • Menudo asunto has tocado, Ramón.

        Ese nos afecta a todos, no sólo a los académicos e investigadores de alguna de las escuelas económicas.
        Estos últimos años me estoy dedicando a coleccionar obras agotadas de autores de prestigio para autores académicos pero que el sistema cultural desaconseja porque sus tesis le son "inconvenientes". Hay proscritos en muchas ramas.

        También es interesante ver cómo se lleva a cabo el proceso de ocultación que va desde ver cómo ciertos libros desaparecen de las lecturas escolares (caso de Huxley y Orwell, por ejemplo) al tipo de lecturas que ocupan su lugar y por qué.

        O, menos conocido, el proceso por el cual el sistema publica para acceder al control. Para ello redacta el contrato de tal forma que los derechos de edición posterior son del primer editor (la Diputación XYZ, por ejemplo) y nunca más vuelve a haber una reedición aunque el libro se haya agotado la primera semana.

        El sistema es impresionante en su dedicación, sus recursos y sus técnicas de control. Desde luego cuenta con los recursos suficientes para estructurar sus incentivos de la mejor manera.

        Saludos

  • Manuel,

    Propongo una aproximación distinta a la respuesta a tu pregunta.

    El Fed anunció una “nueva“ política monetaria para aumentar el empleo en EEUU pero cuidando que la inflación no se dispare (el sueño del pibe que el mismísimo Phillips --el de la curva-- negó). Esta política consiste en gastar --comprar bonos-- pero sin decir cómo se financiará el gasto. Como Nada Es Gratis, su análisis debe hacer algún supuesto sobre cómo se financiará. Hay tres alternativas para financiar cualquier gasto público --impuestos hoy, impuestos mañana y señoreaje. Otros economistas identificarán las alternativas de manera distinta. Separo señoreaje de los impuestos para evitar confusión --señoreaje significa usar el medio de pago controlado por el gobierno, directamente o a través de un banco central. Impuestos mañana significa endeudarse. Históricamente la medición de ese medio de pago se hace con el ítem base monetaria (= circulante + reservas o encajes bancarios en el Fed) bajo el supuesto de que la conversión de reservas o encajes en circulante que exceden los montos obligatorios (las reservas excedentes) depende de las preferencias de la gente y de los bancos y no del Fed, aunque el Fed puede influir en esas preferencias de varias maneras. Pero ojo: los datos pueden ser manipulados.

    ¿Cómo fiarse de los economistas de NeG, editores y lectores? Pues explicando nuestros supuestos para analizar esa política, en particular cómo el Fed financiará su gasto. Mi punto es que nuestra fiabilidad depende ante todo de esos supuestos y debemos dejarlos bien claros desde un principio.

  • ¿Nos podemos fiar de los economistas?.

    En la vida, la mayor parte de las cosas son relativas. Yo diría que no tenemos más remedio que hacerlo, aunque condicionalmente. Pese a que la literatura sobre sesgos de todo tipo sea oceánica, la base por la que se sostiene toda sociedad es la confianza, aunque sea relativa y parcial sin ella se acaba desmoronando. Por eso es necesario tener el mínimo de decencia para que la ruptura no sea total.

    Por otro lado, aún las torres de marfil son relativas (sesgos culturales y de carácter o nature & nurture como le gusta decir a Penny). Nos movemos en un entorno competitivo, acaba forzando resultados y esto es válido tanto para la banca como para la investigación. Los resultados no necesariamente tienen por qué ser satisfactorios. Muchas veces, simplificando, la respuesta a los problemas puede ser "ni blanco ni negro ni qué se yo", pero eso es un producto de difícil venta (para uno mismo y para los demás), y eso acaba generando "ruido".

    Se puede escribir un libro de mil páginas sobre casi cualquier tema explorando sumariamente algunas posibilidades con ciertas consideraciones metodológicas o reducirlo a un artículo de mil palabras para hacer más accesible y didáctico el asunto, que incluso en el libro no quedaba ni mucho menos cerrado.

    Por supuesto que el problema de la confianza se resuelve con el conocimiento total y el tiempo para verificar informaciones. Como es imposible individualmente se impone la confianza, no la defraudemos.

  • Yo creo que no nos podemos fiar, aunque no tanto por motivos éticos como metodológicos. La metodología que utiliza la Economía podía ser adecuada en el pasado pero no en la actualidad.
    Las bases de datos elaboradas a partir de estádisticas oficiales deberían ser ÚNICAS y PÚBLICAS. El trabajo realizado por un investigador sobre una fuente estadística debería ser contrastado por la comunidad científica y, una vez aprobado, dejarlo a la libre disposición de la misma con el adecuadamente reconocimiento de la autoría. Así se evitaría que con fondos públicos se finanaciaran trabajos redundantes y, en general, poco verificados.
    Por otra parte, debería trabajarse con un mayor nivel de integración de los modelos, de forma que el trabajo que realizamos fuera aditivo en lugar de meramente simultáneo. Los nuevos proyectos basados en la utilización intensiva de las TIC (FuturICT, por ejemplo) pueden prindar esa posibilidad.

  • Leyendo este post

    http://econlog.econlib.org/archives/2012/09/future_money_an.html

    me entero de la muerte reciente de Philip Cagan. A mi juicio Cagan hizo la única contribución importante sobre economía de los sistemas de dinero fiduciario (recordar que se han escrito varios miles de documentos de investigación sobre el tema). En su tesis doctoral de los años 50, en Chicago bajo la supervisión de Milton Friedman, Cagan analizó en detalle los procesos hiperinflacionarios. Mientras el 99,99% de las investigaciones sobre economía de los sistemas de dinero fiduciario se refieren a inflación, un 0,001% se refiere a hiperinflación. Mi punto es que sólo en casos de hiperinflación existe evidencia concluyente de que ha sido causada por un aumento extraordinario de la oferta del medio pago controlada por el gobierno. En cada experiencia el problema es por qué aumentó esa oferta y la respuesta es para financiar un gasto extraordinario --por ejemplo, una guerra. En un comentario anterior me referí al señoreaje: la hiperinflación es causada por un gasto extraordinario financiado con señoreaje.

    En general los (macro)economistas no son fiables porque hablan de política monetaria COMO SI ALGO FUERA GRATIS. Pero no lo es porque hay un riesgo de hiperinflación y uno debe preguntarse sobre las condiciones para que se de y si es un costo que valdría la pena pagar. Por ejemplo, en relación al último anuncio del Fed, intuyo que no terminará en hiperinflación pero tampoco resolverá el problema del paro en EEUU. Pero esa intuición sólo se puede justificar a partir de supuestos claros.

    Sobre hyperinflación recomiendo

    http://www.econlib.org/library/Enc/Hyperinflation.html

  • Un reciente working paper de Raúl López Pérez de la UAM, concluye que los estudiantes de economía mienten más que los de otras disciplinas, probablemente porque se les enseña que no es malo mentir en sí mismo si no perjudica nadie y nos beneficia un poco...
    http://www.uam.es/departamentos/economicas/analecon/especifica/mimeo/wp20124.pdf
    Si asumimos que los papers publicados tienen la misma utilidad tanto si dicen la verdad como si inventan algún dato... entonces no es tan grave si ayuda a mejorar un poco el curriculum académico 😉

    • Gracias por la referencia Juan, muy interesante.

      Un pequeño comentario, por si pudiera ser de utilidad. Lo que no me acaba de convencer del paper es la interpretación de los resultados. Con la evidencia que se presenta no creo que sea posible saber si las diferencias observadas entre la honestidad de los estudiantes de Economía y el resto se debe a un efecto de selección o es producto del aprendizaje recibido. Los autores utilizan una estrategia de variables instrumentales (en mi opinión) un poco ingenua: utilizan la ideología como instrumento para la honestidad. Es decir, el supuesto de identificación es que lo que nos enseñan en la facultad afecta a nuestra honestidad, pero no afecta a nuestra ideología.

  • No me atrevo a hablar de las estadísticas económicas en profundidad porque es un tema del que desconozco muchas cosas. Pero, si acaso la conclusión fuese que había que desconfiar de los economistas por insuficiente o mala contrastación empírica de sus estudios, qué habría que decir de tantos otros campos de la vida social en los que la contrastación empírica no se produce, o la que se toma como referencia carece del más elemental respecto por el método y la ausencia de sesgo - alguna incluso tomada como verdad científica para elaborar leyes-, como sucede con tanta información de "género" que se elabora consultando exclusivamente a uno de los sexos.

  • Genial e imprescindible artículo. Además, las respuestas a los comentarios también son excelentes.

  • .... y proponiendo medidas basadas en la “evidencia empírica”

    Siendo aquí cuando los economistas dejan de serlo, pasando a ser políticos. Y es cuando debes dejar de confiar en ellos.

  • Acabo de leer su artículo en voxeu sobre un tema ya tratado en éste blog:

    http://www.voxeu.org/article/it-s-not-what-you-know-who-role-connections-academia

    Me ha venido a la cabeza la importancia del "capital humano" de un país tomado en su conjunto a la hora de valorar la labor de sus economistas promocionados en su medio (académicos o no), y los posibles sesgos, aparte de la excelencia, que esto comporta.

    También habría que considerar la postura "ideológica" de algunos cabezas de serie al igual que sucede en USA:

    Así como a Obama le apoyaron en su momento Paul Krugman, Daniel McFadden, Edmund Phelps, Amartya Sen, Robert Solow y Joseph Stiglitz; a Romney le apoyan Gary Becker, Robert Lucas, Robert Mundell, Edward Prescott y Myron Scholes.

    "400 Economists Endorse Romney."

    http://www.advisorone.com/2012/08/15/400-economists-endorse-romney

    Esto no es ninguna crítica, el modelo social y económico de un país depende de factores muy variados, y no todos se asientan sobre un mar de petróleo como Arabia Saudí para poder permitirse proyectos extravagantes (al menos por un tiempo). No deja de ser una cuestión de preferencias, prioridades y recursos disponibles variables en el tiempo; una cuestión en buena medida ideológica.

    He ojeado el trabajo de Albouy cuestionando la credibilidad de los datos Acemoglu et al. y hay algo que me llama la atención. Prestar a la mortalidad (datos cuestionables o no) cierta importancia para su tesis, en una zona en que la esclavitud y su comercio (citada además) han jugado un papel clave durante siglos, me parece perder su tiempo y el nuestro.

Los comentarios están cerrados.