Entrevista con Jim Heckman

por Jesús Fernández-Villaverde el 26/01/2016

De Jim Heckman circulan muchas historias, algunas verdaderas, algunas más de leyenda. Una de esas historias, que resalta su capacidad de trabajo casi épica, es Bob Lucas (un premio nobel) recordándole a Heckman (que también ganó la medalla de los suecos en el año 2000) que por mucho que lo intentase no le iban a dar un segundo premio nobel en economía. Pues a diferencia de muchos otros galardonados, Heckman ni ha reducido las horas que le mete ni se ha dedicado a ir por el mundo dando charlas a la cámara de comercio de Villafría del Sotomonte para hacer caja (cosas, por otro lado, ambas muy legítimas). Heckman sigue produciendo un paper detrás de otro como si fuera un profesor joven aspirando a sacar una plaza. Yo puedo atestiguar personalmente, pues por una serie de motivos he mantenido bastante correspondencia con él, que le envío un correo electrónico de trabajo a las 11.30 pm un sábado por la noche y me responde a las 11.31 pm.

Por eso ayer lunes, cuando vi que el episodio de esta semana de Econtalk era una entrevistra con Heckman, poco pude resistir la tentación de dejar prácticamente todo lo que tenía encima de la mesa y ponerme a escucharla, primero con el desayuno y luego con un té, hasta acabarla.

Y ciertamente, menuda entrevista. Heckman se despacha a gusto -y creo que con mucha razón- con temas como la falta de control por cambios demográficos en la interpretación de datos (algo que ya hemos argumentado muchas veces en NeG: el hogar mediano de 2016 es muy diferente del hogar mediano de 1980 y por ello comparar el ingreso del hogar mediano en 2016 con el del hogar mediano de 1980 es erróneo), con el uso casual de las variables instrumentales, con la fragilidad de muchas estimaciones estructurales y con la interpretación excesivamente optimista de los resultados de experimentos aleatorizados. Podría pasarme escuchándole por días enteros. Los lectores de NeG o los que me han visto dar charlas en Madrid sobre educación y desigualdad reconocerán que la práctica totalidad de mis ideas al respecto vienen o de Heckman o de los varios estudiantes suyos con los que he tenido la suerte de solapar en varios departamentos a lo largo de los años.

Uno de los mayores privilegios de mi profesión es poder conocer a gente como Heckman que, sencillamente, juega en una liga totalmente distinta a la mía. Aquí esta la entrevista, aquí su página web y aquí su tuit.

David Cuberes enero 26, 2016 a las 18:42

Hola Jesús,

Yo fui ayudante de Heckman en Chicago y te puedo asegurar que es cierto que te podía llegar un email suyo en cualquier hora de la noche. Una gran (e intensa…) experiencia! Estuve en Chicago hace unos meses con Aitor Lacuesta y otros compañeros de la promoción de 2005 y Heckman hablo junto a Lucas y Hansen. Todos premios nobeles, pero mientras Lucas tenía tres transparencias, Heckman debía tener unas cien, y las pasaba entusiasmado a toda velocidad. También recuerdo un día en el que dio clase un rato después de que le hubieran sacado una muela…
Todo un personaje. Gran economista.

Saludos

Casandra enero 26, 2016 a las 22:55

Muchas gracias por esta maravillosa entrevista. No podía entenderla muy bien pero, afortunadamente se puede conseguir fácilmente el documento con escrito.
A ratos me ha parecido un poco decepcionado. En especial cuando habla de lo que prometía la econometría en sus inicios: el descubrimiento de los parámetros que gobiernan la conducta económica. En lugar de esto parece que, en su opinión, nos hemos movido en la dirección de desarrollar complicados artefactos estadísticos difíciles de interpretar desde un punto de vista económico.

Otro efecto negativo (o no) de la lectura de esta entrevista, es que estaba a punto de leer por recomendación Mostly Harmless Econometrics de Angrist y Pischke, pero ahora ha perdido algunos enteros.

Jesús Fernández-Villaverde enero 27, 2016 a las 02:15

“Mostly Harmless…” toma un tema interesante, RTC y el uso de IVs, pero sobrevalora el poder de los metodos y minimiza sus problemas. Todos “exageramos” un poco las ventajas de nuestras metodologias favoritas y obviamos un pelin sus problemas, pero “Mostly Harmless…” lleva el celo partidista quizas un poco mas lejos de lo que hace otra gente. No es mal libro para leer si ya sabes de que van los temas, pero necesitas compensar con otros enfoques (como el paper de Deaton sobre RTCs que Heckman menciona).

Libertad González enero 27, 2016 a las 09:40

De acuerdo con Jesús, pero sigo recomendando el Mostly Harmless (eso sí, no es lectura ligera, aunque lo pueda parecer por el título). Por supuesto, complementar con otras lecturas de enfoques alternativos y visiones críticas es buena idea.

Jesús Fernández-Villaverde enero 27, 2016 a las 17:34

A mi casi me gusta mas el otro, “Mastering ‘Metrics: The Path from Cause to Effect”. Aunque es mas “ligero”, es el que les doy a mi clase de historia economica, pues muchas tecnicas son de aplicacion en ese campo. El otro dia estuve contando IVs y todos los ejemplos los robe de “Mastering….” ;)

Ramsey enero 28, 2016 a las 01:01

Si te gustó Mastering Metrics, más accesible y más aplicado es el de Thad Dunning “Natural Experiments in the social sciences”.

Casandra enero 28, 2016 a las 12:35

RTC supongo que se refiere a experimentos aleatorios controlados. La verdad, no me parece muy probable que se puedan montar muchos experimentos de este tipo en economía. Más plausibles me parecen los denominados cuasi experimentos, pero aunque he leído alguna cosa, solo soy un aficionado.

Por otra parte pensaba que el Mostly … sí era un texto introductorio (y por tanto fácil), pero si me decís que no es así y teniendo en cuenta el elevado formalismo de la econometría actual (resulta realmente difícil leer la mayor parte de los papers publicados en economía a no ser que tengas una fuerte formación estadística), definitivamente lo dejo. Procuraré leer más entrevistas como la de Heckman: ¡se aprende mucho!

Jesús Fernández-Villaverde enero 28, 2016 a las 15:46

El American Economic Association’s registry for randomized controlled trials:

https://www.socialscienceregistry.org/

tiene a dia de hoy 550 experimentos aleatorios controlados en su indice. Me imagino que habra mas que se han quedado fuera, con lo cual pensar que se han realizado al menos un millar de ellos de manera seria es una hipotesis razonable.

casty enero 27, 2016 a las 13:39

¿Y ofrece algún consejo para los padres que no quieren sentarse a esperar a que su gobierno implante los programas de inversión en temprana edad, y quieren invertir su propio tiempo y dinero ahora?

Jesús Fernández-Villaverde enero 27, 2016 a las 17:35

No se :( Creo que la idea de “construir” paciencia en los niños y buenos habitos de auto-disciplina es clave. Pero no es mi campo principal.

Carlos P enero 27, 2016 a las 22:20

Hola, soy un estudiante de master y la entrevista me ha parecido muy interesante, pero hablan de una cosa que no habia oido antes, ¿alguien sabria explicarme lo que es la credibility revolution? ¿Es algo abstracto?

Ramsey enero 28, 2016 a las 01:14

Hola Carlos

Dale un vistazo al volumen 24 del Journal of economic perspectives, está dedicado a este tema aeaweb.org/articles.php?doi=10.1257/jep.24.2 para ver las perspectivas de los qeu lo proponen y los críticos

Si no me equivoco, el término viene de un artículo de Ed Leamer de los ochenta que venía a transmitir que la forma en la que se hacía trabajo empírico entonces -plantear una hipótesis y tirar regresiones hasta que el test de significatividad chutara- no era creíble porque las correlaciones podían entenderse de muchas formas, y eran muy sensibles a como se especificara el modelo.

Hay bastante gente que ha intentado ver como pegarle a este tipo de problemas. Una de las cosas que son ahora más_ trendy_ es lo que se llama la “Rubin identification” -es el marco al que el libro de Mostly Harmless econometrics te introduce-que es un marco que intenta identificar plantea bajo qué supuestos una regresión se puede ver como una relación causal. En general, todo el trabajo que se ha hecho alrededor de este marco se suele llamar “credibility revolution” y se refiere tanto al estrés de que hay muchos problems en sacar conclusiones de casualidad de una regresión como a los métodos que proponen (esencialmente, encontrar mecanismos que simulen experimentos en el mundo real para solucionar los problemas de endogeneidad, selección, etc).

Hay dos referencias que puedes querer mirar: “The scientific model of Causality” de Heckman; “Is the science of comparative politics possible?” de Adam Przeworski (mucho más cortito).

Libertad González enero 28, 2016 a las 09:19

Sí, es eso. Básicamente se refiere a cómo en las últimas décadas se ha dedicado mucho esfuerzo en la profesión a mejorar la credibilidad del análisis empírico.

Carlos P febrero 2, 2016 a las 15:19

Ok muchas gracias, le echare un ojo a estas cosas.

Un saludo

Se han cerrado los comentarios de esta entrada.

Previous post:

Next post: