- Nada es Gratis - https://nadaesgratis.es -

Algo se mueve en las políticas activas de empleo

442px-Mosaique_romaine

De Samuel Bentolila y Marcel Jansen

Después del triunfalista informe del Gobierno sobre el impacto la reforma laboral, este verano hemos visto, al fin, algo de movimiento en políticas activas. Se ha aprobado el Plan Anual de Política de Empleo para 2013 y convocado la selección de agencias de colocación para la inserción de los parados. Dejando el segundo asunto para una entrada futura, hoy nos centraremos en el primero. Como ya señalamos en este blog, las políticas activas pueden ser muy útiles en la reducción del paro, dado el bajo nivel de formación de gran parte de los parados, así que son buenas noticias.

El Plan Anual de Política de Empleo para 2013 es, sobre el papel, ambicioso. Anuncia un "nuevo modelo" de programación, gestión, evaluación y financiación de las políticas de los servicios públicos de empleo (SEPE). (Sí, el 28 de agosto se publica el plan para todo este año, se ve que el paro no es un asunto muy urgente.)

La financiación es de 3.800 millones de euros (frente a más de 7.000 millones al inicio de la crisis). Un 35% de la financiación irá a las Comunidades Autónomas (CCAA). Un primer cambio es que el 40% de este importe no es fijo, sino que está condicionado al cumplimiento de una serie de objetivos (antes era solo el 15%). En principio, es buena idea que una parte significativa de la remuneración sea variable, para generar incentivos, siempre que los objetivos sean los adecuados.

Hay 33 objetivos, 4 "políticos" y 29 estructurales, organizados alrededor de seis ejes (el texto exhibe una prolija taxonomía burocrática). Hay varios objetivos interesantes. En la orientación a los parados destacan el diagnóstico individualizado y la gestión de itinerarios individuales. En la formación, la evaluación de su calidad. En oportunidades de empleo, aflorar empleo en la economía sumergida –con incentivos a sancionar incumplimientos por parte de los perceptores de prestaciones–. Y en el marco institucional, mejorar la gestión y comunicación e impulsar la cooperación público-privada.

Para saber si, a diferencia de la situación actual, todo esto irá a alguna parte, la clave es la evaluación. Para hacerla se definen 22 indicadores. Casi todos son razonables para medir la eficiencia de los SEPE. No obstante, muchos miden el esfuerzo, qué recursos se dedican a las políticas (input), y demasiado pocos miden los resultados (output). Un par de indicadores de esfuerzo muy básicos, pero hoy relevantes por la escasísima actividad de los SEPE, es el de parados atendidos sobre el total de parados registrados y puestos ofertados por el SEPE sobre el total de contrataciones registradas.

Un indicador de resultados importante es cuántos parados se han colocado (desglosados por tipos: de larga duración, jóvenes, mayores de 55 años o perceptores de prestaciones del Plan PREPARA, del que hablé aquí). Además, se emplea en forma de diferencia de ratios:

( Parados atendidos que se colocan / Parados atendidos )  –  ( Parados no atendidos que se colocan / Parados no atendidos )

Es una forma de medir si el tratamiento (ser atendido) tiene un impacto en comparación con los no tratados. No obstante, se refiere a parados "que recibieron alguna atención", sin distinguir cuál. Dado que es muy distinto recibir orientación del SEPE, digamos, que hacer un curso de formación, cada tipo de tratamientos debería medirse por separado.

Además, no basta con comparar a los atendidos con los no atendidos. Los primeros no son elegidos al azar. Por ejemplo, en el caso de la formación, a los parados se les ofrecen cursos y ellos deciden si hacerlos o no, y cuáles hacen. Por tanto, quienes siguen un curso no son representativos del total de parados, sino que tenderán a ser aquellos con más capacidad de aprender o más ganas de encontrar trabajo, en cuyo caso tambien esperaríamos que encuentren trabajo antes que los demás. Por este motivo, si no se tiene en cuenta la composición de los atendidos y no atendidos, se tenderá a obtener una estimación demasiado optimista del efecto del curso sobre la probabilidad de conseguir empleo (es el "sesgo de selección").

En consecuencia, conviene analizar la consecución de empleo de parados que piden, todos ellos, hacer el curso. Entonces, porque no haya plazas para todos o por el propio diseño de la evaluación, se concede el curso a algunos (los tratados) y se deja fuera a otros (el grupo de control). Es esencial que el gestor de cursos del SEPE no elija, por ejemplo, a los que cree que se van a beneficiar más del curso, sino que la selección sea puramente aleatoria (es decir, tirar una moneda al aire), igual que se hace en los experimentos que evalúan nuevos medicamentos para su aprobación. En otro caso es muy difícil evualuar bien el tratamiento. Una solución de compromiso es hacer una prueba a pequeña escala (un "piloto") con asignación aleatoria para ver si las políticas funcionan antes de implantarlas a gran escala.

A menudo no se puede o quiere hacer una selección aleatoria. En tal caso, es crucial hacer una evaluación "cuasi experimental". Es decir, medir el impacto de las políticas sobre parados por subgrupos que se parezcan lo más posible en muchas dimensiones relevantes: sexo, edad, nacionalidad, educación, experiencia laboral previa, duración anterior del paro, percepción o no de prestaciones, etc. La premisa es que si se parecen en las dimensiones observables, también lo harán en las no observables (como las ganas de encontrar trabajo). Para esta estimación son imprescindibles los datos individuales. Quienes mejor hacen estas estimaciones son los investigadores académicos, que cuentan con una amplia batería –continuamente mejorada– de técnicas estadísticas para estimar los efectos de las políticas públicas. Y que se vigilan mutuamente con gran dureza antes de aceptar la publicación de un estudio en una revista científica de alto nivel.

Otra dimensión muy interesante de evaluar sería la efectividad de cada oficina del SEPE. Como defendimos hace tiempo, sería deseable que esta evaluación también determinara una parte de la remuneración del personal de los SEPE, como sucede en otros países.

Tras leer el Plan parece que el Ministerio no solo va a pagar a las CCAA por resultados, sino que antes de pagarles va a exigir mucha más información que hasta ahora, lo que es un gran avance. Se podría aplicar a esta evaluación la llamada competencia referencial (véase un artículo clásico de Andrei Shleifer al respecto). Es decir, hacer un ranking de las CCAA, una vez tenidas en cuenta las características de sus clientes (los parados), y premiar a las obtengan la mejor puntuación en cada una de las dimensiones. Es algo similar a lo que nos ha contado Antonio Cabrales sobre el valor añadido de los profesores (aquí y aquí). Y sería muy bueno hacer públicos estos resultados.

Un objetivo que se valora es que las CCAA tengan un sistema de gestión de la calidad, por el que se realicen auditorías, evaluaciones externas o autoevaluaciones periódicas. Por ello, quisiéramos animar a los responsables del Ministerio y de las CCAA a que abandonen su tradicional desconfianza con respecto a los investigadores académicos. Si quieren saber, de verdad, si funcionan sus políticas, pongan los datos individuales (anonimizados) a disposición de los investigadores, como ya ha hecho el Ministerio de Empleo con la Muestra Continua de Vidas Laborales o el INE con la Encuesta de Población Activa. Los investigadores harán las evaluaciones gratis y las mejores serán de gran calidad. A la vista de sus resultados, se podrán mejorar las políticas.

A la larga, hacer evaluaciones rigurosas redundará en su propio beneficio, pues los votantes no van a votarles porque vean en los medios que un informe del Gobierno nacional o autonómico que sea diga que las políticas activas han sido un éxito. Les votarán cuando vean que ellos, sus parientes y sus amigos han sido bien atendidos por los servicios públicos de empleo y gracias a ello han encontrado trabajo.