Una nueva Ley de Universidades perpetúa errores con la investigación

admin 10 comentarios

por Alonso Rodríguez Navarro*

El pasado 31 de agosto el Gobierno ha dado paso al borrador de una nueva Ley de Universidades (LOSU) en la que la investigación sigue sufriendo el mismo tratamiento inadecuado que ha caracterizado a todas las leyes para las universidades desde la LRU (Ley de Reforma Universitaria) en 1983.

Desgraciadamente, este gobierno, y los anteriores, nunca han conocido el nivel de la investigación en España. Realmente, políticos y ciudadanos no tienen fácil acceso a ese conocimiento por la complejidad de los indicadores, que el gobierno elabora mal. Un sistema de investigación se juzga calculando la probabilidad de que haga aportaciones importantes al avance del conocimiento. Esto es complejo y una forma más sencilla de juzgarlo es contar el número de investigadores sólidamente acreditados (en los países muy avanzados se hace con los premios Nobel). Todo el mundo entiende que las mejores universidades en investigación tienen más investigadores importantes que las peores.

Se ha publicado una lista mundial de 159.684 investigadores sólidamente acreditados y si contamos los que hay en cada universidad española y comparamos con los que hay en las universidades extranjeras, comprobaremos que una universidad española de tipo medio-alto tiene aproximadamente diez veces menos investigadores sólidamente acreditados que las universidades de tipo medio-alto en Europa. En el conjunto de las universidades españolas, su número está bastante por debajo de lo que correspondería por nuestro PIB y renta per cápita, los dos grandes factores que condicionan en el éxito investigador de los países.

El problema viene de antiguo. En 1983, la LRU reformó radicalmente el gobierno de las universidades, pero dejó la reforma de la actividad investigadora a un proceso endógeno que nunca funcionó. Desde tiempos que solo los más viejos recuerdan, la docencia en las universidades era, cuando menos, razonable: los médicos españoles eran apreciados en los mejores hospitales británicos y los ingenieros construían ferrocarriles, edificios, puentes y carreteras que cumplían bien su función, y hay muchos más ejemplos. En contraste con esto, la investigación era irrelevante frente a las universidades británicas, suizas, alemanas y muchas otras.

La presión exógena para impulsar la investigación se instauró seis años después de promulgarse la LRU. En 1989, la Comisión Nacional Evaluadora de la Actividad Investigadora (CNEAI) empezó a asignar un complemento de productividad a los profesores que superaban esta evaluación. La CNEAI fue rechazada encendidamente por universidades y sindicatos, pero ahora sabemos que gracias a la CNEAI y también a otros cambios, la investigación en España en aquellos años creció espectacularmente, especialmente en las universidades.

Pero para conseguir una universidad investigadora había que modificar la LRU. En 1994 eso no tenía apoyo político y como solución transitoria se redactó una modesta “actualización” de la LRU que incorporaba las evaluaciones de la CNEAI como requisito para acceder y progresar en la carrera académica. De nuevo, esa modificación tuvo el rechazo de universidades y sindicatos. A pesar de ello, el borrador llegó al Parlamento y pudo haberse aprobado, pero el gobierno cedió, cesó al Secretario de Estado que defendía la modificación y congeló el borrador en el Parlamento.

Para poner esta modificación en un contexto temporal y librarlo de las críticas a la CNEAI que haré más adelante hay que explicar que cuando se crea la CNEAI los profesores de universidad se dividían en tres grupos: los que tenían reconocimiento internacional y publicaban en revistas rigurosas, los que investigaban pero solo publicaban en revisas locales de rigor desconocido o ausente y los que no investigaban. La CNEAI lo único que hacía era distinguir entre estos tres grupos y eso se podía hacer sin leer los trabajos publicados, porque lo único que se perseguía era que los investigadores publicaran en revistas con estricto control del rigor científico de los manuscritos. Como prueba de que solo era eso, en las áreas en las que las publicaciones internacionales eran la norma, p.e. bioquímica, el éxito en los sexenios era casi total.

En los años 90, muchos investigadores del grupo segundo y algunos del tercero se incorporaron al grupo primero. Ufana de este éxito, a principio de los 2000, la CNEAI empezó a distinguir entre los “mejores” y los “peores” del grupo primero, rechazando a los peores; pero sin introducir métodos nuevos, considerando solo los títulos de las revistas. Así, la distinción entre “mejores” y “peores” es técnicamente imposible y sin apoyo en las normas de la CNEAI, como sentenció el Tribunal Supremo.

Para distinguir los trabajos científicos, desde principios de los 2000, la CNEAI de mira la posición de la revista que lo publica en unos listados diseñados para bibliotecarios. Como dogma, todos los trabajos en una revista en posición superior son mejores que todos los trabajos en una revista en posición inferior. Y el orden de las revistas se establece por la media de citas de los trabajos que publican las revistas: el factor de impacto. Este procedimiento ya se ha criticado aquí, por lo menos dos veces, y solo pondré un símil para que a nadie le queden dudas de que es inaceptable. Imaginemos que el Ministerio de Hacienda, para no leer las declaraciones de la renta, propone una ley en la que el impuesto de todos, ricos y pobres, es igual al que corresponde a la renta media del municipio en el que se vive: el factor de renta. Así de fácil, pero dudo que alguien pueda considerar que el método es aceptable.

La LRU se deroga en 2001 por la LOU (Ley Orgánica de Universidades), que crea la ANECA (Agencia Nacional de Evaluación de la Calidad y Acreditación) para, entre otras misiones, habilitar en el acceso y progreso en la carrera académica. En 2007 se modifica la LOU, pero se mantiene la ANECA, que en la evaluación de la investigación copia y endurece los criterios de la CNEAI hasta límites que causan sonrojo. Porque la ANECA no asigna un modesto complemento de productividad, como la CNEAI; lo que hace es decidir si alguien puede entrar o progresar en la carrera académica. Nada menos que eso.

Además de injustas, las evaluaciones ANECA confunden a los investigadores. Investigar en la frontera del conocimiento es arriesgado porque a veces no se tiene éxito. Por ello, para cumplir con la ANECA lo mejor es investigar en algo de bajo riesgo: lo más alejado posible de la frontera del conocimiento de los temas candentes. Y si se hace rigurosamente, como lo saben hacer los investigadores con experiencia, se puede publicar en revistas con alto factor de impacto. Así, una buena parte de la investigación española se genera desde la aversión al riesgo, que es una mala base para hacer descubrimientos. Algo que los políticos aún no han entendido.

La LOSU mantiene la ANECA y las habilitaciones basadas en juzgar publicaciones sin, presumiblemente, leerlas. Reino Unido evalúa a sus universidades (ahora Research Excellence Framework: REF) leyendo las publicaciones y la última evaluación, en 2014, tuvo unos costes directos de casi 250 millones de libras, pero el montante total podrían ser 1.000 millones de libras. ¿Va a invertir la ANECA algo parecido a lo que cuesta la REF? Y la REF no es perfecta.

Solo las universidades conocen el profesorado que necesitan y a los mejores expertos para seleccionarlo. Las tutelas por la ANECA o por la mayoría de miembros externos, “elegidos por sorteo”, en las comisiones de selección de profesorado son solo fruto de desconfiar pensando que las universidades van a juzgar más por amiguismo que por capacidad. Quizás la desconfianza esté justificada, pero no se puede resolver un problema creando otro mayor.

¿Por qué no se ha evaluado nunca la producción científica de las universidades y se han hecho listas públicas? Las instituciones, pero no las personas, se pueden evaluar bibliométricamente con un coste bajo. Y si esas evaluaciones contaran para el sueldo del profesorado y de todos aquellos que participan en el gobierno de las universidades, el amiguismo les bajaría el sueldo y el amiguismo desaparecería.

La CNEAI desde 2000 o 2005 y la ANECA han sido serios obstáculos para la consolidación de la investigación española. La LOSU mantiene una ANECA evaluadora de investigadores con criterios contrarios a lo que establece la investigación académica. Y sorprende que una ley de universidades desconozca o rechace aquello que tendría que proteger.


*Alonso Rodríguez Navarro es profesor emérito en la Universidad Politécnica de Madrid; fue Coordinador general y responsable del funcionamiento de la CNEAI de 1993 a 1997 y miembro-coordinador de la Comisión que estudió la modificación de la LRU en 1994

Hay 10 comentarios
  • Preocupante panorama para la investigación, sin duda.

    Si he entendido bien, el sistema de acreditación y el exceso de carga burocrática subsiguiente ahogan las posibilidades de la carrera investigadora y comprometen a su vez la calidad de los resultados.

    Creo que ya aludí a esta idea en otro comentario. Mi pregunta sería… por analogía futbolística… ¿Se podría crear una Superliga? Es decir, un Consorcio Privado para la Ayuda a la Investigación (CPAI). Como entidad paralela no sujeta a la tutela competencial del Estado.

    A lo mejor incurro en una aberración jurídica, pero mi humilde propuesta sería algo parecido a los fondos de capital riesgo, con rondas de financiación por tramos evaluables.
    Con inversores interesados en incorporar las innovaciones logradas derivadas de los proyectos de investigación adscritos a dicho capital riesgo.

    En el ámbito público, para mi, la cosa debería funcionar de manera similar, de ahí que el riesgo de subvencionar, sea escalable y evaluable por tramos o periodos, con objetivos más o menos razonables. Así, si en un tramo la investigación no cumple con las expectativas o resultados mínimos propuestos, se interrumpe la ronda. Estableciéndose así un filtro o control de calidad ligado a la inversión. No es tanto mirar la acreditación del investigador, sino dar la oportunidad de desarrollar su proyecto, teniendo en cuenta que un 10% de los proyectos son finalistas o de última ronda, el éxito compensa la inversión global.

    Un cordial saludo.

    • Gracias por la atención a mi entrada. Desde luego se pueden hacer muchas cosas. La división está entre hacer evaluaciones institucionales: fáciles, buenas y baratas. O hacer evaluaciones personales que si son baratas serán injustas en muchos casos y si son justas, se tienen que hacer en cada institución, caso por caso. Evaluar a 1.000 investigadores en una convocatoria (ANECA, CNEAI o la agencia que sea) costaría un dineral.

      La idea de que haya una iniciativa privada es ¡¡¡excelente!!! Si alguien convence a una fundación para que haga una evaluación de las universidades españolas con métodos rigurosos, habrá hecho el mejor servicio a España que uno pueda imaginar.

      Un cordial saludo del autor

  • Gracias por esta detallada reflexión. Lo cierto es que un buen sistema de incentivos, condicionando la financiación de universidades y departamentos a resultados de investigación, pero también flexibilizando los salarios del profesorado para hacerlos mas competitivos, permitiría a España igualarse a otros países en su productividad investigadora.

    Hoy por hoy, es prácticamente imposible atraer investigadores top, y resulta muy difícil atraer talento joven. Los salarios que se pueden pagar son extremadamente bajos comparados no solo con universidades norteamericanas, sino incluso con los sueldos ofertados por competidores del norte de Europa. El talento hay que pagarlo. En caso contrario, no solo resultamos poco atractivos en el mercado de académicos, sino que incluso quienes valoran vivir aquí por razones personales, es probable que tras un periodo de estabilización (tenure track) dirijan sus esfuerzos a otras tareas mas lucrativas (consultoría, docencia suplementarias,..). Pero el sistema internacional es mas caro, requiere una apuesta inversora que la sociedad hasta la fecha no ha decidido acometer. En este contexto, las agencias evaluadoras de distinto tipo, establecen un control de mínimos de calidad; esto tiene su utilidad, pero no resuelve el problema de base.

    • Gracias por la atención. En primer lugar, el componente económico es verdad en algunas áreas, pero no en todas. En negocios, informática avanzada o logística, por mencionar solo tres áreas, el sueldo puede ser un problema, pero quienes pelean en España por una vacuna para la Covid no van a dejar de hacerlo en la universidad o en CSIC porque les ofrezcan más sueldo en otro sitio.

      En cuanto al control de calidad, no hace falta ninguna agencia. ¿Qué agencia tiene que acreditar a los investigadores que contrata el CNIO (Centro Nacional de Investigaciones Oncológicas) o el CNIC (Centro Nacional de Investigaciones Cardiovasculares)? Si la Universidad XXX necesita que los que vaya a seleccionar estén acreditados para evitar que cada catedrático elija a su cónyuge, hijo, pariente o hijo del sastre al que no paga, el problema está en eso y un arreglo transitorio puede ser una agencia de evaluación pero darle carácter permanente con tres leyes de universidades es algo inconcebible.

      Un cordial saludo del autor

  • Una vez aceptamos que las agencias establecen tan solo un control de mínimos, los filtros que apliquen las agencias, deben ser relativamente simples. Desde luego, se han ido refinando a lo largo del tiempo, y en la actualidad no se basan en una aplicación automática de un algoritmo tipo cuartil del JCR de la revista de publicación (para eso no hacen falta comités de evaluación, puede hacerlo software). Ciertamente, dado el elevado volumen de evaluaciones, un criterio automático permite una criba inicial de casos sencillos, pero después las agencias realizan un análisis detallado de los casos cerca del umbral requerido. En ocasiones un artículo publicado en una revista de bajo impacto realiza una contribución importante (aunque sucede raramente), y hay revistas con factor de impacto en el primer cuartil en las que casi todas los artículos tienen una baja calidad, sin apenas aportación (por ejemplo revistas que se aproximan al comportamiento predatorio).

    La evolución de los procesos de evaluación a tenido diversas etapas, en la actualidad el análisis es probablemente mas riguroso que en las primeras evaluaciones de la CNAEI, donde se concedieron tramos con publicaciones que no se correspondían con los niveles estándares de investigación internacional. Pero evidentemente, la evaluación positiva de un proyecto, es simplemente un sello de mínimos, y en general está asociada a incentivos modestos para la actividad investigadora.

    • Gracias por la atención a mi entrada. El control es el control (una tautología muy española) y o se hace o no se hace, como he dicho en un comentario anterior. Y si hace falta es porque algo no funciona bien. Si la agencia hace un control de mínimos y la universidad lo hace de máximos ¿para qué hace falta el de mínimos?

      Con respecto a las evaluaciones, te reproduzco lo que pone un documento de la ANECA de 2020 que me mando un amigo escandalizado, al que recomendé que no volviera por la ANECA (reproducción exacta):

      Baremo de Matemáticas:

      Artículos del primer tercil

      · Artículo en el primer tercil del primer tercil (1T1) del JCR: 9
      · Artículo en el segundo tercil del primer tercil (1T2) del JCR: 8,5
      · Artículo en el tercer tercil del primer tercil ((1T3) del JCR: 8

      Y así sucesivamente con el segundo y el tercer tercil

      Con respecto a las revistas, todas las revistas publican trabajos muy citados y poco citados, la distribución es normal logarítmica y la media deja a la izquierda al 70% de las publicaciones.

      Finalmente, en los primeros años de la CNEAI hubo diferencias entre áreas, pero eso es lógico porque lo que se intentaba era estimular a que la mayor parte de profesores de la universidad se incorporaran a publicar en revistas con un riguroso control de calidad. En los años 70 y 80 no era lo mismo hacer una tesis en un departamento donde todo el mundo publicaba en revistas prestigiosas que en uno donde no se había hecho nunca.

      Saludos del autor

  • Estoy en desacuerdo con este artículo.

    La ANECA, con todas sus imperfecciones, es el único contrapeso al clientelismo en la universidad. Podríamos tener universidades con financiación vinculada a objetivos, pero eso sería un mundo ideal del que estamos muy lejos. Sin ese contrapeso, los incentivos internos son a taparse fallos unos a otros y repartir de acuerdo al poder político de cada grupo de investigación: no hay absolutamente nada que incentive a la universidad a hacer lo correcto.

    La vía más cercana para mejorar es perfeccionar los métodos de la ANECA. En efecto, deberían leerse los trabajos. La investigación debe contar por la calidad.

  • Gracias por la atención a mi entrada. En dos comentarios anteriores ya he respondido a comentarios parecidos. La idea es muy sencilla: en España sabemos hacer las cosas bien y pongo dos ejemplos ejemplos: el CNIO y el CNIC, pero podría poner muchos más. Si el problema es que las universidades no seleccionan bien, eso es lo que hay que corregir y si el problema es el clientelismo, habrá que corregirlo. La ANECA podría ser una solución transitoria, pero no permanente.

    Ni la ANECA ni la CNEAI pueden perfeccionar sus métodos sin cambiar su propia esencia. Para evaluar miles de expedientes leyendo los trabajos hay que nombrar a miles de expertos. La ciencia es muy complicada y ningún candidato merece ser evaluado por alguien que no conozca bien lo que hace.

    Un saludo del autor

  • ¿Qué opináis de la figura del profesor permanente laboral que contempla el último borrador de la ley? ¿Puede servir para resolver problemas?

  • Gracias por el comentario. No entro a evaluar en esos niveles, de momento estoy en el diagnóstico. Al margen de esto, la comparación del modelo laboral frente al de funcionario no es fácil. Las instituciones como el CNIO o CENIC, que he mencionado en las contestaciones a comentarios previos, usan el modelo laboral, pero también hay institutos en el CSIC que responden al modelo funcionario y son buenos institutos. Los que han desarrollado las vacunas contra la Covid en el CSIC son funcionarios y algunos jubilados.

    En resumen, puede ser una idea razonable, pero no creo que modifique la situación. Los problemas están en otros niveles.

    Saludos

Los comentarios están cerrados.