Estas últimas semanas las revelaciones de Wikileaks sobre los cables del Departamento de Estado americano han acaparado el interés de la opinión pública mundial de una manera inusitada.
Aquí no voy a juzgar ni los aspectos jurídicos ni morales de estas filtraciones: otros saben mucho más que yo de esos temas y sus comentarios serán, a buen seguro, más informativos y esclarecedores que los míos. Mi objetivo es mucho más modesto: intentar pensar, de manera analítica y empleando algunos de los instrumentos de la teoría económica, acerca de los posibles efectos de Wikileaks.
Wikileaks busca hacer público un conjunto de documentos e informaciones que normalmente no estaría al alcance de la mayoría de nosotros y con ello, obligar a los gobiernos (y potencialmente otras instituciones como empresas privadas) a comportarse de una manera distinta. Según la página web de Wikileaks:
“Publishing improves transparency, and this transparency creates a better society for all people. Better scrutiny leads to reduced corruption and stronger democracies in all society’s institutions, including government, corporations and other organisations. A healthy, vibrant and inquisitive journalistic media plays a vital role in achieving these goals. We are part of that media.”
¿Se conseguirán estos resultados? ¿Es cierto que una mayor transparencia es siempre mejor para la sociedad? Desafortunadamente, existen motivos para sospechar que no siempre es cierto que una mayor transparencia ayude a incrementar el bienestar. Para explicar estas dudas, voy a comenzar con dos ejemplos y luego pasaré a comentar dos trabajos de economistas que intentan formalizarlos.
El primer ejemplo es el de los cables del Departamento de Estado americano. Una mayor transparencia en estos cables llevará, casi de manera segura, a que la política exterior de EE.UU. opere de manera distinta pero sin que sus objetivos o prioridades cambien. Ya ha sido anunciado, de entrada, que el nivel de confidencialidad del departamento va a incrementarse y que mucha menos gente va a tener acceso a la información, con lo cual en realidad terminaremos reduciendo la transparencia, no incrementándola. Pero lo más probable es que la verdadera consecuencia sea que, mucho de lo que anteriormente se transmitía por cable, comience a ser transmitido de viva voz (por ejemplo, por telefonía en internet codificada) y con ello lo único que consigamos es que los historiadores del futuro nunca tengan acceso a esos cables.
El segundo ejemplo es el de las cartas de evaluación de profesores. En EE.UU., antes de una promoción interna o un fichaje externo, los departamentos de economía solicitan cartas de evaluación a un número grande de académicos bien reconocidos en la profesión (por ejemplo, muchos departamentos piden 12 cartas o así). Yo he tenido que escribir muchas de ellas (la semana pasada, sin ir más lejos, dos) y leer incluso más. Un problema con estas cartas es que, a menudo, son leídas a nivel de la universidad por miembros de otros departamentos y por personas en rectorado que en la mayoría de las ocasiones saben poco o nada de economía y aún menos de los mores propios de la profesión. Es más, las cartas pueden hacerse públicas si, por ejemplo, el afectado considera que se ha producido una discriminación de género o racial. Esto hace que, cuando uno escribe una carta, se exprese de manera distinta que como lo haría si esa misiva fuera leída, únicamente, por el director del departamento. Básicamente, las cosas nunca se dicen de una manera tan clara y honesta como se dirían en otro caso sino que muchas veces solo se insinúan (aquello de que a buen entendedor…) y al final, el proceso completo de evaluación sufre, precisamente por la “transparencia” (aunque hay que reconocer que existen otros argumentos a favor de rectorado leyendo las cartas).
¿Podemos formalizar estos ejemplos? A la cabeza me vienen dos trabajos directamente relacionados con este tema (por cierto, ambos relacionados con la discusión de ataques especulativos que hice hace unas semanas).
El primero es de Chris Edmond, un profesor de la Universidad de Melbourne. Chris ataca el problema desde una posición más general: la evaluación, en general, de los efectos de internet (y otras revoluciones tecnológicas) sobre los regímenes autoritarios.
La idea fundamental de este trabajo es que un régimen autoritario manipula la información por medio de acciones costosas pero escondidas (por ejemplo, comprando a un periodista o como hace China, pagando a tipos que se van a los blogs críticos con China y dejan comentarios positivos sobre su gobierno) con el objetivo de cambiar la distribución de señales que reciben los agentes acerca de las posibilidades de supervivencia del gobierno. Los agentes entienden este comportamiento del gobierno y ajustas sus creencias de manera acorde. El problema surge porque los agentes están imperfectamente informados acerca de la situación del régimen (¿es el gobierno débil?) pero también de la cantidad de manipulación informativa (¿Hay mucha o muchísima?). El resultado es que, de media, los agentes pueden no ajustar completamente la manipulación existente, lo cual era el objetivo perseguido por el gobierno desde el primer momento.
Ahora imaginémonos que la calidad de la información que reciben los agentes sube, por ejemplo con la llegada de Wikileaks, con lo cual existe menos dispersión de creencias acerca de la situación del régimen y del nivel de manipulación. Lo interesante es que, cuando la información se hace más precisa, en el modelo de Chris es más difícil derrocar al gobierno. La intuición es que el régimen puede aprovecharse de la mejor información para complicar la coordinación de los opositores. En concreto, el gobierno tiene ahora un incentivo a incrementar el nivel de manipulación pues los agentes recibirán menos ruido tanto la verdadera fortaleza del régimen como la manipulación y esto hace que, en el margen, los agentes que estaban casi indiferentes entre ser opositores y no serlo, prefieran pasarse al campo de los conformistas.
Déjenme que les ponga un ejemplo (donde me voy a saltar un par de detalles y “forzar” un poquito la explicación para ser más clara en este foro). Imagínense que hay tanto ruido que un 30% de los agentes creen que el gobierno puede ser derribado independientemente del nivel de manipulación. Si solo necesitamos un 33% de población en la oposición para derrocar al régimen, el coste para el gobierno de impedir que ni un 3% de la población se pase a la oposición es tan alto, que no se meterá en tal misión y el régimen caerá. Si, al mejorar la calidad de la información, pasamos a un 15% de la población opositora independientemente del nivel de manipulación, ahora el gobierno solo tiene que impedir que el 18% de la población se haga opositora, lo cual es mucho más fácil.
En el caso de Wikileaks, imaginémonos que mañana se publican detalles del extensísimo nivel de manipulación existente en China. La paradoja es que, lejos de comprometer al régimen, esto descorazonará a muchos disidentes, que verán su misión más ardua que nunca, y repercutirá a favor del régimen.
El segundo trabajo es de Stephen Morris. La idea es la siguiente. Imagínense que un político le pregunta a un economista si cree que las políticas de acción afirmativa (es decir, de “discriminación positiva a favor de minorías” como la que tienen muchas universidades americanas) son o no efectivas. El economista, después de haberlo pensado mucho y estudiado la evidencia empírica, ha llegado a la conclusión de que no lo son (esto es solo un ejemplo, no una afirmación de la validez de estas políticas, así que por favor, no me pongan comentarios sobre la “discriminación positiva” porque se saldrían del asunto). El problema es que uno puede decir que está en contra de la acción afirmativa por convencimiento de su inutilidad o por ser un racista. Condicional en la recomendación “la acción afirmativa es una mala idea”, el político tendrá una distribución acerca de si el economista ha llegado de manera objetiva a esa conclusión o de si lo ha hecho por racismo. Si el economista está muy preocupado por ser tildado de racista (el político no volverá nunca a preguntarle nada si este es el caso), no dirá la verdad, sino que mentirá (así no hay peligro), con lo cual importante información (sus conclusiones basadas en la evidencia y en sus razonamientos) se perderán.
Imaginemos ahora que además del político, el público en general recibe el informe sobre la acción afirmativa, por ejemplo en un Wikileaks (o simplemente, que existe una probabilidad de que haya un Wikileaks al respecto). Si el público tiene una percepción más sesgada que la del político (en muchos países, existe muchísima desconfianza hacia los verdaderos motivos de los “expertos”, sean estos sobre la gripe, el cambio climático o la reforma de las pensiones, o simplemente es más fácil caer en el “titular” que en el estudio detallado del informe), el economista tendrá aún más miedo de ser tildado de racista (por ejemplo, por no tener que sufrir a estudiantes tirándole huevos al coche o ser insultado en mil columnas de periódico) y con ello, un mayor incentivo a mentir. Y cualquiera que trabaje en las ciencias sociales sabe que hay temas espinosos donde meterse solo le crean a uno problemas, así que lejos de ser una posibilidad abstracta, el modelo de Morris es una realidad concreta.
Debe quedar claro que estos dos trabajos no defienden que haya que reducir la transparencia y que existen muchos otros motivos para incrementarla. Lo único que quiero enfatizar es que existen razones para ser escépticos acerca de los beneficios sociales de Wikileaks. En otras palabras, no es obvio que Wikileaks sea una buena idea, puede que sí lo sea, pero puede que no. Cualquier valoración moral o jurídica haría bien en, al menos, considerar estas dos posibilidades.