- Nada es Gratis - https://nadaesgratis.es -

Estudiar la incertidumbre para convivir con ella (1)

Entrada conjunta con Eva Ferreira.

Presentamos un artículo dividido en dos partes. En esta primera ofrecemos una breve historia contextualizada de la estadística y en la segunda, que se publicará mañana, repasaremos las interpretaciones del p-valor, que también dependen del contexto. Pensamos que de la historia se puede aprender a evitar abusos y a matizar adecuadamente las conclusiones del análisis estadístico.

Fortuna y SapientiaCuando pensamos en personas pioneras en campos del saber nos vienen a la cabeza nombres como Aristóteles o Platón y, más concretamente, en matemáticas, Hipatia de Alejandría o Pitágoras. El saber y el conocimiento se han identificado hasta tiempos muy recientes con la certeza, el determinismo y el conocimiento de fenómenos con seguridad. Así, la representación de la diosa Sapientia es una figura orgullosa, llena de luz, de claridad. En cambio, la diosa Fortuna representa la oscuridad, lo desconocido, las tinieblas. Su imagen es la de una diosa ciega, que maneja una rueda de azar cuyo resultado es totalmente desconocido para el ser humano.

Desde los filósofos presocráticos el conocimiento científico ha ido avanzado en todas las grandes ramas del saber como la Astronomía, las Matemáticas, la Botánica o la Física. Sin embargo, a pesar de los grandes avances en Algebra, Geometría y Análisis, las leyes de la probabilidad eran unas totales desconocidas para la ciencia. Hasta el siglo XVII no comienza el estudio de la probabilidad como disciplina digna de estudio científico. Es en Francia y como consecuencia de varios retos enunciados por el Caballero de Meré, gran aficionado a los juegos de azar, a Pascal y a Fermat, cuyos logros matemáticos eran y son célebres. Uno de ellos era el siguiente: dos jugadores apuestan iguales cantidades a un determinado juego que se dirime mediante rondas que terminan cuando uno de los jugadores venza un cierto número de veces. Por algún motivo, después de algunas rondas el juego ha de interrumpirse y los jugadores deben repartirse el dinero apostado. ¿Cuál es la más forma justa de repartirse ese dinero? Pascal y Fermat aportan la solución y con ella nace el concepto de valor esperado.

Así, los primeros conceptos en probabilidad se desarrollan en Francia, y durante el siglo siguiente aparecen en la Europa continental matemáticos como Laplace, Bernoulli o Gauss, cuyas contribuciones al desarrollo de la probabilidad y estadística son de sobra conocidas. Sin embargo, tanto en los siglos XVII como XVIII, la forma de entender la utilidad de la estadística era, aunque suene contradictorio, una forma determinista.

Estamos en la época posterior a la Revolución Francesa, y los estudiosos no son impermeables a la forma de enfocar los cambios sociales. Así, la idea de la igualdad deriva también en la idea del ciudadano modelo, del individuo representativo, lo que lleva a entender la estadística (proveniente de la palabra estado) como un instrumento que nos lleve a manejar grandes cantidades de datos y extraer de ellos patrones medios. Lo que se aleja de estos patrones son desviaciones, errores.

Sin embargo, en la Gran Bretaña, el pensamiento social es diferente. La idea de individuo y de libertad está más arraigada y, de nuevo, esto influye en los enfoques del pensamiento científico. Por ello, no es casual que el primer gran avance de las técnicas de estadística se haya dado allí. Lejos de entender las desviaciones de la media como un error, se entiende que, no sólo el promedio, sino también la ley de la diversidad es importante. La investigación de científicos como Brown o Maxwell afloran la necesidad de incorporar la incertidumbre, no como un error, si no como parte del modelo.

En la primera mitad del siglo XX, matemáticos como Fisher, Pearson padre, Pearson hijo y Neyman ponen las bases de lo que habrá de ser la inferencia estadística. Se define el p-valor y se enuncia el lema tan utilizado para obtener regiones críticas en los contrastes. La idea de Fisher es utilizar el p-valor como un valor de ayuda en la interpretación de los resultados, pero no de forma estricta en una regla de toma de decisión (Neyman-Pearson). Esta diferencia genera debates entre ellos, que siguen en nuestros días.

Esta es muy resumida, la breve historia de la Estadística. Sin embargo, desde la segunda mitad del siglo XX hasta nuestros días, el desarrollo de la axiomática y de la teoría de la medida, la disponibilidad de grandes bases de datos y la capacidad de simular muchísimas réplicas de los modelos estocásticos explica en parte que un porcentaje mayoritario de artículos científicos tengan resultados basados en técnicas estadísticas y conclusiones basadas en algún contraste de hipótesis. Por desgracia, en no pocas ocasiones los análisis se realizan de forma mecánica y sin una conexión clara entre la pregunta que se quiere contestar y el análisis estadístico realizado.

Es por ello que en las últimas décadas hay bastante literatura relacionada con el uso y abuso de la estadística. A modo de ejemplo, aquí y aquí se hacen sendos estudios sobre publicaciones en Medicina y Economía respectivamente. En 2013 la revista Nature publica las 20 reglas para interpretar un artículo científico (aquí), de las cuales casi todas tienen que ver con el uso de los métodos estadísticos.

Conviene recordar que la distribución de la diversidad es importante, y que sustentar conclusiones generales en la significatividad de un determinado parámetro es altamente arriesgado. En primer lugar planteemos la pregunta y, después, elijamos las técnicas estadísticas adecuadas.