Desigualdad de oportunidades educativas: Medición y resultados empíricos

admin 1 comentario

 

Por David Martinez de Lafuente y Ainhoa Vega-Bayo

En las últimas décadas, hemos sido testigos de un notable aumento en la desigualdad de las economías industrializadas. Esta creciente disparidad económica se ha convertido en una preocupación central, tanto en las ciencias sociales como en el debate público. No se trata únicamente de que una mayor desigualdad pueda tener efectos adversos en la eficiencia económica y la equidad. De una manera más fundamental, también conlleva plantearse aspectos sobre lo justo o injusto que resulta el proceso de distribución de la riqueza económica. En este debate, es común asumir que las personas alcanzan el éxito económico tras haber superado obstáculos gracias a su esfuerzo y habilidades, lo que lleva a la creencia de que aquellos que están rezagados son merecedores de su situación. Esto nos lleva a una pregunta fundamental: ¿en qué medida reflejan las desigualdades un proceso éticamente justo?

El principio de igualdad de oportunidades (IOp) se ha convertido en uno de los criterios más populares para evaluar si la desigualdad es o no éticamente aceptable. Básicamente, el IOp se refiere a la idea de que todos debemos tener las mismas oportunidades para competir por puestos de influencia y éxito económico en igualdad de condiciones. A pesar de que existen diversas interpretaciones de lo que esto implica (aquí), todas ellas comparten una premisa común: la necesidad de distinguir las desigualdades originadas por factores que controlamos (nuestra “responsabilidad individual”) de aquellas causadas por circunstancias que no elegimos. En esencia, al evaluar la ética de la desigualdad, buscamos separar la influencia de las circunstancias “heredadas” de los factores sobre los que tenemos autonomía y poder de decisión. Esto nos conduce a una tarea crucial en las ciencias sociales: cuantificar empíricamente la desigualdad de oportunidades para examinar el aspecto ético tras la desigualdad.

Recientemente, desde la Fundación ISEAK y COTEC, hemos lanzado un informe que analiza la capacidad de 35 países (incluido España) para promover una distribución equitativa de oportunidades de aprendizaje. El informe se centra en medir la movilidad social y la desigualdad de oportunidades utilizando las pruebas matemáticas de PISA 2018. En esta entrada, aprovechando la reciente publicación del informe, nos gustaría explicar algunos de los desafíos metodológicos para cuantificar el nivel de desigualdad de oportunidades y describir cómo las técnicas de Machine Learning pueden ser de utilidad en esta tarea.

Estimar la desigualdad de oportunidades: Aproximación tradicional y limitaciones

Analizar la desigualdad de oportunidades es un proceso más complejo que el de estudiar la desigualdad de los resultados educativos. Esto se debe a la necesidad de cuantificar qué parte de la desigualdad se debe a las circunstancias que están fuera del control individual. En otras palabras, lo verdaderamente crucial no son las diferencias en los resultados educativos en sí mismos, sino la desigualdad generada por la influencia de las circunstancias de los estudiantes.

Para realizar esta tarea, la desigualdad de oportunidades se mide en dos etapas. En la primera fase, típicamente se utiliza una regresión OLS que relaciona una métrica de oportunidades (en nuestro caso, los resultados en matemáticas) con un vector de circunstancias: sexo y mes de nacimiento del estudiante, su país de origen y el de sus progenitores, ocupación, nivel educativo y estatus ocupacional de padre/madre, etc. Una vez completada esta regresión, se utilizan sus resultados para predecir el resultado esperado en matemáticas de cada alumno en función de sus circunstancias. En la segunda fase, se cuantifica la DOp mediante una división entre la desigualdad en las predicciones y la observada en los resultados reales de los alumnos.

Dado que no es posible observar todas las circunstancias, las estimaciones de DOp tienden a estar subestimadas. Más allá de esta debilidad insalvable, ¿qué otras limitaciones presenta el enfoque convencional? Fundamentalmente, que la regresión asume una relación de las circunstancias y obvia el impacto de las interacciones entre las circunstancias. Aunque siempre es posible incorporar más interacciones y asociaciones no lineales, en la práctica, estas decisiones suelen tomarse de manera discrecional, lo que puede generar sesgos tanto al alza (“overfitting”) como a la baja (“underfitting”) de la DOp real (FIGURA 1).

FIGURA 1 – Ilustración de “overfitting” vs “underfitting”

Machine Learning y sus ventajas

El Machine Learning (ML) ha ganado popularidad en el campo de la Economía en los últimos años. A pesar de que posiblemente exista un excesivo entusiasmo sobre su utilidad, es innegable que se están produciendo avances significativos en la comprensión de cómo estas técnicas pueden ser útiles en el ámbito de la investigación económica. Generalmente, el ML se refiere a un conjunto de técnicas y algoritmos de aprendizaje automático diseñados para realizar tareas de predicción. El éxito del ML radica, en gran medida, en su capacidad para adaptarse y descubrir estructuras complejas y flexibles, sin necesidad de especificarlas de antemano, mitigando además el riesgo de “overfitting” y “underfitting”.

Motivados por esta ventaja, adoptamos técnicas de ML en lugar de utilizar la regresión en la primera fase de estimación de la DOp. Desde una perspectiva teórica, esto nos permite utilizar un enfoque basado en datos para (1) calcular la DOp de manera más precisa y (2) considerar la posible influencia de las interacciones entre circunstancias. Aunque la aplicación del ML al ámbito de la DOp es todavía relativamente limitada, cada vez son más los autores que están explorando su potencialidad en el ámbito de la riqueza, los ingresos o la salud. En nuestro estudio, contribuimos a esta literatura al centrarnos en el ámbito de la educación y al experimentar con un conjunto más amplio de algoritmos de predicción.

Resultados

Como parte de nuestro análisis, hemos llevado a cabo una comparación entre los resultados obtenidos mediante varias técnicas de ML y la regresión por OLS. La figura a continuación muestra, para cada país, el resultado de la estimación de DOp mediante OLS y el mejor algoritmo de ML en cada país. Los países por encima de la línea de 45º (25 de los 35 analizados) tienen una mayor DOp estimada utilizando ML que con OLS. Además, hay una clara ventaja a favor del Boosting entre los diferentes algoritmos de ML empleados, mostrando su capacidad para mejorar la precisión de las estimaciones.

En contraste, observamos que los resultados mediante OLS tienden a ofrecer estimaciones más bajas de la DOp, lo que sugiere una infraestimación por parte del enfoque convencional. Aunque las diferencias entre la técnica tradicional y las de ML no son abrumadoras (de unos 2,5 puntos de media), sí son lo suficientemente significativas como para alterar el ranking de países en DOp, como se ilustra en la figura a continuación. De media, los países se mueven 2,9 posiciones en el ranking. Con todo, se observan aumentos sustanciales para algunos países, como Emiratos Árabes Unidos (que pasa de la sexta a la primera posición) e Israel (de la octava a la tercera posición). Estos cambios significativos sugieren que el enfoque de ML puede revelar algunos patrones interesantes en la equidad educativa en algunos contextos específicos.

Una de las desventajas que tienen algunos de los algoritmos de ML frente a OLS es que son una “caja negra”, lo que dificulta la interpretación de los resultados y el determinar el peso de cada una de las circunstancias en la predicción final. Con el propósito de abordar este aspecto, utilizamos la técnica explicativa de ML conocida como Break-Down (BD). El BD nos permite, de forma intuitiva, responder precisamente a esa pregunta: cuál es el peso relativo de cada circunstancia en la predicción final para un estudiante “tipo”, en este caso, de cada uno de los quintiles extremos. Más concretamente, el BD descompone la contribución de cada circunstancia en la predicción final del algoritmo de ML calculando el cambio en el resultado esperado a medida que se modifica cada una de las circunstancias, manteniendo constantes el resto. Según nuestros resultados, la cantidad de libros en el hogar constituye la circunstancia más determinante para ambos perfiles de estudiantes: disponer únicamente de entre 0-10 libros en casa disminuye el resultado esperado en matemáticas en 51 puntos PISA (estudiante tipo Q1), mientras que tener más de 200 libros lo aumenta en 22,7 puntos (estudiante tipo Q5). Es importante recalcar que el número de libros disponible en casa captura una serie de características inobservables de la familia (cierto “capital cultural”) y que, por tanto, este resultado, que además está muy en línea con la literatura, no debe interpretarse en clave causal.

Conclusiones 

En resumen, tras observar un aumento de la desigualdad en las economías industrializadas en las últimas décadas, surge la necesidad de evaluar la ética del proceso económico de distribución de riqueza económica. El principio de igualdad de oportunidades es posiblemente el criterio más popular para abordar esta cuestión al tomar en cuenta una intuición moral mayoritaria: la necesidad de separar desigualdades generadas por la responsabilidad individual de aquellas generadas por circunstancias no elegidas. Desde las ciencias sociales se han desarrollado metodologías para cuantificar empíricamente este proceso a través de la regresión. Nuestros resultados revelan que las técnicas de ML pueden superar a este enfoque tradicional en la estimación de la DOp en el ámbito educativo. En particular, encontramos que los métodos de ML proporcionan estimaciones de la DOp más altas, lo que sugiere que estos métodos pueden proporcionar una visión más detallada y precisa de la desigualdad.

 

Hay 1 comentarios
  • Es un trabajo muy interesante. Solo un comentario, conviene no confundir la expresión "machine learning" que es una nomenclatura surgida en la literatura computacional, y que esencialmente es cajón de sastre donde caben muchas técnicas estadísticas, tanto parramétricas como no paramétricas, con la estimación no paramétrica de la densidad o la regresión y las correspondientes decisiones sobre el grado de suavizado (el overfitting y underfitting). Podemos encontrar muchos estimadores noparamétricos (como los kernel, KNN, o series orthogonale) mucho mas antiguos y que no forman parte del machine learning. Otros estimadores no paramétricos se incluyen en ambas literaturas, como las redes neuronales. Mi comentario solo enfatiza que tiene poco sentido comparar un modelo de regresión lineal (que normalmente estima un predictor lineal óptimo) y un "algoritmo" machine learning. SI la relación verdadera es lineal, OLS es mejor, si es no lineal un modelo paramétrico no-lineal puede ser mejor, si la relación es no lineal y con una forma complicada entonces es preferible un estimador no paramétrico siempre y cuando la muestra sea grande, y el adjetivo "grande" aumenta exponencialmente con la dimension del modelo. Por eso una red neuronal profunda, como las que usa Chat GPT con una dimension de varios billones de parámetros necesita una muestra con varios terabites, y entrenarla (estimarla) cuesta un mes de trabajo de muchas CU con un coste de varios millones de dólares.

Los comentarios están cerrados.