El papel de la percepción social en la implantación de la Inteligencia Artificial Generativa (I)

El cambio tecnológico siempre ha generado debates sobre su impacto en el empleo. La aparición de la Inteligencia Artificial (IA) ha ampliado estas discusiones, especialmente con el desarrollo reciente de la IA Generativa (IAG), extensión de los tradicionales modelos de Machine Learning/Deep Learning y que a diferencia de las anteriores tiene la capacidad de generar contenido original y creativo. Esto ha cambiado el panorama futuro del mercado laboral, aumentando la preocupación por la sustitución de empleo, incluso entre aquellos que anteriormente se consideraban no automatizables.

Los avances en IAG

¿Qué entendemos por la IAG y por qué supone una nueva disrupción sobre el mercado de trabajo? Partamos del hecho que conocemos a ChatGpt, o hemos sido testigos de los logros de Nora. Ambas son IAG, modelos de IA que, por su capacidad, tienen la posibilidad de generar contenido original de manera autónoma, empleando modelos como las Redes Generativas Adversarias (GANs) (aquí) y los Autoencoders Variacionales (VAEs) (aquí). Este avance marca un hito significativo en la IA al abordar problemas complejos de manera holística. La IAG busca emular la inteligencia humana en su amplitud y complejidad, lo que implica no solo comprender y generar contenido, sino también razonar, aprender continuamente y adaptarse de manera flexible a nuevas situaciones

Así, a medida que la IAG se ha vuelto más sofisticada, es seguro que iremos asistiendo a cambios en la demanda de habilidades laborales y a nuevas exigencias para la oferta. Esto puede resultar en la sustitución de trabajadores en roles tradicionalmente asociados con tareas cognitivas, así como en la reconfiguración de las responsabilidades laborales y la necesidad de una actualización constante de habilidades para adaptarse a un entorno laboral en constante evolución. Estos cambios, por lo tanto, dependen del grado de exposición de las tareas de una ocupación a la IAG.

La exposición a la IA(G)

En consecuencia, estos avances en la IA-IAG (en adelante IA) han desencadenado un intenso debate sobre la posibilidad de que llegue más lejos de la sustitución del empleo por robots y software. En este contexto, el análisis tradicional del efecto del cambio tecnológico en el empleo, con la Skill Bias Technological Change (SBTC) como principal hipótesis de partida, se ha trasladado al estudio sobre cómo la IA afecta a ciertos empleos y cómo reaccionan ante ello. La exposición que ciertas tareas u ocupaciones puedan tener a la IA puede definir el grado de sustitución respecto a estas nuevas tecnologías que los trabajadores puedan tener.

Por esta razón, resulta crucial, para adoptar medidas preventivas, conocer qué ocupaciones y/o tareas pueden estar más o menos expuestas a la IA. Definiendo exposición como la probabilidad de que las tareas de una ocupación puedan ser sustituidas o claramente influenciadas por esta tecnología, diversos estudios ya avanzan que ciertas ocupaciones, trabajadores y sectores estarán más expuestos a la IA que otros, patrones que variarán posiblemente influenciados por otras dimensiones como son el género, la etnia, la edad o el nivel educativo.

En este ámbito de análisis, resulta relevante mencionar trabajos como los de Felten, Raj y Seamans (aquí y aquí) donde se trabaja con la definición de "exposición" a la IA como el grado de superposición entre las aplicaciones de IA y las habilidades humanas requeridas en cada ocupación. A partir de aquí proponen medirla calculando lo que llaman AIOE (artificial intelligence ocupational exposition) a partir de las respuestas a encuestas a "trabajadores independientes" del servicio web Mechanical Turk de Amazon. Con ello y su cruce para clasificaciones de ocupaciones y habilidades laborales pueden usar dicho indicador para encontrar evidencia de a qué tareas y ocupaciones la IA es más probable que afecte.

A partir de aquí han sido varios los trabajos que han ampliado estos análisis basados en la medición de la exposición a la IA. Por ejemplo, el Pew Research Center (aquí), analiza el nivel de la exposición a la IA de los trabajadores de EE.UU. Discriminando por una amplia variedad de caracterizaras de los mismos. Albanesi y coautores (aquí) extienden este análisis a 16 países europeos durante 2011-2019, encontrando una asociación positiva entre la automatización impulsada por la IA y cambios en las cuotas de empleo, especialmente en ocupaciones con una mayor proporción de trabajadores jóvenes y cualificados. Mientras, Guarascio y coautores (aquí) analizan el impacto de la exposición a la IA en el empleo en regiones europeas entre 2011 y 2018, encontrando que una mayor exposición a la IA tiene un efecto positivo en el empleo regional, sugiriendo, por ello, una complementariedad entre IA y empleo. En estos dos últimos trabajos hay referencias a la exposición en España, con la imagen de que nuestro país está por debajo de la media de la UE en exposición a la IA y al software, a pesar de experimentar un impacto positivo en el empleo.

El papel de la percepción sobre la IA

Sin embargo, la visión tradicional del impacto de una tecnología heredada de los trabajos de décadas anteriores debe ser matizada cuando hablamos de IA y en especial de la IAG. Dada la posibilidad de que la IAG se ocupe de tareas que están muy próximas al consumidor donde el trato con el ser humano es más estrecho y a veces fundamental, especialmente en ciertos servicios, implica una obligada comprensión sobre cómo los cambios hacia estas nuevas tecnologías pueden estar condicionados por la percepción que exista sobre la IA.

Así pues, la percepción social de la IA va a jugar un papel crucial en la adopción y la implementación de esta. A menudo, esta percepción se ve moldeada por narrativas mediáticas que resaltan los posibles riesgos y peligros asociados con la IA, lo que puede generar desconfianza y escepticismo en el público en general. Esta desconfianza puede llevar a demandas de una validación humana para ciertas tareas realizadas por IA, especialmente aquellas que involucran decisiones críticas o éticamente sensibles. De aquí cuelga también las derivadas legales que se susciten y su implementación (ver el AI Act aprobado recientemente en el parlamento europeo).

En general, y a pesar de los avances tecnológicos y los evidentes beneficios que la IA puede aportar en términos de eficiencia y precisión, persiste la idea de que los humanos son mejores para tomar decisiones en contextos complejos. Esta percepción limitada podría frenar temporalmente el progreso y la adopción de la IA en diversas áreas, desde la atención médica hasta la conducción autónoma, al restringir su autonomía y promover una dependencia de la validación humana. En este contexto, la narrativa social sobre la IA cobra importancia en tanto en cuanto puede imponer límites a la implementación de la IA o simplemente obligar a su diseño transparente (aquí).

Por ejemplo, Brauner y coautores examinan, en un estudio con 122 participantes en Alemania, cómo la percepción pública de la IA en distintos sectores está moldeada por las expectativas sobre sus beneficios, así como por las incertidumbres y temores asociados (aquí). La creciente presencia de la IA en la sociedad destaca la importancia de comprender cómo estas percepciones pueden influir en su adopción y aceptación.

Bajo esta premisa, Carlo Pizzinelli, Augustus Panton, Marina M. Tavares y Mauro Cazzaniga, en un trabajo publicado en el Fondo Monetario Internacional (FMI), desarrollaron una medida de Exposición Ocupacional a la Inteligencia Artificial ajustada por complementariedad (C-AIOE), donde la exposición de las ocupaciones a la IAG se ve mitigada por su potencial de complementariedad (aquí). A grandes rasgos, los autores de este estudio realizan un ajuste a la metodología de AIOE de Felten et al. para capturar el potencial de complementar o sustituir el trabajo en cada ocupación. El análisis perfecciona este enfoque al complementarlo con el índice de potencial complementariedad de la IA FRS21. Este índice utiliza información sobre el contexto social, ético y físico de las ocupaciones, junto con los niveles de habilidad requeridos, por lo que, en cierta medida, enlaza con la percepción antes comentada. Una vez hecho esto, aplicando tanto la medida original como las medidas ajustadas por complementariedad a microdatos de la fuerza laboral (utilizando ISCO-08) de 6 países, revisaron el impacto que la exposición a la IA podría existir condicionada por la complementariedad.

Así, IA y su uso en tareas determinadas puede estar influenciado por la percepción social hacia esta. PIzzinelli y coautores definen la complementariedad como el potencial de que la IA complemente las tareas y la toma de decisiones de los trabajadores humanos en ciertas ocupaciones, en lugar de reemplazarlos completamente, y que suele ser más probable en ocupaciones como, por ejemplo, cirujanos, abogados y jueces. Así pues, esta complementariedad está claramente influenciada por las preferencias sociales y las alternativas disponibles y que jugarán sin duda un papel importante en determinar qué tan aceptable podrá ser delegar tareas a sistemas de IA no supervisados en diferentes contextos. Esto quiere decir, por lo tanto, que el contexto social y económico es importante para conocer el impacto que la exposición a la IA tendrá en diversas ocupaciones.

Por ejemplo, en países de bajos ingresos donde hay escasez de médicos capacitados, las consultas médicas respaldadas por IA podrían ser vistas como una opción atractiva, mostrando una mayor aceptación social de la IA en ese contexto que en países desarrollados y de altos ingresos donde la disponibilidad del factor humano es mayor. Así pues, la implantación de la IA, su exposición y capacidad de sustituir (complementar) en la realización de las tareas no solo puede venir determinada por su capacidad de competir con el factor humanos desde un punto de vista económico, sino también por la percepción social que se tenga de esta posible sustitución y que a su vez puede venir influenciada por el contexto socioeconómico donde se llevan a cabo las actividades.

La figura que acompaña al texto muestra, a partir de los datos de Pizzinelli y coautores, ordenado de mayor a menor diferencia, cómo la complementariedad (percepción) puede afectar a la exposición a la IA. Así, los trabajadores para los que dicha percepción puede transformar la exposición en algo menos parecido a una sustitución son los profesionales de la salud. La exposición de ejecutivos y directores, gerentes o profesionales de la enseñanza también se ve claramente afectada por la percepción. En el lado contrario encontramos limpiadores, oficinistas o empleos más “manuales”.

Conclusión

El avance de la Inteligencia Artificial (IA) ha reabierto debates sobre su impacto en el empleo, especialmente con la llegada de la IA Generativa (IAG), capaz de generar contenido original y creativo. Este desarrollo ha generado preocupaciones sobre la posible sustitución de empleos, incluso en roles antes considerados no automatizables.

Los estudios existentes han abordado diversas cuestiones, incluyendo la medición de la exposición de ciertas ocupaciones a esta tecnología para evaluar su impacto en el empleo. Sin embargo, la percepción pública de la IAG desempeña un papel crucial en su adopción y aceptación, lo que afecta a esta exposición. A pesar de los beneficios en eficiencia y precisión que ofrece, persiste la noción de que los humanos son mejores para tomar decisiones en contextos complejos, lo que puede limitar su implementación o que esta entre como asistente, fomentando una dependencia de la validación humana.

En una segunda parte de esta entrada, se presentarán resultados de un ejercicio realizado para la economía española, utilizando datos de una encuesta sobre la confianza en la IA. En dicha entrada se mostrará el posible impacto en el empleo de la adopción de la IA y la exposición a esta tecnología. La confianza, en este caso, influirá en la capacidad de la IA para sustituir tareas humanas,, tal y como muestra el trabajo de Pizzinelli y colaboradores.

Hay 4 comentarios
  • Todo este esfuerzo de análisis está genial.
    Pero parte de una hipótesis incorrecta.
    Que es: La velocidad de aumento de la IA, el autor parece considerar que es algo lineal cada X tiempo un poco más que el anterior como quien sube una escalera, eso daría lugar a todo lo que comenta.
    Pero qué pasa si la velocidad es exponencial?
    Si en 2025 es el doble que en 2024 y en 2026 duplica a la versión de 2025. Simplemente que antes de 2030 todo cuanto conocemos donde el intelecto humano puede ser de utilidad habrá sido absorbido por la IA. Si han leído las conclusiones de Raymond Kurzweil (actualmente en plantilla de Google para la universidad de la singularidad). Tras un análisis detallado de la velocidad a la que la tecnología ha ido avanzando desde la edad de piedra , siempre ha sido exponencial y estos últimos años es notable esa velocidad, según palabras de Elon Musk sobre la velocidad de desarrollo de la IA, "Jamás vi una tecnología avanzar tan rápido".
    En resumen, no quedará espacio para aportar nada de valor por parte de los humanos en muy poquito tiempo.
    Cómo conviviremos con esa anomalía está por ver, pero trabajando seguro que no.

    • En algunos sectores el avance sera exponencial y beneficioso, en otros sectores estos avances tan rápidos provocar problemas serios de adaptación, la renta básica para determinados colectivos se volverá a plantear, mejor seria repartir el trabajo, y que por ejemplo los mayores de 60 solo trabajasen la mitad de horas, con un joven aprendiz a su lado..pero bien sabemos que la innovación para adaptarnos en nuestro país es muy difícil, las reformas cuestan mucho, y encima Europa cada día es mas normativa y burocrática. Esperemos que con la IA a Europa no le pase lo mismo que le pasa ahora con el sector de automoción. Al menos puedo dejar algo positivo:https://intafuturo.blogspot.com/2024/03/como-la-ia-esta-ayudando-los.html

  • Ya está en marcha el ordenamiento, legal Jurídico Sociolaboral y Fiscal Contributivo,para la Regulación del uso de IAG y la Computación Cuántica, véase lo que dice el Pfsr Latorre, autoridad mundial reconocida

  • Creo que en la UE hay un cierto "Hype" en relación con la IA.
    Del mismo modo que se ha puesto de moda hablar de "nuevas tecnologías" para hablar de computadores y semiconductores (en 1965 ya había aquí universidades cuyos alumnos los usaban desde promero de carrera), la UE --que no se distingue precisamente por su liderazgo tecnológico-- se ha dedicado a regularla. Es decir, regula lo que otros conocen mucho mejor.
    De hecho las primeras aplicaciones de IA aplicada a la gestión europeas se desarrollaron los Sperrry corp, en Madrid en la segunda mitad de los años 80. Dos aplicaciones "Revenue Enhancement" para Iberia y "Credit Scoring" para el B, de Bilbao.
    El director de aquella división vive, ya retirado, en El Escorial y no da crédito a sus oidos del ruido que se ha organizado con algo tan viejo.
    Tenemos que espabilar mucho y las "regulaciones" expulsan a los profesionales.

Los comentarios están cerrados.