← Todas las actualizaciones Actualización de investigación

Formación en IA en el trabajo: qué no están haciendo los empleadores y por qué importa

16 de marzo de 2026

El despliegue de la IA en los entornos de trabajo se ha acelerado notablemente en los últimos dos años. Las estructuras de formación, alfabetización y rendición de cuentas que empleados y empleadores necesitan para navegar ese despliegue no lo han hecho. Esta entrada se apoya en investigaciones recientes y en el discurso experto para mapear el estado actual de la formación en IA en el trabajo: qué existe, qué falta y qué está costando esa brecha.

Lo que muestra el patrón

En la práctica empresarial, la política internacional, el análisis experto y la opinión pública, se repite la misma estructura:

  • La IA se despliega ampliamente, los marcos de gobernanza existen sobre el papel y la formación necesaria para hacer esos marcos significativos está ausente.
  • Los empleadores no están formando a los trabajadores para que comprendan los sistemas de IA que evalúan su rendimiento.
  • Los gobiernos no han formado a los funcionarios responsables de la supervisión de la IA.
  • La ley de IA más sólida en vigor contiene un requisito de alfabetización que no fija ningún estándar.
  • La desconfianza pública se sitúa en el 77%, mientras que la respuesta política en EE. UU. avanza hacia la preempción de las protecciones estatales en lugar de establecer las federales.
  • La brecha entre despliegue y comprensión no es un desfase que el tiempo cerrará automáticamente; exige obligaciones de formación obligatoria con estándares definidos y mecanismos de cumplimiento.

Política

La ley de IA más completa actualmente en vigor, la Ley de IA de la UE, alcanza su principal plazo de cumplimiento en agosto de 2026. Los sistemas de empleo, incluidos los algoritmos de contratación, las herramientas de supervisión del rendimiento y el software de gestión automatizada, se clasifican como de alto riesgo y están sujetos a todas las obligaciones de la ley. El Artículo 4 de la ley exige a los proveedores que garanticen que su personal tenga “suficiente alfabetización en IA”. La disposición existe solo de nombre: no fija ningún estándar mínimo, no especifica ningún currículo y no tiene ningún mecanismo de cumplimiento. Un empleador puede cumplir el Artículo 4 sin hacer nada visible, porque no hay un umbral definido contra el que un regulador pueda comprobar el cumplimiento. La regulación de IA más avanzada del mundo tiene una obligación de formación sin sustancia.

Discurso laboral

La Society for Human Resource Management identificó la gobernanza de la IA en el empleo como uno de sus cinco principales problemas laborales para 2026, una designación que indica que la preocupación ha pasado de la periferia activista al territorio del cumplimiento normativo en recursos humanos. Los perjuicios concretos que SHRM y los defensores laborales están documentando incluyen decisiones de contratación automatizadas que los trabajadores no pueden impugnar, puntuaciones de rendimiento algorítmico que no pueden inspeccionar y vigilancia electrónica de la que no pueden excluirse. La mayoría de los trabajadores de EE. UU. permanece fuera de la cobertura de la legislación a nivel estatal, en Colorado, Illinois y Nueva York, que ha comenzado a abordar algunas de estas prácticas. Ver investigación: SHRM y defensores laborales — Gestión algorítmica.

La respuesta de la UNESCO a la brecha paralela en los entornos de trabajo gubernamentales es ilustrativa. En junio de 2025, la UNESCO impartió formación en alfabetización en IA para funcionarios a través de un programa global de formación de formadores; a octubre de 2025, más de 70 países habían participado. El programa existe porque los gobiernos que despliegan marcos de gobernanza de IA no habían formado a los funcionarios responsables de aplicarlos. La UNESCO está cubriendo una brecha de capacidad de emergencia que los gobiernos deberían haber abordado mediante una política. Ver investigación: UNESCO — Formación en alfabetización en IA para funcionarios.

Discurso experto y público

El análisis del Foro Económico Mundial de febrero de 2026 sobre los mitos de la gobernanza de la IA ofrece la ilustración cuantitativa más clara de la brecha entre despliegue y preparación. El 94% de las empresas globales declara usar o probar la IA en sus operaciones de TI; solo el 44% afirma que su arquitectura de seguridad está preparada para soportar la IA de forma segura. El FEM identifica la creencia de que los principios voluntarios son suficientes, y de que el riesgo de la IA puede gestionarse únicamente por equipos técnicos, como principales contribuyentes a este desajuste. El informe argumenta que las organizaciones que se saltaron la gobernanza responsable de la IA enfrentarán consecuencias materiales de credibilidad y mercado. Ver investigación: Foro Económico Mundial — Ocho mitos que sabotean la gobernanza moderna de la IA.

Ese enfoque se refuerza con el análisis de fin de año 2025 de la Alliance for AI & Humanity, que caracteriza el estado actual como rico en marcos y pobre en cumplimiento. Se anuncian principios. Las auditorías son escasas. Cuando se producen daños, los mecanismos de rendición de cuentas están ausentes. La Alianza identificó gobernar los sistemas cada vez más automatizados y gestionar la disrupción laboral como dos de las tres presiones con mayor probabilidad de definir 2026. Ver investigación: Alliance for AI & Humanity — “Hermosos principios, implementación caótica”.

Las encuestas de opinión pública proporcionan los datos de demanda. Una encuesta de Gallup-Bentley University de 2025 encontró que el 77% de los estadounidenses desconfía tanto de las empresas como del gobierno para usar la IA de forma responsable. Una encuesta simultánea de Pew Research encontró que el 55% del público general y el 55% de los expertos en IA comparten una preocupación alta por el sesgo de la IA, una convergencia inusual de opinión profana y especializada. Las mayorías en la misma encuesta apoyaban la regulación gubernamental de la IA en la mayoría de los ámbitos de aplicación. Ver investigación: Gallup-Bentley y Pew Research — La desconfianza pública en la IA alcanza el 77%.

Ver editorial: Necesitamos educación en IA, a partir de ahora

Última actualización: 2026-03-16