← Todos los editoriales Editorial · Opinion

La IA a favor del trabajador ya existe. La pregunta es quién puede pedirla.

26 de marzo de 2026 · Audiencia: Companies / Governments

El debate sobre la IA y el desplazamiento laboral está enmarcado en torno a la pregunta equivocada; la taxonomía del MIT sobre el cambio tecnológico muestra que la IA pro-trabajador es técnicamente real y ya opera sobre el terreno, pero los incentivos del mercado no la producirán a escala sin trabajadores que comprendan qué están demandando.

Este editorial se inspiró en la cobertura del AI Daily Brief. Su trabajo constante de hacer legibles para el público general la investigación y las noticias sobre IA es una contribución genuina, y les estoy agradecido.


El problema

La conversación sobre IA y empleo ha colapsado en dos posiciones igualmente inútiles: la negación, es decir, que la IA crea más empleos de los que destruye y siempre lo hará, y el catastrofismo, es decir, que el desempleo masivo es estructuralmente inevitable y nada lo detendrá. Ninguna es exactamente incorrecta. Ambas se pierden la pregunta más importante: ¿qué tipo de IA se está construyendo, por quién y en beneficio de quién?

Un artículo de los economistas del MIT Daron Acemoglu, David Autor y Simon Johnson corta de raíz ese ruido.1 Identifican cinco categorías de cambio tecnológico: aumentador del trabajo, aumentador del capital, automatización, creador de nuevas tareas y nivelador de la experiencia. Evalúan cada una en tres dimensiones, productividad laboral, el valor de la experiencia humana y la participación del trabajo en la renta nacional, y concluyen que solo las tecnologías creadoras de nuevas tareas son inequívocamente pro-trabajador. Su diagnóstico es preciso e incómodo: el mercado se centra actualmente de manera abrumadora en la automatización de tareas y el desarrollo de AGI. Las categorías de cambio tecnológico que amplían lo que los humanos pueden hacer, en lugar de sustituir lo que los humanos hacen, están siendo sistemáticamente infrainvertidas.

Esto no es una ley natural. Es una decisión de diseño e inversión.

Por qué importa

La decisión no se está tomando de forma democrática. La están tomando las empresas con el capital para invertir en el desarrollo de la IA y el talento para construirla. Los trabajadores cuyos puestos se están rediseñando no están, en la mayoría de los casos, en la mesa. Las razones estructurales están interconectadas: carecen del vocabulario para participar, de la alfabetización técnica para evaluar lo que se propone y de los marcos legales que les darían legitimidad para preguntar.

Los despidos de Atlassian son una ilustración útil.2 Novecientas de las 1.600 reducciones recayeron en trabajadores de I+D de software, anunciadas al mismo tiempo que un crecimiento de ingresos del 25%. Las ganancias de eficiencia son reales. Si esas ganancias fluyen hacia los trabajadores, los accionistas o los clientes no es una pregunta técnica. Es una pregunta de poder, y el poder sigue a la comprensión.

Aquí es donde la brecha de conocimiento en IA conecta directamente con la cuestión del empleo. El hallazgo de la Harvard Business School de que los trabajadores inscritos en programas de formación en IA reportan un 34% más de ansiedad laboral que los compañeros que no están en esos programas no impugna la formación como tal.3 Impugna la formación sin agencia. Puedes enseñar a alguien qué hace la IA sin darle ninguna voz en lo que la IA les hace a ellos. Esas no son la misma cosa.

Cuando el 90% de las empresas globales reportan escasez crítica de competencias en TI e IA, y el IDC proyecta 5,5 billones de dólares en pérdidas por esa brecha para 2026, el instinto es leerlo como un problema de oferta, no hay suficientes cursos, no hay suficientes instructores.4 La lectura más precisa es que es un problema de diseño: las organizaciones están fallando en producir una alfabetización en IA que conecte con el poder, que dé a los trabajadores un vocabulario para las decisiones que se toman a su alrededor.

Qué debería ocurrir

Los gobiernos y los empleadores deben separar dos preguntas que actualmente se confunden. La primera es si la IA desplaza empleos en conjunto. La segunda es qué tipo de IA se construye en un lugar de trabajo, industria o ciclo de inversión específico. La segunda pregunta es mucho más abordable.

En mi opinión, los incentivos para los empleadores deben vincularse a los resultados, no a los insumos. La AI Workforce Training Act introducida por el congresista Gottheimer, que propone un crédito fiscal del 30% para hasta 2.500 dólares por empleado y año en costes de formación en IA, va en la dirección correcta.5 Pero un crédito fiscal por comprar un curso no es lo mismo que un crédito condicionado a que los trabajadores en roles afectados por la IA tengan mayor capacidad, mantengan sus puestos y tengan verdadera voz sobre cómo se usa la IA en su trabajo. La distinción importa más que la cantidad en dólares.

La propuesta de Raimondo en el New York Times, créditos fiscales para empleadores vinculados a la formación en el puesto de trabajo, combinados con programas piloto estatales que recompensen la retención de trabajadores e incentiven la reinversión de los ahorros impulsados por la IA en la creación de empleo, empieza a abordar esto.6 El estudio del BCE sobre 5.000 empresas de la eurozona proporciona la base empírica que hace viable esto: las empresas que hacen un uso significativo de la IA tienen aproximadamente un 4% más de probabilidades de contratar personal adicional, no menos.7 La relación entre la adopción de la IA y el empleo no está fijada. Ese es el supuesto sobre el que descansa cualquier intervención política seria.

El mandato de formación también importa. El marco del Departamento de Trabajo de EE. UU. en los 50 organismos estatales de fuerza laboral y los Centros de Empleo Americanos es una base real.8 Es también, como he argumentado antes, una base sin edificio: sin horas mínimas, sin requisito de contenido de ética, sin financiación para los trabajadores desplazados, sin mecanismo de cumplimiento. Cada una de esas lagunas es una decisión política tanto como las decisiones de diseño que ocurren dentro de los laboratorios de IA.

Qué existe ya

El artículo del MIT da ejemplos concretos de IA pro-trabajador que ya opera en la práctica: un asistente para electricistas que se apoya en datos de casos anteriores y fotografías subidas para ayudar a los trabajadores a diagnosticar problemas complejos, manteniendo el juicio en manos del trabajador en lugar de eliminarlo. Esa herramienta existe. La taxonomía que proporcionan Acemoglu, Autor y Johnson da a los responsables políticos y a los empleadores un marco concreto para evaluar cualquier herramienta de IA propuesta antes de desplegarla: ¿en cuál de las cinco categorías cae esta herramienta, y qué significa eso para los trabajadores que la usan?

Antecedentes relevantes en el archivo de investigación: el mandato del Departamento de Trabajo de EE. UU., los hallazgos de Harvard Business School sobre la ansiedad en la formación, los datos de la brecha de competencias del IDC, la AI Workforce Training Act de Gottheimer y la documentación de SHRM sobre la gestión algorítmica sin derechos para los trabajadores.

Qué puedes hacer

Si trabajas en recursos humanos, operaciones o aprendizaje y desarrollo: la taxonomía del MIT merece leerse en su totalidad. Las cinco categorías te dan un vocabulario para una conversación que la mayoría de las organizaciones no está teniendo. La pregunta no es “¿estamos formando a los trabajadores para usar la IA?” Es “¿estamos desplegando IA que aumenta lo que pueden hacer nuestros trabajadores, o IA que sustituye lo que hacen?” Esas requieren respuestas, herramientas e inversiones diferentes.

Si eres responsable político: vincula los incentivos a los resultados. Los créditos de formación condicionados a la demostración de capacidad, la retención y la seguridad laboral son materialmente diferentes de los créditos condicionados a la matrícula. Escribe la diferencia en la legislación.

Si eres trabajador: el artículo del MIT es legible y no es largo. Saber la diferencia entre un despliegue orientado a la automatización y uno orientado a la augmentación, y poder nombrar esa diferencia en una conversación con tu director o con tu representante sindical, es una forma de poder que no cuesta nada adquirir y es más difícil de ignorar que una queja general sobre la seguridad laboral.

El tipo de IA que se construye es una decisión política. Las personas mejor posicionadas para impulsar la versión pro-trabajador son las que saben que existe.


Footnotes

  1. Acemoglu, D., Autor, D., & Johnson, S. (2025). Building Pro-Worker Artificial Intelligence. National Bureau of Economic Research.

  2. Atlassian. (2026, marzo). An important update on our team. Atlassian Blog.

  3. Harvard Business School. (2026). AI Training, Job Anxiety, and Satisfaction Decline. Resumen de investigación archivado.

  4. IDC. (mayo 2024). Enterprise Resilience: IT Skilling Strategies, 2024 (Doc #US52080524). International Data Corporation. Sintetizado por Workera en The $5.5 Trillion Skills Gap. Nota: la cifra de 5,5 billones cubre la brecha más amplia de competencias en TI; la IA se identifica como la categoría de competencias más demandada dentro de ella.

  5. Gottheimer, J. (2026, marzo). Bipartisan AI Workforce Training Act. Cámara de Representantes de EE. UU.

  6. Raimondo, G. (2026, 6 de marzo). America Cannot Withstand the Economic Shock That’s Coming. The New York Times.

  7. European Central Bank. (2026, 4 de marzo). Artificial Intelligence: friend or foe for hiring in Europe today?. Blog del BCE.

  8. U.S. Department of Labor. (2026, 13 de febrero). Training and Employment Notice No. 07-25. Employment and Training Administration.