← Todos los editoriales Editorial · Opinion

Necesitamos educación en IA, a partir de ahora

16 de marzo de 2026 · Audiencia: All

La brecha entre quienes comprenden la IA y quienes no lo hacen es ya una división económica; los gobiernos, las escuelas y las empresas deben tratar la alfabetización en IA como un derecho universal, no como un privilegio técnico.

Sobre este sitio

Esta plataforma existe para sostener un argumento: que saber usar la IA, entender qué hace y pensar críticamente sobre ella ya no es opcional. Son las condiciones para la participación plena en el trabajo, la educación y la vida cívica. La brecha entre las personas que tienen ese conocimiento y las que no lo tienen no es un riesgo futuro. Es una desigualdad presente, y se está ampliando.

Una persona que sabe usar la IA para redactar, investigar, analizar, presentar y automatizar no ocupa la misma posición en un entorno laboral que alguien que no sabe. Un estudiante formado para evaluar los resultados de la IA de forma crítica no está en la misma posición que uno que los acepta sin cuestionarlos. La división no es entre humanos y máquinas. Es entre personas con acceso al conocimiento sobre IA y personas sin él.

La investigación de este sitio rastrea lo que los gobiernos y las organizaciones están haciendo ante esa división. Los editoriales argumentan a favor de cambios concretos. El objetivo es un mundo donde la alfabetización en IA, incluidas sus dimensiones éticas, sea un derecho, no una ventaja.


El problema

La IA se está desplegando en escuelas, lugares de trabajo, tribunales, hospitales y procesos de contratación a un ritmo que ningún sistema educativo ha podido seguir. Los estudiantes usan herramientas de IA que no comprenden. Los trabajadores son evaluados por sistemas de IA que no pueden ver. Los ciudadanos están sujetos a decisiones automatizadas para las que no tienen ningún marco con el que cuestionarlas.

He pasado las últimas semanas rastreando lo que los gobiernos y los organismos oficiales están haciendo al respecto. El panorama es peor de lo que esperaba.

En Estados Unidos, 28 estados han emitido orientaciones sobre IA en las escuelas. Solo dos estados, Ohio y Tennessee, han aprobado leyes. La ley de Ohio, que entra en vigor el 1 de julio de 2026, exige que cada distrito escolar tenga una política de IA. No dice qué debe contener esa política. Un distrito puede escribir una sola frase y cumplirla. Eso es papeleo disfrazado de gobernanza.

La Ley de IA de la UE, la regulación de IA más completa del mundo, contiene una sola disposición sobre alfabetización en IA: el Artículo 4, que exige a los proveedores que garanticen que su personal tenga “suficiente alfabetización en IA”. No fija ningún estándar para lo que significa suficiente. Ningún currículo. Ninguna verificación. Ningún cumplimiento. La ley de IA más avanzada del planeta trata la educación como una nota a pie de página.

India ha hecho más que nadie. Ha obligado a impartir currículo de IA en todas las escuelas desde 3.º de primaria, ha financiado la formación docente a nivel nacional y ha destinado aproximadamente 60 millones de dólares a un Centro de Excelencia en IA para Educación. Incluso el mandato de India se detiene en herramientas y competencias. El currículo no pide a los estudiantes que examinen quién controla los sistemas de IA, a qué intereses sirven o cómo participar en las decisiones sobre su gobernanza.

La OCDE y la Comisión Europea publicaron en mayo de 2025 un marco que define qué debería ser la alfabetización en IA: usar IA, comprender IA, crear con IA y relacionarse críticamente con la IA. Es exhaustivo y bien fundamentado. Es completamente voluntario. Ningún país está obligado a implementarlo.


Por qué importa

La consecuencia inmediata de la brecha de conocimiento en IA es económica. La persona que sabe elaborar indicaciones para un sistema de IA de forma eficaz, construir una automatización sencilla, generar una presentación o evaluar críticamente un resultado de IA ya es más productiva que la que no puede. Esa brecha de productividad se traduce directamente en decisiones de contratación, evaluaciones de rendimiento, negociaciones salariales y promociones. No es especulativo. Está ocurriendo ahora, en todos los sectores, en todos los niveles.

Los trabajadores en mayor riesgo no son, principalmente, personas cuyo trabajo será automatizado. Son personas que serán superadas por compañeros que usan bien la IA. Un analista junior que construye flujos de trabajo asistidos por IA es una propuesta diferente para un director de selección que uno que no lo hace. Un docente que entiende cómo funcionan las herramientas de evaluación con IA está mejor posicionado para defender a sus estudiantes que uno que no lo hace. Un funcionario que sabe cómo interrogar una recomendación de IA es más valioso para un gobierno que funcione que uno que la acepta sin cuestionarla. La brecha de conocimiento es una brecha de carrera, y sin una intervención deliberada se agravará.

La dimensión ética no es independiente del argumento de productividad. Usar la IA sin entender qué hace es un pasivo, no solo un riesgo personal. Un trabajador que no entiende que una herramienta de contratación por IA entrenada con datos históricos reproducirá los sesgos históricos no puede identificar cuándo su empresa está expuesta a reclamaciones por discriminación. Un estudiante que no sabe cómo un sistema de IA evalúa su trabajo no puede impugnar una evaluación injusta. Un empleado que no puede distinguir un resultado de IA fiable de un sinsentido con aspecto de certeza producirá un trabajo poco fiable. La ética y el pensamiento crítico son la diferencia entre la IA como herramienta y la IA como fuente de errores sin control.


Qué debería ocurrir

Estoy argumentando por tres cosas, y quiero ser específico.

Primero: los gobiernos deben obligar a impartir la alfabetización en IA como asignatura curricular básica en las escuelas, con un componente de ética definido. Un requisito, con financiación adjunta y resultados medibles. El objetivo no es producir ingenieros de IA. Es producir personas que puedan usar la IA de forma eficaz, evaluarla críticamente y participar en las decisiones sobre ella. El marco de cuatro partes de Singapur, aprender sobre IA, aprender a usar IA, aprender con IA, aprender más allá de la IA, es un modelo viable. El marco OCDE/CE publicado en 2025 proporciona el estándar técnico. Lo que falta es la voluntad política para hacer vinculante cualquiera de ellos.

Segundo: la UE y otros gobiernos deben exigir a las empresas que formen a todos sus empleados en el uso y la ética de la IA. A todos los empleados, no solo a los que escriben código, porque la brecha de conocimiento no respeta las categorías laborales. Una coordinadora de marketing que entiende cómo usar herramientas de IA producirá más y mejor trabajo. Una directora de recursos humanos que comprende la contratación algorítmica tomará mejores decisiones y evitará exposición legal. Un contable que puede evaluar un análisis generado por IA es menos probable que firme algo incorrecto. El Artículo 4 de la Ley de IA de la UE es un comienzo; necesita estándares mínimos, formación verificada y cumplimiento detrás de él.

Tercero: la educación en ética de la IA debe establecerse como obligación legal. El consenso internacional, de la UNESCO, la OCDE y el Consejo de Europa, es que la alfabetización en IA incluyendo la ética es un requisito fundamental para la ciudadanía informada en la era actual. Ese consenso no ha producido ningún mandato vinculante. Una obligación legal cambia la estructura de incentivos: las empresas forman a los empleados porque deben hacerlo, no porque lo elijan. Las escuelas enseñan alfabetización en IA porque es obligatorio, no porque un distrito lo decidió. Ese es el único mecanismo que cierra la brecha a la escala necesaria.


Qué existe ya

La base de evidencias para las tres propuestas está documentada en las secciones de investigación de este sitio:

El patrón en todas las jurisdicciones encuestadas es coherente. El despliegue se está acelerando. La brecha de conocimiento se está ampliando. La respuesta política está muy por detrás de ambas.


Qué puedes hacer

Si trabajas en una escuela o universidad: pregunta qué se está enseñando a los estudiantes sobre cómo funcionan los sistemas de IA, quién los gobierna y qué significa usarlos críticamente. Si la respuesta solo cubre cómo usar las herramientas, la escuela está preparando a los estudiantes para ser consumidores de IA, no participantes en ella. Esa es la brecha que documenta este sitio.

Si trabajas en una empresa: pregunta si la formación en IA cubre a todos los empleados o solo a los equipos técnicos. Pregunta si enseña a las personas a usar la IA de forma eficaz y a evaluarla críticamente, o si es una casilla de cumplimiento. Los empleados que comprenden la IA producirán mejor trabajo. Los que no lo hacen serán superados por compañeros que sí lo hacen.

Si trabajas en el gobierno o en política: mira la regulación de IA de tu jurisdicción y encuentra dónde está el mandato educativo. Si hay orientaciones sin requisito, pregunta por qué. El marco de la OCDE, el currículo nacional de India y la estrategia de Singapur demuestran que la política vinculante de alfabetización en IA es factible. La pregunta es si hay voluntad política para impulsarla antes de que la brecha de conocimiento se convierta en una estructural.

Si eres ciudadano: empieza a construir tu propia alfabetización en IA ahora, y presiona a la escuela de tus hijos, a tu empleador y a tus representantes elegidos para que la conviertan en un requisito. La brecha entre quienes comprenden la IA y quienes no lo hacen ya es una brecha económica. No se cierra sola.


La brecha de conocimiento empieza a cerrarse cuando tú empiezas. Recursos gratuitos de aprendizaje en IA, para todos los niveles y roles, están indexados en este sitio.
Ver recursos de aprendizaje →