El problema
La mayoría de las personas que usan IA hoy están usando un cuadro de chat. Escriben una pregunta, reciben una respuesta y la evalúan más o menos como harían con un resultado de búsqueda. Esto no es nada. Es considerablemente menos de lo que la IA puede hacer actualmente, y la brecha entre este uso básico y lo que ya es posible para los usuarios técnicamente capaces no se cierra gradualmente. Se amplía semana a semana.
No estoy describiendo un riesgo futuro. Anthropic publicó más de cuarenta actualizaciones de producto solo en el primer trimestre de 2026: memoria personalizada, proyectos persistentes, agentes de uso del ordenador, ventanas de contexto ampliadas, personalización a nivel de operador y una API de modelo capaz de coordinar cadenas de tareas sin intervención humana en cada paso. La mayoría de los usuarios que interactúan con Claude a diario no está usando ninguna de estas funciones. Están escribiendo preguntas en un único cuadro y leyendo respuestas. Las funciones existen; el conocimiento de cómo usarlas, no.
Mientras tanto, un grupo más pequeño opera a un nivel fundamentalmente diferente. Los desarrolladores y los trabajadores del conocimiento técnicamente fluidos están construyendo agentes personales que monitorizan bandejas de entrada, sintetizan investigaciones, redactan resultados y desencadenan acciones en otras aplicaciones sin instrucciones directas en cada paso. Están conectando la IA a herramientas de segundo cerebro como Obsidian, enrutando los resultados a través de plataformas de automatización como Zapier y usando bots de Telegram como interfaces ligeras para tareas que antes requerían un ordenador portátil. Están ejecutando modelos localmente en hardware personal, ajustándolos con sus propios documentos y enrutando entre diferentes modelos según el tipo de tarea. La diferencia de productividad entre este grupo y el grupo del cuadro de chat no es marginal. Es estructural.
La expresión “alfabetización en IA” tal como aparece actualmente en los documentos de política no captura esta división. El Artículo 4 de la Ley de IA de la UE exige a los proveedores de IA que garanticen que su personal tenga “suficiente alfabetización en IA”. No define suficiente. Incluso las definiciones nacionales más sólidas, del marco de cuatro partes de Singapur o del modelo OCDE/CE publicado en 2025, tratan la alfabetización como una escalera que termina en la implicación crítica con los sistemas de IA. La brecha de uso que estoy describiendo se sitúa por encima de ese techo. No se trata de comprender la IA ni siquiera de usarla. Se trata de orquestar la IA como una capa integrada del trabajo profesional diario.
Por qué importa
Las consecuencias en productividad ya son visibles y se están acelerando. El trabajador que usa la IA para redactar, investigar y revisar hace más que el que no lo hace. El trabajador que usa la IA como capa de orquestación, enrutando tareas entre herramientas especializadas, manteniendo contexto persistente a lo largo de días y semanas y ejecutando procesos paralelos que aflorarán resultados cuando se necesiten, opera a una escala completamente diferente. Estas no son la misma ventaja, y confundirlas lleva a respuestas políticas que abordan el primer problema mientras el segundo se agrava.
El problema de alcanzar a los más avanzados es real incluso para las personas que se consideran técnicamente competentes. He hablado con ingenieros de software que están al día en modelos de lenguaje pero no han construido un agente personal. He hablado con investigadores que usan la IA para resumir artículos pero no han conectado sus herramientas de ninguna manera persistente. La razón no es la capacidad. Es el tiempo. El ritmo de publicación de funciones en todas las principales plataformas de IA en los primeros meses de 2026 ha hecho genuinamente difícil rastrear lo que está disponible, por no hablar de integrarlo. Para un usuario no técnico, la dificultad no es mantener el ritmo; la dificultad es saber que hay algo con lo que mantener el ritmo.
Esa asimetría es el problema. Los usuarios avanzados no guardan sus métodos en secreto, pero sus métodos están documentados en repositorios de GitHub, servidores de Discord y tutoriales de YouTube orientados a personas que ya saben lo suficiente para seguirlos. La mayoría de los trabajadores que se beneficiarían de estas capacidades no está leyendo esos materiales, porque nada en su entorno profesional les ha dicho que deberían hacerlo.
Hay una segunda barrera estructural que pertenece a este análisis: la seguridad corporativa y la gobernanza de TI. En la mayoría de las organizaciones con más de unos pocos cientos de empleados, cualquier nueva herramienta de IA debe superar un proceso de revisión antes de que se permita a los empleados usarla. Este proceso existe por razones legítimas. También lleva meses, produce resultados inconsistentes y, en la práctica, da como resultado que la mayoría de las herramientas queden bloqueadas por defecto mientras una pequeña lista de aplicaciones aprobadas recibe todo el uso sancionado. El trabajador que quiere conectar un asistente de IA a su calendario, su almacén de documentos y su correo electrónico para construir un flujo de trabajo básico no se enfrenta a un problema de conocimiento ni de motivación. Se enfrenta a una cola de compras.
La cuestión del entrenamiento de datos ha empeorado esto significativamente. La preocupación de que los proveedores de IA puedan usar datos empresariales para entrenar futuros modelos no es irracional, y el registro público de cómo varios proveedores han gestionado la retención de datos es genuinamente ambiguo. Los equipos legales y de gobernanza corporativa leen esa ambigüedad como riesgo, y su respuesta predeterminada al riesgo es la prohibición. El resultado es que los empleados en organizaciones gobernadas a menudo están restringidos a una interfaz de navegador simplificada con el intercambio de datos desactivado, mientras sus compañeros en empresas más pequeñas o en contextos de uso personal están ejecutando integraciones completas. El reflejo de gobernanza destinado a proteger a la organización está, en la práctica, ampliando la brecha de uso entre sectores y entre tamaños de empresa.
Qué debería ocurrir
Creo que tres cosas deben ocurrir, y ninguna se está proponiendo en serio en este momento.
Primero: los estándares de alfabetización en IA necesitan un nivel de uso por encima de la implicación crítica. La cuarta dimensión del marco OCDE/CE, “relacionarse críticamente con la IA”, es el techo correcto de la escalera para la ciudadanía. No es el techo correcto para la competencia profesional en 2026. Una definición de nivel profesional debería incluir la capacidad de conectar herramientas de IA a sistemas externos, construir y ejecutar flujos de trabajo automatizados básicos, evaluar cuándo es apropiado delegar tareas a un agente y mantener conciencia de los cambios de capacidad en las plataformas que se usan. Esto es enseñable. Necesita ser nombrado antes de que pueda ser exigido.
Segundo: los empleadores deben tratar el seguimiento de la capacidad en IA como una obligación continua, no como un evento de formación único. Un curso de formación diseñado a finales de 2024 no describe las herramientas disponibles a mediados de 2026. Las empresas que ejecutaron la incorporación en IA hace dos años y no la han revisado tienen empleados trabajando con un modelo mental desactualizado de lo que es posible. La obligación debe ser continua, con un ciclo de actualización definido vinculado a las tasas de cambio de la plataforma, no al ciclo presupuestario de formación del empleador.
Tercero: los proveedores de IA deben hacer auditables sus compromisos de gobernanza de datos, no solo declararlos. La razón por la que los equipos de seguridad corporativa se inclinan por la prohibición es que la alternativa requiere confiar en la política de privacidad de un proveedor. Esa no es una posición irrazonable dado cómo han evolucionado esas políticas. Los proveedores que quieren adopción empresarial a plena capacidad, no solo a través de interfaces bloqueadas, necesitan ofrecer compromisos verificables de forma independiente: sin entrenamiento con datos de clientes por defecto, términos contractuales claros de residencia de datos y derechos de auditoría con los que un equipo legal pueda realmente actuar. Sin eso, el proceso de revisión de seguridad seguirá funcionando como un techo de capacidad para todos dentro de una organización gobernada.
Cuarto: las propias plataformas, es decir, Anthropic, OpenAI, Google y sus pares, tienen una responsabilidad que actualmente no están cumpliendo. Las versiones de funciones dirigidas a desarrolladores y usuarios sofisticados van acompañadas de documentación extensa. Las versiones de funciones que cambiarían la forma en que los usuarios ordinarios abordan su trabajo, como la memoria persistente, el contexto de proyectos y las capacidades de agentes, se anuncian a través de publicaciones de blog leídas principalmente por personas que ya siguen el espacio. El deber de informar a los usuarios de los cambios de capacidad en lenguaje sencillo, orientado a casos de uso profesional comunes, no se está cumpliendo.
Qué existe ya
La base de investigación para los argumentos de productividad y competencias está documentada en el archivo de este sitio. El IDC proyecta 5,5 billones de dólares en pérdidas globales por brechas de competencias en TI e IA para 2026, documentado en el informe de cualificación en TI del IDC de 2024 (la cifra cubre la brecha más amplia de competencias en TI; la IA es la categoría de competencias más demandada dentro de ella). El marco OCDE/CE, la definición actual más completa de alfabetización en IA, se resume en Marco de Alfabetización en IA de la OCDE/CE. El hallazgo de la Harvard Business School de que la formación en IA sin agencia produce ansiedad en lugar de capacidad está documentado en Harvard: Formación en IA, ansiedad laboral.
Lo que aún no existe en este archivo, y lo que tengo intención de documentar, es un relato sistemático de la brecha entre los actuales techos de capacidad de la IA y el nivel de uso promedio de la fuerza laboral profesional. Esa brecha es la próxima prioridad de investigación de este sitio.
Qué puedes hacer
Si eres un trabajador del conocimiento que usa la IA solo en una única interfaz de chat: estás usando una fracción de lo que tienes disponible sin coste adicional. El paso más útil a continuación no es un curso. Es una hora dedicada a descubrir qué puede hacer la plataforma que ya usas, concretamente si admite memoria persistente, contexto de proyectos, carga de archivos o flujos de trabajo automatizados. La mayoría de las personas que lo descubren se sorprenden de la respuesta.
Si trabajas en aprendizaje y desarrollo o recursos humanos: el programa de formación que diseñaste en 2024 necesita revisión. El ciclo de revisión correcto para el contenido de formación en IA en el entorno actual es cada seis meses, no cada dos o tres años. La medida del éxito no es la finalización. Es si los empleados conocen y usan las capacidades que no estaban disponibles cuando fueron formados por última vez.
Si trabajas en seguridad de TI o gobernanza corporativa: una cola de revisión general no es una posición neutral. Cada mes que una herramienta útil pasa en revisión es un mes en que los empleados encuentran soluciones alternativas, lo que produce exactamente el riesgo de TI en la sombra que el proceso de revisión pretende evitar. Un proceso de revisión más rápido y escalonado, que distinga entre herramientas que manejan datos sensibles y las que no, serviría mejor a la organización que una única cola lenta. Además: si el proveedor de IA de tu organización no puede darte una respuesta clara y contractual sobre el entrenamiento de datos, eso es una razón razonable para escalar y una petición razonable que hacer a tu proveedor.
Si construyes productos de IA: la explicación en lenguaje sencillo de los cambios de capacidad, escrita para el usuario profesional no técnico y orientada a tareas profesionales comunes, es una responsabilidad del producto. Las notas de versión escritas para desarrolladores no son un sustituto. Las personas que más se beneficiarían de saber qué ha cambiado son precisamente las que no están leyendo tu documentación de API.
La brecha de uso no se cerrará sola. La distancia de capacidad entre el usuario básico y el avanzado aumenta cada vez que una plataforma lanza una función que un grupo sabe usar y el otro grupo ni siquiera sabe que existe.