Una característica llamativa del discurso actual sobre gobernanza de la IA es la coherencia del diagnóstico entre grupos que raramente coinciden en nada más. Investigadores, sindicatos, organizaciones de la sociedad civil, defensores de los derechos de la infancia e instituciones internacionales han convergido en un conjunto común de preocupaciones. Esta entrada mapea lo que dice cada grupo e identifica los patrones que esas voces revelan colectivamente.
Opinión pública
La señal cuantitativa más destacada del discurso público reciente proviene de dos encuestas estadounidenses publicadas en primavera de 2025. Una encuesta de Gallup-Bentley University encontró que el 77% de los estadounidenses desconfía tanto de las empresas como del gobierno para usar la IA de forma responsable. Una encuesta simultánea de Pew Research encontró que el 55% del público general considera el sesgo de la IA como una preocupación alta, cifra que coincide casi exactamente con el 55% de expertos en IA consultados sobre lo mismo. La convergencia entre la preocupación de los ciudadanos y la de los especialistas es inusual; sugiere que la inquietud se basa en comportamientos observables más que en una ansiedad abstracta. Ambas encuestas encontraron apoyo mayoritario a la regulación gubernamental en la mayoría de los ámbitos de aplicación de la IA. Ver investigación: Gallup-Bentley y Pew Research — La desconfianza pública en la IA alcanza el 77%.
Sociedad civil
En la Cumbre de Acción en IA de París de 2025, una coalición de 44 organizaciones de la sociedad civil encuestadas por The Future Society presionó colectivamente por prohibiciones legalmente vinculantes sobre la IA de alto riesgo y auditorías obligatorias independientes de terceros. Las organizaciones rechazaron explícitamente los marcos voluntarios. Sus demandas concretas, observatorios de la fuerza laboral en IA, prohibiciones ejecutables y participación pública estructurada en las decisiones de gobernanza, constituyen una alternativa integral al modelo autorregulatorio que ha dominado la gobernanza de la IA hasta ahora. Ver investigación: The Future Society — 44 organizaciones de la sociedad civil exigen normas vinculantes de IA.
UNICEF y el Comité de Política Tecnológica de EE. UU. añadieron una dimensión de protección de la infancia. Ambos expresaron preocupación por los sistemas de IA generativa que median los entornos de información social, educativa y política de los menores sin transparencia ni salvaguardas adecuadas. El USTPC recomendó explícitamente la alfabetización obligatoria en IA como medida de protección junto a salvaguardas técnicas, tratándola como una obligación basada en derechos más que como una adición curricular opcional. Ver investigación: UNICEF y USTPC — Los riesgos de la IA para los niños requieren la alfabetización como medida de protección.
Trabajo y recursos humanos
Los trabajadores y sus representantes son el grupo con la queja más inmediata y concreta. La Society for Human Resource Management identificó la gobernanza de la IA en el empleo como uno de sus cinco principales problemas laborales para 2026, una designación que indica que la preocupación ha pasado de la periferia activista al territorio del cumplimiento normativo en RR. HH. Los perjuicios documentados por SHRM y los defensores laborales incluyen decisiones de contratación automatizadas que los trabajadores no pueden impugnar, puntuaciones de rendimiento algorítmico que no pueden inspeccionar y vigilancia electrónica de la que no pueden excluirse. Las protecciones a nivel estatal existen en Colorado, Illinois y Nueva York; la mayoría de los trabajadores de EE. UU. no tiene ninguna. Ver investigación: SHRM y defensores laborales — La gestión algorítmica y la vigilancia laboral mediante IA como principal problema de 2026.
Análisis académico y experto
La Universidad de Oxford publicó en marzo de 2026 un comentario de expertos sobre la disputa Pentágono-Anthropic, argumentando que es un síntoma de fallos de gobernanza anteriores a la administración actual. El enfoque de Oxford es preciso: la gobernanza de la IA se está “improvisando en tiempo real en lugar de diseñarse mediante una política deliberada”. Existen lagunas legales significativas en vigilancia doméstica y armas autónomas, lagunas que la legislación actual deja abiertas a interpretaciones controvertidas. Ver investigación: Universidad de Oxford — La disputa Pentágono-Anthropic revela fallos estructurales de gobernanza de la IA.
El Índice de IA 2025 de Stanford cuantificó una dimensión del coste: los riesgos de privacidad de datos relacionados con la IA aumentaron un 56% interanual. El ritmo de daños mensurables está creciendo más rápido que el de la regulación en todos los ámbitos estudiados. La mayor exposición se da en sanidad, educación y empleo: los ámbitos que afectan a niños, trabajadores y pacientes. Ver investigación: Índice de IA 2025 de Stanford — Los riesgos de privacidad de datos relacionados con la IA aumentan un 56% interanual.
El análisis del Foro Económico Mundial de febrero de 2026 desmintió ocho mitos de gobernanza, incluida la creencia de que los principios voluntarios son suficientes y que el riesgo de la IA puede gestionarse solo por equipos técnicos. Su dato, el 94% de las empresas globales está usando o probando la IA, mientras que solo el 44% afirma que su arquitectura de seguridad está preparada para soportarla, mide la brecha entre despliegue y preparación en todo el sector privado. El encuadre del FEM es económico más que ético: las organizaciones que se saltaron la medición de la gobernanza responsable de la IA enfrentan consecuencias materiales de credibilidad y mercado. Ver investigación: Foro Económico Mundial — Ocho mitos que sabotean la gobernanza moderna de la IA.
Instituciones internacionales
La respuesta de la UNESCO a la brecha de alfabetización de los funcionarios es en sí misma un dato. En junio de 2025, impartió formación en alfabetización en IA a través de un programa global de formación de formadores; a octubre de 2025, más de 70 países habían participado. La UNESCO está realizando formación de emergencia porque los gobiernos que despliegan marcos de gobernanza de IA no habían formado a los funcionarios responsables de aplicarlos. El programa existe porque la opción predeterminada, la preparación voluntaria, produjo una preparación inadecuada. Ver investigación: UNESCO — Formación en alfabetización en IA para funcionarios de más de 70 países.
El análisis de fin de año 2025 de la Alliance for AI & Humanity caracterizó el estado general como rico en marcos y pobre en cumplimiento: se anuncian principios, las auditorías son escasas y los mecanismos de rendición de cuentas están ausentes cuando se producen daños. Las tres presiones que identificó como dominantes en 2026, gobernar los sistemas automatizados, gestionar la disrupción laboral y afrontar los límites infraestructurales de la IA, describen problemas que los marcos voluntarios no han abordado y no dan señales de abordar. Ver investigación: Alliance for AI & Humanity — “Hermosos principios, implementación caótica”.
Gobierno: en la dirección equivocada
Ante este panorama, la acción más significativa del gobierno de EE. UU. en los últimos meses ha sido la orden ejecutiva de diciembre de 2025 que instruye al Fiscal General a impugnar las leyes estatales de IA, con la FTC instruida para clasificar la mitigación de sesgos ordenada por los estados como una práctica comercial engañosa. Casi dos docenas de fiscales generales estatales presentaron cartas de oposición. Gobernadores bipartidistas, incluidos Ron DeSantis y Gavin Newsom, se opusieron. Expertos jurídicos señalaron que la lógica de la orden ejecutiva, que exigir a la IA que corrija los sesgos obliga a los desarrolladores a producir resultados “menos verídicos”, prohibiría funcionalmente a los estados exigir que los sistemas de IA traten a las personas de manera justa. El plazo de la FTC para una declaración de política de preempción era el 11 de marzo de 2026. Ver investigación: Administración Trump — El intento federal de preemptar las leyes estatales de IA genera oposición bipartidista.
Lo que muestra el patrón
En todos estos grupos, el público general, la sociedad civil, los defensores laborales, los investigadores académicos, las instituciones internacionales y los gobiernos estatales bipartidistas, el diagnóstico es coherente: la IA se está desplegando ampliamente, los marcos voluntarios no producen rendición de cuentas y las personas más directamente afectadas, trabajadores, niños, funcionarios y el público general, son las menos protegidas. El único actor que se mueve en contra de este consenso es el gobierno federal de EE. UU., que está desmantelando la única gobernanza funcional que existe a nivel estatal en lugar de avanzar hacia una alternativa federal. El discurso no está esperando a la política; la política está retrocediendo ante el discurso.
Ver editorial: Necesitamos educación en IA, a partir de ahora
Última actualización: 2026-03-16