Gobernanza ágil de la IA: ¿cómo garantizar que la regulación evolucione con la tecnología?

La gobernanza de la IA debe adaptarse de forma continua. Image: REUTERS/Isabel Infantes
Karla Yee Amezaga
Initiatives Lead, AI and Data Governance, Centre for AI Excellence, World Economic Forum- La inteligencia artificial (IA) requiere una gobernanza que se adapte de forma continua, no periódica. Los mecanismos de monitoreo en tiempo real pueden ayudar a detectar riesgos de forma temprana y reforzar la confianza del público y de los inversionistas.
- Los proyectos piloto ágiles y los bancos de pruebas regulatorios muestran cómo las políticas pueden evolucionar tan rápido como la tecnología.
- La colaboración público-privada puede ayudar a garantizar que los beneficios de la innovación se aprovechen plenamente, se desarrollen de forma responsable y cuenten con una inversión sostenible.
La infraestructura de la inteligencia artificial (IA), en constante evolución, está transformando las economías, las sociedades y los servicios públicos. La rápida expansión de la IA generativa, los modelos multimodales, los agentes autónomos, la robótica y otras tecnologías de frontera han introducido capacidades que se actualizan, coordinan y actúan de formas que cambian rápidamente en entornos reales.
A través de iniciativas internacionales como la Alianza Global sobre Inteligencia Artificial y la Alianza Global de IA, una lección queda clara: los riesgos operativos más graves no surgen en el despliegue, sino más adelante, a medida que los sistemas se adaptan o interactúan con otros modelos e infraestructuras. Sin embargo, los cronogramas de gobernanza actuales no logran captar estos cambios.
Al mismo tiempo, las organizaciones enfrentan una fuerte presión para adoptar la IA de forma segura y competitiva mientras entran en vigor nuevos marcos normativos, incluida la Ley de IA de la Unión Europea. Un modelo de gobernanza diseñado para un cumplimiento periódico no puede seguir el ritmo ni igualar la complejidad de los sistemas de aprendizaje automático.
Se requiere una supervisión ágil e iterativa que pueda actualizarse a medida que los sistemas evolucionan y surge nueva evidencia.
¿Cómo lograr una gobernanza de la IA en tiempo real?
Los sistemas generativos y de agentes ya no funcionan como herramientas de funciones fijas. Se adaptan mediante el aprendizaje por refuerzo, responden a las interacciones del usuario, integran nueva información y pueden coordinarse con otros sistemas. Estas características requieren una gobernanza que funcione más como un sistema vivo que como una auditoría periódica.
El camino es claro: la gobernanza debe evolucionar de lo estático a lo dinámico, de lo retrospectivo al tiempo real, y del cumplimiento normativo a la garantía continua. Algunos países y organizaciones ya están liderando esta transición.
1. De auditorías puntuales al monitoreo continuo
De forma muy similar a la ciberseguridad moderna, el centro de gravedad se está desplazando hacia una observabilidad permanente. Los sistemas de monitoreo continuo —como el "red-teaming" automatizado, la detección de anomalías en tiempo real, la analítica del comportamiento y las API de monitoreo— pueden evaluar el comportamiento del modelo a medida que evoluciona, no solo en pruebas controladas.
Como se describe en la publicación "Advancing Responsible AI Innovation: A Playbook", los nuevos "planos de control" y los agentes de IA pueden proporcionar evaluaciones de riesgo continuas, lo que permite a las organizaciones detectar sesgos perjudiciales, alucinaciones, comportamientos de autopreservación o desviaciones de equidad en el momento en que ocurren.
Por ejemplo, plataformas empresariales como el TRUST Framework de Cognizant proporcionan detección de riesgos continua y bajo demanda, así como monitoreo y métricas de confianza, seguridad y rendimiento en todos los sistemas de IA. Esto permite una visibilidad de la gobernanza en tiempo real e intervenciones rápidas basadas en datos.
Iniciativas nacionales como el kit de herramientas AI Verify de Singapur integran pruebas de solidez, veracidad, sesgo y toxicidad en ciclos de evaluación estructurados para sistemas en producción, lo que demuestra que las evaluaciones continuas y estandarizadas son viables a escala nacional.
2. De las salvaguardias estáticas a las políticas adaptativas en tiempo real
Los "guardarraíles" tradicionales parten de la premisa de que los sistemas se comportan de manera consistente. Sin embargo, los modelos actuales pueden mutar debido a actualizaciones, interacciones de los usuarios o la exposición a nuevos datos. Esto exige políticas que se adapten al comportamiento del sistema mediante el filtrado dinámico de contenidos, restricciones de seguridad sensibles al contexto o controles de acceso adaptativos.
Un informe reciente que propone un "Enfoque de 360° para una política y regulación resilientes" destaca que las normativas adaptativas complejas pueden ajustarse en función de los impactos observados en el sistema y de umbrales predefinidos, de forma similar a los modelos de riesgo financiero o los sistemas de vigilancia de salud pública.
3. De la supervisión fragmentada a sistemas de garantía para todo el sector
Los gobiernos están comenzando a crear infraestructura compartida para la supervisión de la IA, lo que incluye institutos nacionales de seguridad, centros de evaluación de modelos y bancos de pruebas intersectoriales.
El Proceso de IA de Hiroshima, el Piloto Global de Garantía de IA de Singapur y la Red Internacional de Institutos de Seguridad de la IA reflejan el creciente consenso de que ninguna empresa o gobierno puede evaluar los riesgos de la IA por sí solo.
La colaboración en esta área permite avanzar en la definición de riesgos comunes, reportes estandarizados, protocolos de prueba compartidos y la divulgación coordinada de incidentes. Estos elementos son esenciales para la interoperabilidad global; sin ellos, las empresas que operan en múltiples países se enfrentan a un laberinto de cumplimiento, mientras que los gobiernos corren el riesgo de generar puntos ciegos regulatorios.
Recomendaciones para los responsables de la toma de decisiones
La gobernanza ágil de la IA no se trata de la velocidad por sí misma. Se trata de crear las condiciones para que los sistemas que aprenden, se adaptan e interactúan sean supervisados de manera eficaz, permitiendo tanto la innovación como la seguridad.
La evidencia en diversos sectores demuestra que las organizaciones con un monitoreo sistemático y reportes transparentes experimentan menos retrasos en el despliegue, una interacción más fluida con los supervisores y una mayor rapidez para escalar aplicaciones de alto riesgo.
La supervisión en tiempo real también puede prevenir daños antes de que se propaguen, al identificar sesgos, picos de toxicidad, patrones de filtración de datos o comportamientos autónomos inesperados de forma temprana en el ciclo de vida.
Al incorporar el "feedback" continuo de la sociedad civil y las comunidades afectadas, la gobernanza ágil ayuda a garantizar que los sistemas de IA se mantengan alineados con las expectativas sociales y puedan adaptarse a medida que estas evolucionan. Sin embargo, traducir estos beneficios en prácticas institucionales requiere una acción coordinada.
Las recomendaciones para los responsables políticos incluyen:
- Crear observatorios nacionales de IA y centros de evaluación de modelos que centralicen los resultados de las pruebas, los datos de incidentes y los indicadores sistémicos de todos los sectores.
- Adoptar marcos regulatorios adaptativos y estructurados por niveles de riesgo que protejan sin frenar la innovación.
- Estandarizar la transparencia y el reporte de incidentes, junto con disposiciones de "puerto seguro" (safe-harbor) que incentiven la divulgación temprana y el aprendizaje colectivo en lugar de respuestas punitivas.
- Reforzar la cooperación internacional para evitar una fragmentación de reglas y riesgos desiguales.
Las recomendaciones para los líderes de la industria incluyen:
- Desplegar un monitoreo continuo a lo largo de todo el ciclo de vida de la IA.
- Integrar la IA responsable en los procesos de desarrollo mediante evaluaciones automatizadas y alertas en tiempo real.
- Implementar guardarraíles adaptativos y modernizar la supervisión humana para la IA de agentes.
- Invertir en alfabetización sobre IA y tecnología de gobernanza, tratando la confianza como una capacidad estratégica y no como un mero trámite administrativo.
Una gobernanza preparada para el futuro comienza ahora
A medida que los sistemas de IA se vuelven más dinámicos, autónomos y se integran profundamente en funciones críticas, la gobernanza debe transicionar de la verificación periódica a la garantía continua.
Este cambio refleja el enfoque de la Reunión Anual 2026 del Foro Económico Mundial en Davos, Suiza, sobre el despliegue de la innovación a gran escala y de forma responsable. Esto exige enfoques regulatorios adecuados para las tecnologías de frontera que salvaguarden la agencia humana y permitan el crecimiento a través de la confianza.
La transformación comienza con un reconocimiento sencillo: en un mundo de IA adaptativa y autónoma, la gobernanza debe ser igual de adaptativa, continua e inteligente. Cualquier otra opción no solo es insuficiente, sino que representa una desventaja competitiva que no nos podemos permitir.
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
Mantente al día:
Agile Governance
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global
Más sobre Inteligencia artificialVer todo
Jessica Apotheker
11 de febrero de 2026






