La innovación digital y la gobernanza no son opuestas, son inseparables

Una gobernanza responsable es esencial para proteger la vida digital de los niños. Image: Unsplash/Thomas Park
Wanjuhi Njoroge
Graduate Student, Master in Public Administration, John F. Kennedy School of Gov, Harvard University- Ante la creciente inquietud por el impacto de las redes sociales y la inteligencia artificial, los gobiernos son los únicos capaces de dar un paso al frente para garantizar el nivel de regulación necesario.
- Saltos tecnológicos previos, como el de las armas nucleares, demuestran los peligros de postergar una gobernanza responsable.
- Aunque la regulación pública suele verse como una intromisión excesiva, la innovación puede prosperar cuando se guía por reglas claras.
¿Es la decisión de Australia de prohibir el uso de redes sociales a menores de 16 años un ejemplo de extralimitación gubernamental, o una señal temprana de lo que exige un liderazgo responsable en la era digital?
Desde la medida de Australia, otros gobiernos han comenzado a debatir restricciones similares, desatando un intenso discurso público. En conjunto, estos avances reflejan una creciente inquietud sobre cómo las plataformas digitales —impulsadas en gran medida por el mercado— están moldeando la vida de los jóvenes.
Esa inquietud se extiende más allá de los responsables de políticas y llega a las familias y comunidades. En Brookline, Massachusetts, un grupo de padres formó "Brookline Kids Unplugged" para motivar a los niños a reducir el tiempo frente a las pantallas, reflejando el creciente malestar por cómo las plataformas digitales están rediseñando la infancia.
Muchos de los riesgos inmediatos ya están bien documentados. UNICEF informa que los niños en muchas regiones están expuestos a contenido online dañino a un ritmo sin precedentes; uno de cada cinco en África y el sudeste asiático ha sufrido alguna forma de daño sexual en línea.
Para las mujeres y las niñas, el panorama es aún más preocupante. El análisis de grandes cantidades de contenido deepfake revela que casi todos los videos sexualmente explícitos de este tipo se crean sin consentimiento, y que cerca del 99% de las personas afectadas son mujeres. Una de cada tres herramientas de deepfake disponibles hoy permite a los usuarios crear contenido sexualmente explícito. Estos resultados no son accidentales; reflejan opciones de diseño que priorizan el crecimiento, la novedad y la escala por encima de la seguridad.
Los gobiernos como guardianes
Esta realidad plantea una pregunta central sobre cómo debe gobernarse la innovación digital en favor del interés público. Una respuesta ya es evidente: la responsabilidad de proteger la dignidad humana y la seguridad no debe quedar solo en manos de la industria. Los gobiernos siempre han tenido el deber de defender el estado de derecho y proteger a los ciudadanos frente al daño. Esa responsabilidad no debe subcontratarse a actores privados cuyos incentivos están definidos por el crecimiento y el lucro, y cuyo propósito fundamental no es la protección de los más vulnerables.
La industria de la IA es aún incipiente, lo que otorga a los gobiernos una ventana estrecha pero crucial para marcar su trayectoria. La historia demuestra con qué frecuencia las sociedades reaccionan ante tecnologías potentes solo cuando el daño ya ha ocurrido. Nick Bostrom captura este peligro en su artículo The Vulnerable World Hypothesis, argumentando que algunas tecnologías pueden volverse tan poderosas que un solo uso indebido podría causar un daño irreversible. Las armas nucleares ofrecen el ejemplo más claro: los esfuerzos internacionales serios para gobernarlas llegaron recién después de los bombardeos de Hiroshima y Nagasaki al final de la Segunda Guerra Mundial. Ese patrón de reaccionar después de que lo peor ya ha sucedido no es algo que podamos permitirnos repetir con la IA. Algunos riesgos son, sencillamente, demasiado grandes como para esperar a su propio Hiroshima.
Ya existen señales tempranas de lo que significa un liderazgo responsable. A nivel internacional, la Unión Europea ha comenzado a establecer expectativas más claras sobre transparencia, rendición de cuentas y gestión de riesgos en el desarrollo y despliegue de sistemas de IA. En Estados Unidos, la gobernanza de la IA está tomando forma a través de un mosaico de leyes estatales, guías de agencias federales y estándares voluntarios.
Varios estados han introducido leyes para abordar temas como los deepfakes, la transparencia de la IA y la discriminación algorítmica. California, por ejemplo, ha aprobado medidas que exigen revelar cuándo el contenido es generado por IA y limitan los usos discriminatorios de sistemas de decisión automatizada en áreas como el empleo. Otros estados han adoptado leyes contra los medios engañosos generados por IA, incluyendo los deepfakes utilizados en elecciones o para el acoso.
Massachusetts está invirtiendo en la alfabetización sobre IA para docentes a través del Project Lead, ayudando a las escuelas a navegar tanto las oportunidades como los riesgos a medida que estas herramientas entran en las aulas. A nivel comunitario, organizaciones locales están usando hackathones para explorar aplicaciones positivas de la IA, mientras fomentan un desarrollo responsable. En las comunidades de investigación y políticas públicas, los primeros esfuerzos sobre mitigación de sesgos y estándares de seguridad están empezando a unirse, ofreciendo plantillas que otras regiones pueden adaptar. Traducir este compromiso compartido en estándares concretos requerirá intervenciones específicas y aplicables en el punto exacto donde ocurre el daño.
Una de estas intervenciones es el requisito de que las plataformas digitales apliquen marcas de agua al contenido generado por IA en sus sistemas, de modo que los medios sintéticos sean identificables y rastreables. Estos sistemas deberían señalar claramente cuándo el contenido ha sido generado o alterado materialmente por IA, preservando la información sobre su origen. Las empresas suelen argumentar que los usuarios encontrarán formas de eliminar estas marcas. Ese riesgo no debería debilitar el argumento, sino intensificar los esfuerzos para desarrollar marcadores técnicos más robustos y persistentes, que sean difíciles de eliminar sin distorsionar visiblemente el contenido original. Colocar la responsabilidad en el punto de creación y circulación ataca el daño justo donde se produce.
¿Exceso de intervención o deber de cuidado?
Quienes critican una mayor participación estatal plantean objeciones importantes. Algunos sostienen que la intervención del gobierno corre el riesgo de caer en una extralimitación que vulnera la libertad personal y la autonomía. Otros afirman que las soluciones tecnológicas son preferibles a las legales, o que la evidencia del daño no es definitiva y que correlación no implica causalidad. También surgen preocupaciones prácticas sobre la ineficacia de las restricciones de edad, el temor a que la regulación sofoque la innovación o la idea de que las decisiones sobre la vida digital de los niños deben recaer en los padres y no en el Estado.
Estas inquietudes merecen ser tomadas en serio; sin embargo, ninguna justifica la inacción. La falta de evidencia perfecta no anula la existencia de un riesgo real y creciente, especialmente cuando los daños afectan desproporcionadamente a niños y mujeres. Las salvaguardas tecnológicas son necesarias pero insuficientes cuando las mismas empresas que diseñan estos sistemas fijan los límites de su propia responsabilidad. La responsabilidad parental importa, pero no puede sustituir los estándares públicos cuando las plataformas están diseñadas para maximizar el engagement a escala masiva. La innovación no prospera en vacíos regulatorios, sino en entornos donde reglas claras protegen la confianza, la seguridad y la legitimidad pública. En sectores de alto riesgo, esperar a tener pruebas definitivas o un cumplimiento perfecto antes de actuar ha significado, históricamente, actuar demasiado tarde.
El desafío más profundo de la era de la IA no es técnico, es ético. Como se sugirió en un evento reciente en Harvard, el verdadero hito en la era de la IA será la capacidad de la humanidad para proteger la dignidad y la autonomía. Esta visión es especialmente urgente cuando pensamos en los niños. ¿Qué significa para un niño que su compañero más cercano sea un bot? ¿Cómo cambiará el desarrollo emocional cuando los algoritmos se conviertan en fuentes de consuelo o validación? ¿Qué pasa con la identidad cuando las experiencias reales y las sintéticas se vuelven borrosas?
Estas preguntas van mucho más allá del alcance de cualquier empresa tecnológica. Son cuestiones de política pública, educación, psicología y desarrollo humano a largo plazo. Por encima de todo, son cuestiones de responsabilidad estatal.
La innovación no requiere menos gobernanza. Requiere una gobernanza que esté a la altura de la escala y la velocidad del cambio tecnológico. La industria de la IA es incipiente, y este momento ofrece una oportunidad única para hacer las cosas de manera diferente. La pregunta ya no es si los gobiernos pueden actuar; la pregunta es si lo harán.
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
Mantente al día:
Ciberseguridad
Temas relacionados:
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global
Más sobre Inteligencia artificialVer todo
Jovan Jovanovic
23 de marzo de 2026







