Tecnologías emergentes

En un mundo de deepfakes, debemos defender los contenidos sintéticos de IA honestos

Concepto de red social.

La IA ha facilitado la creación de contenidos sintéticos, como los deepfakes, pero los casos de uso no son siempre maliciosos. Image: Getty Images/metamorworks

Beena Ammanath
Board Member, Centre for Trustworthy Technology
Comparte:
Nuestro impacto
¿Qué está haciendo el Foro Económico Mundial para acelerar la acción en Tecnologías emergentes??
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala
  • El auge de la tecnología de inteligencia artificial (IA) ha impulsado el uso de deepfakes, que incluye vídeo, audio e imágenes artificiales.
  • Aunque hay muchos ejemplos negativos de deepfakes, los contenidos sintéticos generados por IA también pueden aportar beneficios.
  • Trabajar juntos para aprender sobre los contenidos sintéticos ayudará a identificar los deepfakes maliciosos, al tiempo que se crean casos de uso positivos para la tecnología.

A menudo se ha utilizado la expresión "ver para creer", pero luego apareció la tecnología deepfake. Mientras que fotos, vídeos y grabaciones de audio eran antes la prueba de oro de algo real, los nuevos modelos de inteligencia artificial (IA) que pueden crear medios realistas (pero fake) señalan un cambio de paradigma en la forma en que la gente decide confiar o no en los contenidos.

El término deepfake hace referencia a textos, sonidos e imágenes generados por IA que solo existen como una invención digital: aprendizaje "profundo" + resultados "fake". Este subconjunto de contenidos sintéticos lleva años desarrollándose, pero la aparición de los grandes modelos de lenguaje (LLM) y otros tipos de IA generativa han impulsado aplicaciones gratuitas y de bajo coste que requieren poca habilidad técnica para su uso. Cualquier persona con una conexión a Internet tiene ahora las llaves de los generadores de datos sintéticos.

Por supuesto, este genio ya está fuera de la botella y no podemos devolverlo, aunque quisiéramos. Pero las reacciones precipitadas ante el uso negativo de la tecnología, como prohibiciones o "pausas" intencionadas en la innovación, no resolverán el problema. Como ocurre con gran parte de la IA, los contenidos sintéticos se encuentran en un periodo de transición en el que la ética y la confianza fluctúan.

En este momento, estamos a un lado de un río turbulento de contenidos sintéticos y el futuro está en la otra orilla. Debemos construir un puente de mínimo daño y máximo beneficio sin ser arrastrados en el proceso. La construcción ya ha comenzado y el reto para los responsables políticos, líderes empresariales, tecnólogos y otros es ayudar a la sociedad a realizar la travesía de forma segura. Esto significa llegar a un lugar en el que la tecnología sea algo común, familiar y digno de confianza.

La cuestión es cómo.

Más allá de los deepfakes

Algunos usos conocidos de deepfakes han dado lugar a casos negativos: estudiantes de secundaria que crean contenidos explícitos de sus compañeros de clase, vídeos y audios artificiales de destacados periodistas concebidos para engañar al público e incluso una imagen falsa de un ataque al Pentágono que hizo caer brevemente la bolsa estadounidense. El público es consciente de estos riesgos. Una encuesta de 2023 preguntó a los estadounidenses sobre sus preocupaciones en relación con la IA y el 60% dijo estar "muy preocupado" por los deepfakes, más que por cualquier otro riesgo de la IA para la sociedad.

Pero los defensores e innovadores que ven aplicaciones válidas y beneficiosas para los contenidos sintéticos están haciendo frente a las previsiones más sombrías. Algunas empresas ya ofrecen una especie de modelo de negocio de "deepfake como servicio". Los cineastas y creadores de contenidos podrían beneficiarse, pero también hay aplicaciones más imaginativas, como la traducción de idiomas: la cantante FKA Twigs ha creado una deepfake de sí misma que puede utilizar su tono de voz para hablar en diferentes idiomas. Aunque no tan emocionantes, los datos sintéticos también se están explorando como sustituto de las aportaciones humanas en el entrenamiento de la IA.

Los enfoques actuales de los contenidos sintéticos muestran tanto las oportunidades como los riesgos. Pero también tenemos que pensar en grande -y a más largo plazo- para crear un futuro en el que los generadores de contenidos sintéticos sean aún más realistas, baratos y accesibles. No hay una única forma de eliminar los riesgos de los contenidos sintéticos y aumentar sus beneficios. Al igual que otras tecnologías anteriores, ganarse la confianza de la sociedad dependerá de cómo se utilicen los contenidos sintéticos y de los guardarraíles que rodeen su desarrollo.

Loading...

Ámbitos de responsabilidad

La responsabilidad de dar forma y utilizar los contenidos sintéticos de manera honesta debe ser compartida por múltiples grupos.

En primer lugar, las empresas tecnológicas determinan qué herramientas construir y lanzar, por lo que sus decisiones importan. Por ejemplo, ¿es una decisión responsable desplegar una herramienta de clonación de voz conociendo su potencial de uso indebido? Se trata de una cuestión especialmente importante en un año en el que la mitad de la población mundial votará en elecciones democráticas.

El sector privado en general también tiene un papel que desempeñar. El contenido sintético tiene una serie de usos para las empresas privadas, desde proveer atención personalizada al cliente hasta permitir a los empleados utilizar recursos remotamente. Sin embargo, si los clientes se sienten engañados por la forma en que se utiliza esta tecnología o si los empleados perciben una amenaza para su trabajo o su bienestar, la confianza se verá afectada.

Las ONG, las organizaciones sin ánimo de lucro, las organizaciones benéficas y otras organizaciones pro-sociales también pueden explorar cómo aplicaciones comerciales de los contenidos sintéticos pueden ayudar a promover la equidad, el acceso a oportunidades, la confianza en la tecnología y la alfabetización tecnológica. El reto para este grupo es reimaginar los usos de contenidos sintéticos que puedan ofrecer valor social a todas las personas por igual.

Los legisladores y reguladores también se encuentran en una posición importante cuando se trata de contenidos sintéticos. Deben crear normas en torno a una tecnología que cambia más rápido de lo que pueden deliberar. Organismos gubernamentales de múltiples niveles están intentando promulgar leyes (o volver a aplicar las existentes) para regular el uso de contenidos sintéticos. Pero un planteamiento legislativo perpetuamente reactivo puede quedarse corto e inconexo. Los responsables políticos deben adoptar un enfoque coordinado y estratégico para regular esta tecnología en rápida evolución.

¿Has leído?

Por último, el público en general tiene una doble responsabilidad. En primer lugar, debe desarrollar una alfabetización en IA para entender lo que esta tecnología puede hacer. Esto no es muy diferente de cómo la gente ha aprendido a participar en la ciberseguridad vigilando las estafas por correo electrónico y las descargas maliciosas. En segundo lugar, el público debe asumir la responsabilidad de utilizar esta tecnología de forma productiva, lo que requiere educación. Esto implica que los padres enseñen a sus hijos, que los empresarios eduquen a sus trabajadores y que las personalidades públicas informen al público.

Cada grupo se enfrenta a un nudo de decisiones que, en conjunto, determinarán si los contenidos sintéticos merecen nuestra confianza -o no- en el futuro. Si cruzamos juntos el puente de deepfake, podremos crear un futuro digno de confianza para los contenidos sintéticos.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Comparte:
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

Por qué este sindicato de docentes no teme que la IA sustituya a los profesores

David Elliott

4 de julio de 2024

Sobre nosostros

Eventos

Medios

Socios y Miembros

  • Iniciar sesión
  • Únete

Ediciones en otros idiomas

Política de privacidad y normas de uso

© 2024 Foro Económico Mundial