En un mundo de deepfakes, debemos defender los contenidos sintéticos de IA honestos
La IA ha facilitado la creación de contenidos sintéticos, como los deepfakes, pero los casos de uso no son siempre maliciosos. Image: Getty Images/metamorworks
- El auge de la tecnología de inteligencia artificial (IA) ha impulsado el uso de deepfakes, que incluye vídeo, audio e imágenes artificiales.
- Aunque hay muchos ejemplos negativos de deepfakes, los contenidos sintéticos generados por IA también pueden aportar beneficios.
- Trabajar juntos para aprender sobre los contenidos sintéticos ayudará a identificar los deepfakes maliciosos, al tiempo que se crean casos de uso positivos para la tecnología.
A menudo se ha utilizado la expresión "ver para creer", pero luego apareció la tecnología deepfake. Mientras que fotos, vídeos y grabaciones de audio eran antes la prueba de oro de algo real, los nuevos modelos de inteligencia artificial (IA) que pueden crear medios realistas (pero fake) señalan un cambio de paradigma en la forma en que la gente decide confiar o no en los contenidos.
El término deepfake hace referencia a textos, sonidos e imágenes generados por IA que solo existen como una invención digital: aprendizaje "profundo" + resultados "fake". Este subconjunto de contenidos sintéticos lleva años desarrollándose, pero la aparición de los grandes modelos de lenguaje (LLM) y otros tipos de IA generativa han impulsado aplicaciones gratuitas y de bajo coste que requieren poca habilidad técnica para su uso. Cualquier persona con una conexión a Internet tiene ahora las llaves de los generadores de datos sintéticos.
Por supuesto, este genio ya está fuera de la botella y no podemos devolverlo, aunque quisiéramos. Pero las reacciones precipitadas ante el uso negativo de la tecnología, como prohibiciones o "pausas" intencionadas en la innovación, no resolverán el problema. Como ocurre con gran parte de la IA, los contenidos sintéticos se encuentran en un periodo de transición en el que la ética y la confianza fluctúan.
En este momento, estamos a un lado de un río turbulento de contenidos sintéticos y el futuro está en la otra orilla. Debemos construir un puente de mínimo daño y máximo beneficio sin ser arrastrados en el proceso. La construcción ya ha comenzado y el reto para los responsables políticos, líderes empresariales, tecnólogos y otros es ayudar a la sociedad a realizar la travesía de forma segura. Esto significa llegar a un lugar en el que la tecnología sea algo común, familiar y digno de confianza.
La cuestión es cómo.
Más allá de los deepfakes
Algunos usos conocidos de deepfakes han dado lugar a casos negativos: estudiantes de secundaria que crean contenidos explícitos de sus compañeros de clase, vídeos y audios artificiales de destacados periodistas concebidos para engañar al público e incluso una imagen falsa de un ataque al Pentágono que hizo caer brevemente la bolsa estadounidense. El público es consciente de estos riesgos. Una encuesta de 2023 preguntó a los estadounidenses sobre sus preocupaciones en relación con la IA y el 60% dijo estar "muy preocupado" por los deepfakes, más que por cualquier otro riesgo de la IA para la sociedad.
Pero los defensores e innovadores que ven aplicaciones válidas y beneficiosas para los contenidos sintéticos están haciendo frente a las previsiones más sombrías. Algunas empresas ya ofrecen una especie de modelo de negocio de "deepfake como servicio". Los cineastas y creadores de contenidos podrían beneficiarse, pero también hay aplicaciones más imaginativas, como la traducción de idiomas: la cantante FKA Twigs ha creado una deepfake de sí misma que puede utilizar su tono de voz para hablar en diferentes idiomas. Aunque no tan emocionantes, los datos sintéticos también se están explorando como sustituto de las aportaciones humanas en el entrenamiento de la IA.
Los enfoques actuales de los contenidos sintéticos muestran tanto las oportunidades como los riesgos. Pero también tenemos que pensar en grande -y a más largo plazo- para crear un futuro en el que los generadores de contenidos sintéticos sean aún más realistas, baratos y accesibles. No hay una única forma de eliminar los riesgos de los contenidos sintéticos y aumentar sus beneficios. Al igual que otras tecnologías anteriores, ganarse la confianza de la sociedad dependerá de cómo se utilicen los contenidos sintéticos y de los guardarraíles que rodeen su desarrollo.
Ámbitos de responsabilidad
La responsabilidad de dar forma y utilizar los contenidos sintéticos de manera honesta debe ser compartida por múltiples grupos.
En primer lugar, las empresas tecnológicas determinan qué herramientas construir y lanzar, por lo que sus decisiones importan. Por ejemplo, ¿es una decisión responsable desplegar una herramienta de clonación de voz conociendo su potencial de uso indebido? Se trata de una cuestión especialmente importante en un año en el que la mitad de la población mundial votará en elecciones democráticas.
El sector privado en general también tiene un papel que desempeñar. El contenido sintético tiene una serie de usos para las empresas privadas, desde proveer atención personalizada al cliente hasta permitir a los empleados utilizar recursos remotamente. Sin embargo, si los clientes se sienten engañados por la forma en que se utiliza esta tecnología o si los empleados perciben una amenaza para su trabajo o su bienestar, la confianza se verá afectada.
Las ONG, las organizaciones sin ánimo de lucro, las organizaciones benéficas y otras organizaciones pro-sociales también pueden explorar cómo aplicaciones comerciales de los contenidos sintéticos pueden ayudar a promover la equidad, el acceso a oportunidades, la confianza en la tecnología y la alfabetización tecnológica. El reto para este grupo es reimaginar los usos de contenidos sintéticos que puedan ofrecer valor social a todas las personas por igual.
Los legisladores y reguladores también se encuentran en una posición importante cuando se trata de contenidos sintéticos. Deben crear normas en torno a una tecnología que cambia más rápido de lo que pueden deliberar. Organismos gubernamentales de múltiples niveles están intentando promulgar leyes (o volver a aplicar las existentes) para regular el uso de contenidos sintéticos. Pero un planteamiento legislativo perpetuamente reactivo puede quedarse corto e inconexo. Los responsables políticos deben adoptar un enfoque coordinado y estratégico para regular esta tecnología en rápida evolución.
¿Has leído?
Para vencer a los deepfakes, necesitamos demostrar lo que es real. Te enseñamos cómo.
De deepfakes a la ingeniería social: esto es lo que hay que saber sobre elecciones, ciberseguridad e IA
¿Cómo combatir el preocupante aumento del uso de deepfakes en la ciberdelincuencia?
Generar confianza en la IA significa ir más allá de los algoritmos ocultos. ¿Por qué?
Por último, el público en general tiene una doble responsabilidad. En primer lugar, debe desarrollar una alfabetización en IA para entender lo que esta tecnología puede hacer. Esto no es muy diferente de cómo la gente ha aprendido a participar en la ciberseguridad vigilando las estafas por correo electrónico y las descargas maliciosas. En segundo lugar, el público debe asumir la responsabilidad de utilizar esta tecnología de forma productiva, lo que requiere educación. Esto implica que los padres enseñen a sus hijos, que los empresarios eduquen a sus trabajadores y que las personalidades públicas informen al público.
Cada grupo se enfrenta a un nudo de decisiones que, en conjunto, determinarán si los contenidos sintéticos merecen nuestra confianza -o no- en el futuro. Si cruzamos juntos el puente de deepfake, podremos crear un futuro digno de confianza para los contenidos sintéticos.
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global
Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.
Más sobre Tecnologías emergentesVer todo
Benjamin Schönfuß
4 de noviembre de 2024