Tecnologías emergentes

¿Cómo combatir el preocupante aumento del uso de deepfakes en la ciberdelincuencia?

Periódicos saliendo de la imprenta, ilustrando ilustran los peligros de las deepfake news.

Las deepfake news son una creciente preocupación mundial. Image: Bank Phrom/ Unsplash

Gretchen Bueermann
Knowledge Lead, Centre for Cybersecurity, World Economic Forum
Natasa Perucica
Research and Analysis Specialist, Cybersecurity Industry Solutions, World Economic Forum
Comparte:
Nuestro impacto
¿Qué está haciendo el Foro Económico Mundial para acelerar la acción en Tecnologías emergentes??
La visión global
Explora y monitorea cómo Ciberseguridad afecta a las economías, las industrias y los problemas globales
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala
Mantente al día:

Tecnologías emergentes

Listen to the article

  • En 2022, el 66% de los profesionales de la ciberseguridad experimentaron ataques deepfake dentro de sus respectivas organizaciones.
  • Los investigadores predicen que hasta el 90% de los contenidos en línea podrían generarse sintéticamente en 2026.
  • Con el desarrollo de nuevas tecnologías de detección y un enfoque continuo en la educación y las consideraciones éticas, podemos trabajar juntos para combatir los deepfakes y garantizar que la tecnología deepfake se utilice para un bien mayor.

En los últimos años, hemos asistido a un aumento de los deepfakes. Entre 2019 y 2020, el número de contenidos en línea deepfake aumentó en un 900%. Las previsiones sugieren que esta preocupante tendencia continuará en los próximos años - con algunos investigadores prediciendo que "hasta el 90% del contenido en línea puede ser generado sintéticamente para 2026." A menudo utilizados para engañar y realizar ataques de ingeniería social, los deepfakes erosionan la confianza en la tecnología digital y suponen una amenaza cada vez mayor para las empresas.

En 2022, el 66% de los profesionales de la ciberseguridad experimentaron ataques deepfake dentro de sus respectivas organizaciones. Un ejemplo de delito de deepfake incluye la creación de mensajes de audio falsos de los CEO u otros altos ejecutivos de empresas, utilizando software de alteración de voz para hacerse pasar por ellos. Estos mensajes de audio manipulados suelen contener peticiones urgentes para que el destinatario transfiera dinero o revele información sensible.

La investigación muestra que el sector bancario está particularmente preocupado por los ataques deepfake, con un 92% de ciberprofesionales preocupados por su uso fraudulento. Los servicios, como la banca personal y los pagos, suscitan especial aprensión, y esta preocupación no es infundada. Por ejemplo, en 2021, un director de banco fue engañado para que transfiriera 35 millones de dólares a una cuenta fraudulenta.

El elevado coste de los deepfakes también se deja sentir en otros sectores. El año pasado, el 26% de las pequeñas y el 38% de las grandes empresas sufrieron fraudes de deepfake que les ocasionaron pérdidas de hasta 480 000 dólares.

Los deepfakes también pueden socavar los resultados electorales, la estabilidad social e incluso la seguridad nacional, sobre todo en el contexto de las campañas de desinformación. En algunos casos, los deepfakes se han utilizado para manipular a la opinión pública o difundir noticias falsas que generan desconfianza y confusión entre el público.

¿Has leído?

El impacto de la IA en el riesgo de deepfakes

El desarrollo de la inteligencia artificial (IA) ha aumentado significativamente el riesgo de deepfakes. Los algoritmos de IA, incluidos los modelos generativos, pueden ahora crear medios difíciles de distinguir de imágenes, vídeos o grabaciones de audio reales. Además, estos algoritmos pueden adquirirse a bajo coste y entrenarse en conjuntos de datos de fácil acceso, lo que facilita a los ciberdelincuentes la creación de deepfakes convincentes para ataques de phishing y contenidos de estafa.

Sin embargo, a medida que evolucionan los deepfakes, también lo hacen la tecnología y las herramientas para detectar estas amenazas. Ahora, los detectores de deepfakes pueden ayudar a determinar a partir de rasgos biométricos, como el latido del corazón o la frecuencia de la voz humana, si el contenido de vídeo o audio es auténtico o no.

Dicho esto, como tecnología de doble uso, la IA también puede complicar aún más las cosas, generando contenido sintético diseñado específicamente para eludir la detección por parte de las actuales herramientas de detección de deepfakes.

Descubre

¿Qué está haciendo el Foro Económico Mundial para aumentar la inteligencia digital de la población infantil?

Los riesgos agravados de los deepfakes

Aunque las estafas deepfake plantean riesgos importantes, también pueden agravar los riesgos de otras actividades ciberdelictivas, como el robo de identidad. Los deepfakes, por ejemplo, pueden utilizarse para crear documentos de identidad falsos, facilitando a los ciberdelincuentes la suplantación de personas o el acceso a sistemas seguros. Además, los deepfakes pueden utilizarse para crear grabaciones de audio o vídeo falsas de personas, que pueden utilizarse para chantajearlas o extorsionarlas.

El robo de identidad, a su vez, puede agravar los riesgos que plantean las estafas de deepfake. Por ejemplo, los ciberdelincuentes pueden utilizar identidades robadas para crear deepfakes más convincentes, o utilizar deepfakes para perpetrar nuevos robos de identidad.

Para mitigar estos riesgos agravados, debemos adoptar un enfoque múltiple. Esto incluye invertir en tecnologías más sofisticadas de detección, así como mejorar los sistemas de verificación de identidad, incluido el uso de la verificación biométrica y de datos vitales, para evitar el uso indebido de los deepfakes en la usurpación de identidad.

Posibles soluciones

Para hacer frente a estas amenazas emergentes, debemos seguir desarrollando y mejorando las tecnologías de detección de deepfakes. Esto puede implicar el uso de algoritmos más sofisticados, así como el desarrollo de nuevos métodos que puedan identificar deepfakes basándose en su contexto, metadatos u otros factores.

Otra posible solución es promover la alfabetización mediática y el pensamiento crítico. Educando al público sobre los peligros de las deepfakes y sobre cómo detectarlas, podemos reducir el impacto de estas campañas maliciosas. La incorporación de un marco de confianza digital en el uso cotidiano puede ayudar a tranquilizar a las personas en cuanto a que las tecnologías y servicios digitales -y las organizaciones que los proporcionan- protegerán los intereses de todas las partes interesadas y mantendrán las expectativas y valores de la sociedad."

Por último, debemos considerar las implicaciones éticas de la IA y la tecnología deepfake. Los gobiernos y los organismos reguladores pueden desempeñar un papel importante en la elaboración de políticas que regulen la tecnología deepfake y promuevan un desarrollo y un uso de la tecnología transparentes, responsables y que rindan cuentas. De este modo, podemos garantizar que la IA no cause daños.

En conclusión, la tecnología deepfake es una amenaza creciente, sobre todo en manos de los ciberdelincuentes. Con el auge de la IA, los riesgos que plantean los deepfakes son cada vez más significativos. Sin embargo, con el desarrollo de nuevas tecnologías de detección y un enfoque continuo en la educación y las consideraciones éticas, podemos trabajar juntos para mitigar estos riesgos y garantizar que la tecnología deepfake se utilice para un bien mayor.

Loading...
No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Temas relacionados:
Tecnologías emergentesCiberseguridad
Comparte:
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

Cómo desbloquear el valor de la infraestructura de movilidad conectada

Maria Alonso, Markus Hagenmaier and Ivan Butenko

17 de abril de 2024

Sobre nosostros

Eventos

Medios

Socios y Miembros

  • Únete

Ediciones en otros idiomas

Política de privacidad y normas de uso

© 2024 Foro Económico Mundial