¿Qué esperar de la próxima generación de modelos de IA generativa?
La IA generativa está en evolución. Image: REUTERS/Dado Ruvic/Illustration
- Pronto llegará al mercado una nueva generación de modelos de IA generativa, como ChatGPT-5 de OpenAI y Llama 3 de Meta.
- Los desarrolladores buscan optimizar y ampliar las capacidades de los nuevos modelos -por ejemplo, resolviendo sesgos y errores-, habilitar el razonamiento y la planificación, y abordar los retos éticos.
- El marco de IA del Foro Económico Mundial tiene el objetivo de mejorar la gobernanza de la IA generativa, estableciendo guardarraíles a medida que evolucionan tanto las plataformas de IA como su uso.
Decir que la IA generativa ha tomado el mundo por asalto sería subestimar la auténtica avalancha que se desató cuando OpenAI lanzó ChatGPT a finales de 2022. Ahora ha anunciado la llegada de su última actualización, ChatGPT-5, seguido de cerca por Meta, con una actualización de su motor de IA de código abierto, Llama, informa Financial Times.
IA generativa: disrupción y transformación
La unión de las metodologías de IA, el procesamiento de datos de alto rendimiento y la "nube" convergieron para hacer realidad lo que habían anticipado durante mucho tiempo tanto la ciencia como la ciencia ficción. No hace falta decir que la IA ha transformado radicalmente nuestra forma de trabajar y de vivir, y que no se vislumbra el final.
Statista prevé que el mercado de IA generativa crezca hasta los 1,3 billones de dólares en 2032, frente a los solo 14 000 millones de 2020. En 2023, se situaba en 900 000 millones de dólares.
Como señala el Foro Económico Mundial en su informe Top 10 Emerging Technologies de 2023, los modelos de IA generativa que han dominado los titulares durante el último año se centran principalmente en texto, programación, imágenes y sonido. Sin embargo, su aplicación podría ampliarse con el tiempo a medida que avance la tecnología.
ChatGPT, Llama, la última oferta de IA de Google, Gemini, y Copilot de Microsoft son grandes modelos lingüísticos (LLM). Se trata de algoritmos que pueden analizar, resumir, predecir y generar nuevos contenidos utilizando técnicas de aprendizaje profundo y grandes conjuntos de datos. Los LLM se suelen entrenar utilizando alrededor de mil millones de variables o más, aunque no hay consenso sobre cuántos datos se necesitan para entrenar un LLM.
Se actualizan los LLM
A pesar de las ventajas asociadas a la IA generativa -simplificar, agilizar y automatizar trabajos que antes eran manuales-, también se han puesto de manifiesto sus puntos débiles. El uso de la IA no solo plantea problemas éticos y de seguridad, sino que, como señala TechTarget, hay cuestiones como la parcialidad -que puede ser difícil de identificar y eliminar- y las alucinaciones, cuando un motor de IA da una respuesta errónea.
Una investigación realizada el año pasado por el Washington Post demostró que un generador de imágenes de inteligencia artificial recurría a estereotipos occidentales obsoletos cuando se le pedía que produjera imágenes de personas o casas atractivas de todo el mundo.
El entrenamiento y la evolución continuos de los algoritmos de los LLM son fundamentales para resolver estos problemas y avanzar en las aplicaciones de IA generativa.
Además de reducir los sesgos y las alucinaciones, la ambición de los desarrolladores tanto de ChatGPT-5 como de Llama 3 es llevar los motores más allá de los simples chatbots. Para ampliar el alcance de los usos a tareas más complejas, será crucial capacitar a los LLM para razonar, planificar y retener información. También tendrán que aprender a calibrar los efectos de sus acciones, señala el Financial Times.
Otra área de desarrollo tanto para Llama como para ChatGPT es la multimodalidad, que permite a la IA procesar no sólo texto, sino también voz, imágenes, código y vídeos. Además, se espera que la oferta de próxima generación incluya mayores niveles de personalización.
¿Qué está haciendo el Foro Económico Mundial en el ámbito de la cuarta revolución industrial?
Cuestiones éticas en la IA generativa
Se sabe que GPT-5 se encuentra en un proceso intenso de pruebas y entrenamiento, con un fuerte enfoque en protocolos de seguridad para abordar las preocupaciones éticas. Sin embargo, al tratar de eliminar sesgos y errores, las empresas de IA generativa pueden conseguir inadvertidamente lo contrario, como descubrió Google para su propio infortunio.
Cuando se lanzó por primera vez, el módulo de generación de imágenes de su plataforma Gemini generaba imágenes de grupos históricamente blancos, como los padres de la patria de Estados Unidos o los soldados alemanes de los años 30, como personas de color, o producía jugadoras de hockey cuando se le pedían imágenes de una conocida liga exclusivamente masculina. Al tratar de eliminar los prejuicios, Google había sobrecorregido involuntariamente su motor de inteligencia artificial.
Sin embargo, este ajuste será una constante a medida que los motores de IA generativa sigan evolucionando. Y a medida que se extiende el uso de la IA y las organizaciones crean sus propios LLM o adaptan la plataforma principal a sus fines, la necesidad de marcos de gobernanza sólidos sigue siendo un tema corriente. Por ejemplo, el Foro Económico Mundial ha propuesto un marco para la IA que promueve la seguridad, la ética y la innovación con guardarraíles para guiar el desarrollo.
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global