Así es como se puede hacer una IA responsable, según 2 startups liderando el campo
La IA responsable está dando mucho que pensar a los filósofos. Image: Unsplash
Listen to the article
- Dos empresas a la vanguardia del desarrollo de IA generativa hablan al podcast de Radio Davos sobre cómo garantizar que la tecnología sea segura y ética.
- Natasha Crampton, jefa responsable de Inteligencia Artificial de Microsoft, afirma que las empresas deben actuar con moderación, pero también necesitan regulación.
- Thomas Wolf, cofundador de la start-up Hugging Face, nos cuenta cómo es lanzar un chatbot de inteligencia artificial generativa.
- Suscríbase para recibir toda la serie de podcasts; Página del episodio y transcripción: https://www.weforum.org/podcasts/radio-davos/episodes/ai-episode-2-microsoft-hugging-face
Microsoft es una de las protagonistas de la revolución de la inteligencia artificial. Entonces, ¿cómo consigue la gigante del software, que ha ido integrando la tecnología ChatGPT en los productos que la mayoría de nosotros utilizamos, que sus productos de IA sean responsables y éticos?
En el segundo episodio de la serie de podcasts del Foro Económico Mundial sobre IA generativa, Natasha Crampton, Directora de IA Responsable de Microsoft, habla de responsabilidad y regulación.
Asimismo, Thomas Wolf, cofundador de la empresa Hugging Face, de Silicon Valley, nos cuenta qué se siente al lanzar al mundo un chatbot de inteligencia artificial.
A continuación, lo que dijeron:
Desarrollando una IA responsable
"Mi trabajo consiste en poner en práctica en toda la empresa los seis principios de la IA que hemos adoptado en Microsoft", afirma Natasha Crampton. "Nuestros seis principios que forman nuestra estrella polar son la equidad, la privacidad y la seguridad, la fiabilidad y la seguridad, la inclusión, la responsabilidad y la transparencia".
"Microsoft considera desde hace tiempo que es necesario que tanto las organizaciones responsables como nosotros ejerzamos la autocontención y pongamos en marcha las mejores prácticas para asegurarnos de que los sistemas de IA son seguros, dignos de confianza y fiables", añade.
"También reconocemos que necesitamos regulación. No hay duda de que necesitaremos nuevas leyes, normas y estándares para crear confianza en esta nueva tecnología y también para dar a todos la protección de la ley."
"Aunque nos encantaría que todas las empresas decidieran adoptar las prácticas más responsables que pudieran, no es una hipótesis realista", afirma. "Creemos que es importante que exista esta protección de base para todos y eso ayudará a generar confianza en la tecnología".
¿Qué está haciendo el Foro Económico Mundial para aumentar la inteligencia digital de la población infantil?
Transparencia es clave para confianza en la IA
Thomas Wolf, cofundador de Hugging Face, afirma que el enfoque de código abierto de su empresa es una forma importante de lograr una IA responsable.
"Tener un modelo abierto es muy importante", dice Wolf. "La gente tiene que entender dónde puede fallar la IA o confiar en dónde funcionará. Necesitan ser conscientes de los sesgos que puede tener en estas herramientas, o cómo podrían ser mal utilizadas."
Wolf afirma que permitir que todo el mundo acceda al código fuente de su plataforma es la máxima expresión de transparencia. "Si el modelo es abierto, no hay por qué creer sólo a quienes lo han creado. Puedes auditar el modelo tú mismo, leer cómo se hizo, profundizarte en los datos de entrenamiento y plantear problemas", añade. "Tenemos muchas páginas de debate sobre nuestros modelos en las que la gente puede discutir modelos y plantear preguntas".
¿Deberíamos detener el desarrollo de la IA hasta que sepamos que es segura?
En una reciente carta abierta firmada por miles de ingenieros de IA y líderes empresariales, se pedía una pausa de seis meses en el desarrollo de modelos de IA más potentes que ChatGPT. La idea era dar tiempo a los reguladores para ponerse al día con el ritmo de desarrollo y a las empresas tecnológicas para comprender mejor los riesgos potenciales. Crampton reconoce las preocupaciones, pero afirma que detener el desarrollo sería contraproducente.
"En lugar de interrumpir la importante labor de investigación y desarrollo que se está llevando a cabo, incluida la seguridad de estos modelos, creo que deberíamos centrarnos en un plan de acción", afirma. "Deberíamos poner sobre la mesa nuestras mejores ideas sobre las prácticas que son eficaces hoy en día para asegurarnos de que identificamos, medimos y mitigamos los riesgos. Y también deberíamos aportar nuestras mejores ideas sobre las nuevas leyes, normas y estándares que necesitamos en este espacio."
Normativa sectorial sobre IA
Wolf cree que el ritmo de desarrollo de la IA no hará sino acelerarse y que ningún marco regulador indiscriminado funcionará. Prefiere la idea de una regulación sectorial, similar a la de la aviación comercial o la industria nuclear: "Si es en campos específicos, tendría sentido. Cuando se habla de aerolíneas, se trata de un campo muy específico, el de las aerolíneas comerciales. No ocurre lo mismo con otros tipos de aviación", afirma Wolf.
"Creo que una vez que se haya identificado un sector específico en el que existe un peligro concreto que queremos prevenir, entonces tiene sentido. Creo que una regulación a este nivel sería muy positiva e interesante. Pero algo que sólo cubriera la IA en general me parece que sería demasiado amplio para ser eficaz".
La IA y el trabajo
Un punto importante en el debate sobre IA responsable ha enfocado su impacto en el empleo y los trabajos que todos realizamos. Se han planteado cuestiones sobre su uso en la contratación, para preseleccionar e incluso seleccionar candidatos. Se reconoce que la IA puede introducir sesgos en los procesos de selección como resultado de los datos con los que se ha entrenado.
Quizá la mayor pregunta de todas sea quién hará el trabajo: ¿los humanos o la IA? El Informe sobre el Futuro del Empleo 2023 del Foro ha identificado una tendencia en la que las máquinas realizan cada vez más tareas que antes hacían las personas.
Es probable que esta tendencia se acelere en los próximos años, pero Crampton no cree que la IA vaya a sustituir a los humanos, aunque le ha impresionado lo que puede hacer ChatGPT.
"Le pedi a una primera versión del GPT-4 que elaborara un proyecto de ley para regular la IA basándose en una metodología de evaluación de impacto. Obtuve un resultado que era un primer borrador muy decente.
"Por supuesto, es muy, muy importante ser juicioso al respecto y, como abogada de formación, sin duda capté algunos errores. Es importante entender en qué es buena la tecnología y reconocer sus defectos.
"Tenemos que encontrar un equilibrio que combine lo mejor de la IA con lo mejor de los humanos. Esta tecnología es esencialmente un copiloto para hacer estas tareas y mejorar la capacidad humana."
Puedes escuchar el podcast completo de Radio Davos aquí:
Y el episodio anterior aquí:
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
Mantente al día:
Tecnologías emergentes
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global
Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.
Más sobre Tecnologías emergentesVer todo
Benjamin Schönfuß
4 de noviembre de 2024