Estados Unidos, reconocido como líder mundial en inteligencia artificial (IA) gracias a empresas como OpenAI, Google y Meta, ha anunciado la necesidad de colaboración internacional para gestionar los riesgos asociados a esta tecnología.
Durante la cumbre internacional de Seguridad de la IA (AI Seoul Summit 2024), celebrada en Seúl, Corea del Sur, la secretaria de Comercio de EE. UU., Gina Raimondo, anunció la creación de una red global de institutos de seguridad en inteligencia artificial. Esta red, que incluye a Estados Unidos, Reino Unido, Japón, Canadá y otros aliados, tiene como objetivo mitigar los riesgos de la IA. Raimondo instó a otros países a unirse a esta iniciativa.
Preocupaciones sobre la seguridad de la IA
Jason Matheny, director general del grupo de expertos Rand Corporation, advirtió que los avances en IA están facilitando la creación de armas biológicas y otras herramientas destructivas. “Los avances recientes en IA tienen un potencial transformador para nuestra sociedad, pero es esencial que trabajemos para mitigar los peligros reales”, declaró Raimondo, subrayando la importancia de establecer normas que protejan los derechos humanos y la seguridad.
Red global de seguridad
Estados Unidos ha identificado riesgos para la seguridad nacional asociados con la IA, como el desarrollo automatizado de armas biológicas y ciberataques más sofisticados contra infraestructuras críticas. Raimondo indicó que Estados Unidos, Reino Unido, Japón, Canadá, Singapur y la Oficina Europea de IA serán los miembros fundadores de esta red global.
El Departamento de Comercio de EE. UU. (DOC) no aclaró si se había invitado a China a unirse a la red, pero destacó que Estados Unidos y China han acordado mantener conversaciones sobre los riesgos y la seguridad de la IA. Representantes de ambas naciones se reunieron recientemente en Suiza para la primera ronda de deliberaciones.
Próximos pasos
Los representantes de la nueva red global mundial de seguridad de la IA se reunirán en San Francisco a finales de este año para desarrollar metodologías y herramientas para evaluar y mitigar los riesgos de los modelos de IA. Un documento del DOC señala que la red ayudará a desarrollar prácticas que sustenten futuros acuerdos para la gobernanza internacional de la IA.
Contexto internacional
La cumbre de Seúl sobre seguridad de la IA, coorganizada por el gobierno del Reino Unido, sigue a una reunión internacional sobre el tema celebrada en noviembre pasado. En esa ocasión, más de 28 países, incluidos Estados Unidos y China, firmaron una declaración advirtiendo de los posibles daños graves de la IA.
En octubre, el presidente Biden emitió una orden ejecutiva para abordar los peligros y oportunidades de la IA, instruyendo al DOC para desarrollar normas de seguridad a escala global. Además, se estableció la creación de un Instituto para la Seguridad de la IA en EE. UU. para examinar sistemáticamente los modelos de IA y comprender sus posibles usos indebidos.
Desafíos y regulaciones
El rápido despliegue de sistemas de IA generativa como ChatGPT ha generado preocupaciones sobre la difusión de desinformación y la interferencia en las elecciones. En enero, algunos votantes de Nuevo Hampshire recibieron llamadas automatizadas con una imitación de la voz de Joe Biden generada por IA.
La regulación adecuada y responsable de la IA es crucial para asegurar que esta tecnología se utilice de manera beneficiosa y segura para la sociedad.