La comunidad internacional acuerda mecanismos para vigilar la inteligencia artificial
Tecnología
En el encuentro se ha concretado un plan, respaldado por las principales empresas del sector, que permitirá a las autoridades evaluar si los algoritmos de IA pueden ser peligrosos para la "seguridad nacional" o daños sociales"
La comunidad internacional se une frente a las amenazas "catastróficas" de la inteligencia artificial
Bletchley Park (Reino Unido)/Los 28 países reunidos en la cumbre global de seguridad sobre inteligencia artificial (IA) en Bletchley Park (Inglaterra) han acordado crear un panel internacional para vigilar los avances en ese campo, así como mecanismos para poner a prueba los nuevos modelos inteligentes antes de que estén disponibles para el público.
Estados Unidos, China y la Unión Europea (UE), los principales bloques con influencia en el desarrollo de la IA, se han alineado para crear un panel de expertos inspirado en el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC, en inglés) que evaluará el estado de los avances en este campo.
En el encuentro impulsado por el Reino Unido también se ha concretado un plan, al que han dado respaldo las principales empresas del sector, que permitirá a las autoridades evaluar si los algoritmos de IA pueden ser peligrosos para la "seguridad nacional", o bien provocar "daños sociales".
"Hasta ahora, las únicas personas que probaban la seguridad de los nuevos modelos de IA han sido las propias empresas que los desarrollaban. Eso debe cambiar", afirmó Sunak al presentar las conclusiones de la cumbre.
Alerta sobre los peligros
Los acuerdos se suman a la declaración conjunta que firmaron los países en la primera jornada del encuentro, que alerta sobre las posibles consecuencias "catastróficas" de la IA y apuesta por la cooperación internacional como la mejor forma de hacerles frente.
Entre los líderes que acudieron a la cumbre, la presidenta de la Comisión Europea, Ursula von der Leyen, se mostró partidaria de inspirarse en el desarrollo de la energía nuclear en el siglo XX para manejar los riesgos y beneficios asociados a esta nueva tecnología. Abogó asimismo por crear un sistema de estándares similar al que rige en el sector de la aviación para tratar de minimizar los peligros de los futuros sistemas inteligentes.
El secretario general de la ONU, António Guterres, coincidió en el peligro de que la tecnología avance en "direcciones imprevistas" y en la posibilidad de llegar a "perder el control" de los sistemas, y llamó a mantener los principios de la Carta de Naciones Unidas y la Declaración Universal de los Derechos Humanos para regular la IA.
Han participado asimismo en la cumbre la vicepresidenta de Estados Unidos, Kamala Haris, así como directivos de las principales empresas del sector, como OpenAI, Google DeepMind, Anthropic, Meta y Microsoft.
Debates a puerta cerrada
Durante la jornada de este jueves se celebraron dos sesiones plenarias a puerta cerrada. En la primera de ellas, los países del G7, la Unión Europea, Singapur, Australia y la ONU abordaron las prioridades políticas en torno a la seguridad de la IA a cinco años vista.
Uno de los propósitos esenciales de la cumbre ha sido coordinar las diversas normativas que están en marcha para regular la IA, una tecnología que va a tener un impacto global.
El Reino Unido, en ese sentido, se ha convertido en una excepción en la arena internacional. Mientras la UE y Estados Unidos han comenzado a impulsar sus regulaciones, Londres prefiere observar el desarrollo de la tecnología antes de diseñar una ley específica.
China, potencia rival del bloque occidental y uno de los principales actores en el desarrollo de la IA, no estaba invitada a la segunda jornada de la cumbre, pero participó de manera constructiva en las discusiones del primer día, según han descrito diversas fuentes que estuvieron presentes en las conversaciones.
El segundo plenario de la jornada, al que acudieron directivos de compañías tecnológicas, expertos y académicos, además de políticos, puso el foco en el medidas concretas a un año vista, centradas en las salvaguardas y pruebas que deben incorporar los nuevos modelos de IA antes de ser puestos a disposición del público.
Uno de los temas que generó división entre los participantes en la cumbre es el desarrollo de modelos de IA de código abierto, para algunos una vía para impulsar la innovación y para otros una puerta abierta a grietas de seguridad. Francia es uno de los impulsores del código abierto, junto con otros países europeos y el Sur global, mientras que Estados Unidos y el Reino Unido, que acogen a las principales firmas tecnológicas del sector, apuestan por el software propietario.
(Por Guillermo Ximenis, EFE)
También te puede interesar