Gobiernos y empresas tecnológicas prometen cooperar contra los riesgos de la IA en la cumbre de Seúl

Más de una docena de países y algunas de las empresas tecnológicas más grandes del mundo se comprometieron el miércoles a cooperar contra los peligros potenciales de la inteligencia artificial, incluida su capacidad para esquivar el control humano, al concluir una cumbre mundial en Seúl.

La seguridad de la IA estuvo al frente y al centro de la agenda en la reunión de dos días. En la última declaración, más de dos docenas de países, incluidos Estados Unidos y Francia, acordaron trabajar juntos contra las amenazas de la IA de vanguardia, incluidos los «riesgos graves».

Tales riesgos podrían incluir un sistema de inteligencia artificial que ayude a «actores no estatales a promover el desarrollo, la producción, la adquisición o el uso de armas químicas o biológicas», según una declaración conjunta de las naciones.

Estos peligros también incluyen un modelo de IA que podría potencialmente «evadir la supervisión humana, incluso mediante la elusión de salvaguardias, la manipulación y el engaño, o la replicación y adaptación autónomas», agregaron.

La declaración de los ministros se produjo tras el compromiso del martes de algunas de las mayores empresas de inteligencia artificial, incluido el fabricante de ChatGPT OpenAI y Google DeepMind, de compartir cómo evalúan los riesgos de su tecnología, incluido lo que se considera «intolerable».

Las 16 empresas de tecnología también se comprometieron a no implementar un sistema en el que no puedan mantener los riesgos por debajo de esos límites.

La cumbre de Seúl, copatrocinada por Corea del Sur y Gran Bretaña, se organizó para aprovechar el consenso alcanzado en la cumbre inaugural sobre seguridad de la IA el año pasado.

«A medida que se acelera el ritmo del desarrollo de la IA, debemos igualar esa velocidad… si queremos afrontar los riesgos», dijo la secretaria de tecnología del Reino Unido, Michelle Donelan.

«Al mismo tiempo, debemos centrar nuestra atención en la mitigación de riesgos fuera de estos modelos, garantizando que la sociedad en su conjunto se vuelva resiliente a los riesgos que plantea la IA».

Botón volver arriba