OpenAI disuelve equipo dedicado a riesgos de inteligencia artificial
OpenAI confirmó el viernes que ha disuelto un equipo dedicado a mitigar los peligros a largo plazo de la inteligencia artificial súper inteligente.
OpenAI comenzó hace semanas a disolver el grupo llamado «superalineación», integrando a sus miembros en otros proyectos e investigaciones, según la firma con sede en San Francisco.
El cofundador de la empresa, Ilya Sutskever, y el codirector del equipo, Jan Leike, anunciaron su salida del creador de ChatGPT esta semana.
El desmantelamiento de un equipo de OpenAI centrado en mantener bajo control la inteligencia artificial sofisticada se produce en un momento en que dicha tecnología enfrenta un mayor escrutinio por parte de los reguladores y aumentan los temores sobre sus peligros.
«OpenAI debe convertirse en una empresa AGI (inteligencia general artificial) que priorice la seguridad», escribió Leike el viernes en una publicación en X, anteriormente Twitter.
Leike pidió a todos los empleados de OpenAI que «actúen con la seriedad» que garantiza lo que están construyendo.
El director ejecutivo de OpenAI, Sam Altman, respondió a la publicación de Leike con uno propio, agradeciéndole por su trabajo en la empresa y diciendo que estaba triste por ver a Leike irse.
«Tiene razón, tenemos mucho más por hacer», dijo Altman. «Estamos comprometidos a hacerlo».
Altman prometió más sobre el tema en los próximos días.
Sutskever dijo en X que se marchaba después de casi una década en OpenAI, cuya «trayectoria ha sido nada menos que milagrosa».
«Estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa», añadió, refiriéndose a la tecnología informática que busca funcionar tan bien o mejor que la cognición humana.