Musk y los expertos piden detener los ‘experimentos gigantes de IA’

El magnate multimillonario Elon Musk y una variedad de expertos pidieron el miércoles una pausa en el desarrollo de poderosos sistemas de inteligencia artificial (IA) para dar tiempo a asegurarse de que sean seguros.

Una carta abierta, firmada por más de 1,000 personas hasta el momento, incluidos Musk y el cofundador de Apple, Steve Wozniak, fue impulsada por el lanzamiento de GPT-4 de la firma OpenAI de San Francisco.

La compañía dice que su último modelo es mucho más poderoso que la versión anterior, que se usó para impulsar ChatGPT, un bot capaz de generar fragmentos de texto a partir de las indicaciones más breves.

«Los sistemas de IA con inteligencia humana-competitiva pueden plantear profundos riesgos para la sociedad y la humanidad», decía la carta abierta titulada «Pause Giant AI Experiments».

«Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables», dijo.

Musk fue un inversionista inicial en OpenAI, pasó años en su directorio y su empresa de automóviles, Tesla, desarrolla sistemas de inteligencia artificial para ayudar a impulsar su tecnología de conducción autónoma, entre otras aplicaciones.

La carta, organizada por el Future of Life Institute, financiado por Musk, fue firmada por destacados críticos y competidores de OpenAI como el jefe de Stability AI, Emad Mostaque.

‘Digno de confianza y leal’
La carta citaba un blog escrito por el fundador de OpenAI, Sam Altman, quien sugirió que «en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros».

«Estamos de acuerdo. Ese punto es ahora», escribieron los autores de la carta abierta.

«Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4».

Pidieron a los gobiernos que intervengan e impongan una moratoria si las empresas no llegan a un acuerdo.

Los seis meses deben usarse para desarrollar protocolos de seguridad, sistemas de gobierno de IA y reenfocar la investigación para garantizar que los sistemas de IA sean más precisos, seguros, «confiables y leales».

La carta no detalla los peligros revelados por GPT-4.

Pero investigadores como Gary Marcus de la Universidad de Nueva York, quien firmó la carta, han argumentado durante mucho tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser súper propagadores de desinformación.

Sin embargo, el autor Cory Doctorow ha comparado la industria de la IA con un esquema de «bomba y descarga», argumentando que tanto el potencial como la amenaza de los sistemas de IA se han exagerado enormemente.

Mira también
Cerrar
Botón volver arriba