En Opinión De...

   En opinión de Norberto Maldonado  
 Silicon Valley decide si se debería permitir a las armas con IA ejerzan decisiones letales: una visión desde la libertad  

La discusión sobre la posibilidad de que las armas con inteligencia artificial (IA) tomen decisiones letales sin intervención humana ha cobrado fuerza en Silicon Valley, generando un intenso debate sobre la ética y los derechos humanos. El debate ha llegado a no solo plantear cuestiones técnicas, sino también han argumentado sobre los desafíos y los fundamentos mismos de nuestra civilización y el respeto a la vida humana.

La amenaza de la deshumanización

La consideración principal dentro de los grupos es que permitir que sistemas autónomos decidan sobre la vida o la muerte es un paso hacia la deshumanización de la guerra. Un problema que nace es que las máquinas carecen de empatía, juicio y contexto; su capacidad para evaluar situaciones complejas es limitada y, en muchos casos, errónea, empezando por su aún insuficiente conocimiento. La libertad no se debe limitar eso está claro, pero la libertad no puede caer en algo que hoy no tiene sentimientos y no es libre tampoco, hoy la IA depende de aquello que se le enseña.

La regulación como salvaguarda

El avance de la IA en el ámbito militar debe ir acompañado de una regulación estricta que impida su uso autónomo en contextos letales, simple y sencillamente porque no es autónoma ni libre, y la libertad humana no puede depender de la moralidad de otros ni en una carrera de quien es más fuerte, eso solo lleva a atrocidades. Como antecedente, recientemente, se han propuesto iniciativas legislativas en California para implementar controles humanos sobre estos sistemas.

Estas medidas son esenciales para asegurar que la tecnología se utilice de manera responsable y ética e incluso los humanos ejerzan su libertad y no dependan de una máquina. La regulación no solo debe enfocarse en el desarrollo tecnológico, sino también en garantizar que los derechos humanos sean el eje central de cualquier aplicación militar, tal como la libertad humana.

La responsabilidad humana es irrenunciable

La noción de que las máquinas pueden actuar sin supervisión humana plantea un dilema ético ineludible: ¿quién es responsable cuando un sistema autónomo comete un error fatal? La falta de claridad sobre la responsabilidad podría llevar a una cultura de impunidad, donde las decisiones erróneas se atribuyan a fallas tecnológicas en lugar de a juicios humanos mal-fundamentados. Es imperativo que mantengamos el control humano y nuestra libertad sobre las decisiones críticas para preservar nuestra humanidad y nuestras normas éticas.

Un llamado a la conciencia colectiva

El debate sobre armas autónomas no debe ser solo un asunto técnico o militar; es una cuestión que involucra a toda la sociedad. Los ciudadanos deben involucrarse en esta discusión, exigiendo transparencia y responsabilidad a las empresas tecnológicas y gobiernos. La defensa de los derechos humanos debe ser una prioridad en el desarrollo y uso de la IA. Si permitimos que el miedo a una carrera armamentista nos lleve a aceptar soluciones peligrosas, estaremos comprometiendo nuestro futuro, el bienestar de generaciones venideras y nuestra libertad. 

Hoy por hoy las inversiones son enormes, buscan justificar un gasto de guerra a cambio de la libertad humana, se estima que para 2028, el volumen del mercado asociado a la IA en el ámbito militar superará los 13.700 millones de dólares, aún existe mucho por recorrer, hay problemas como los llamados de la “caja negra”, esto es que existe un riesgo tecnológico significativo relacionado con la IA, donde ni siquiera los desarrolladores pueden comprender completamente por qué un sistema toma ciertas decisiones, lo que plantea preocupaciones sobre su fiabilidad en situaciones críticas. 

Y aunque aún no se puede atribuir 100% a culpa de armas con IA reportes en la guerra entre Israel y Hamás y en la guerra Rusia – Ucrania afirman que las víctimas por daños colaterales por el uso de armas sin identificar y kamikazes han dejado más de 15.000 afectados y millones de desplazados. 

En conclusión, permitir que las armas con inteligencia artificial decidan cuándo matar es un camino peligroso que amenaza nuestra humanidad y nuestros derechos fundamentales. La regulación adecuada y la responsabilidad humana son esenciales para garantizar que la tecnología sirva al bien común y no se convierta en un instrumento de destrucción indiscriminada. La libertad y los derechos humanos deben prevalecer en este crucial debate ético.

Publicaciones relacionadas

Botón volver arriba