Venezuela, China, Biden y extraterrestres: la desinformación de la IA

Redacción MX Político.- Un presentador de televisión rubio que aparentemente trabaja para un canal llamado «House of News» mira a la cámara y pregunta en inglés: «¿Qué tan cierto es que Venezuela es un país tan pobre?»

Pero este hombre no es un periodista, ni siquiera un ser humano real. Es un avatar generado por inteligencia artificial (IA), una herramienta cada vez más común en la desinformación global.

En las redes sociales han aparecido clips subtitulados de este supuesto canal de noticias con un claro sesgo hacia el gobierno venezolano, creando un escándalo en el país.

Y este no es un caso aislado.

«Cada vez más regiones comienzan a referirse a las falsificaciones profundas y los audiovisuales generados por IA como una amenaza, generalmente más cerca de las elecciones», dijo a la AFP Shirin Anlen, experta en tecnología de medios de la ONG Witness.

El mes pasado, una empresa de investigación con sede en EE. UU. identificó un medio de noticias falso llamado «Wolf News», cuyos presentadores de IA emitían propaganda que promovía los intereses del Partido Comunista Chino.

Un video manipulado del presidente estadounidense Joe Biden advirtiendo sobre la amenaza de una «naturaleza extraterrestre» se volvió viral el mes pasado.

Y el año pasado, un video mostraba al presidente de Ucrania, Volodymyr Zelensky, esnifando cocaína, mientras que otro mostraba a la estrella estadounidense Eminem atacando al presidente de México, Andrés Manuel López Obrador, en una canción de rap.

Fácil de usar
Los avatares de «House of News Español» fueron creados por el programa Synthesia AI.

Synthesia denunció el contenido del canal de noticias falsas en YouTube, que lo eliminó debidamente.

«Si pretendes ser periodista, o pretendes tener noticias de última hora, será prohibido», dijo a la AFP la portavoz de Synthesia, Laura Morelli.

Sin embargo, el canal de televisión estatal VTV reprodujo un video de House of News que se jactaba de cuánto dinero había ganado una competencia nacional de béisbol, a pesar de que no existían cifras oficiales.

El presentador de alto perfil de VTV, Barry Cartaya, incluso afirmó que se estaba hablando de los números «en Estados Unidos y gran parte de América Latina».

El presidente Nicolás Maduro se ha enfadado ante la sugerencia de que su gobierno está detrás de los videos falsos.

“No es inteligencia artificial, es inteligencia popular”, dijo el mes pasado. «Soy un robot», agregó con sarcasmo, mientras intentaba imitar a uno.

‘Una mentira repetida 1.000 veces’
Los dos presentadores de House of News, Noah y Daren, se encuentran entre el catálogo de Synthesia de 93 avatares, al igual que el dúo de Wolf News, Alex y Jason.

Los avatares también se utilizaron en enero para crear videos de supuestos estadounidenses que apoyaban un golpe de estado en Burkina Faso.

Mientras tanto, la empresa matriz de Facebook, Meta, desmanteló recientemente las redes de cuentas falsas.

Uno, en Cuba, creó identidades falsas «criticando a los miembros de la oposición», dijo Ben Nimmo, líder de inteligencia de amenazas globales de Meta.

Algunos usaron fotos de perfil que probablemente se generaron con inteligencia artificial, dijo, y agregó: «Esta es una táctica que hemos visto que se usa cada vez más en las operaciones de influencia en los últimos años».

«Este tipo de programas puede ser utilizado por cualquier persona con conocimientos básicos», dijo Eduardo Mosqueira, profesor de la Universidad de A Coruña.

Mosqueira dice que no es difícil identificar un video falso, pero sí mucho más difícil descifrar su origen.

«Si han tenido un poquito de cuidado, me imagino que es imposible», dijo.

Y, agrega, es «cada vez más fácil programar bots en las redes sociales que fingen ser personas reales y lanzan mensajes que desea transmitir».

La mayoría de las veces, la táctica funciona.

Mosqueira lo explica citando una cita atribuida al propagandista nazi Joseph Goebbels.

“Una mentira repetida 1.000 veces se convierte en verdad”, dijo.

Mira también
Cerrar
Botón volver arriba