Gaslighting, bombardeos de amor y narcisismo: ¿Por qué la IA de Bing de Microsoft está tan desquiciada?

Hay una carrera para transformar la búsqueda. Y Microsoft acaba de anotar un gol en casa con su nuevo chatbot de búsqueda de Bing, Sydney, que ha aterrorizado a los primeros usuarios con amenazas de muerte, entre otros resultados preocupantes.

Los chatbots de búsqueda son herramientas impulsadas por IA integradas en los motores de búsqueda que responden directamente a la consulta de un usuario, en lugar de proporcionar enlaces a una posible respuesta. Los usuarios también pueden tener conversaciones en curso con ellos.

Prometen simplificar la búsqueda. No más vadear páginas de resultados, pasar por alto los anuncios mientras trata de armar una respuesta a su pregunta. En cambio, el chatbot sintetiza una respuesta plausible para ti. Por ejemplo, puede pedir un poema para el 90 cumpleaños de su abuela, al estilo de Pam Ayres, y recibir algunos versos cómicos.

Microsoft ahora lidera la carrera de chatbots de búsqueda con Sydney (tan variada como ha sido su recepción). La asociación de US$10 mil millones del gigante tecnológico con OpenAI le brinda acceso exclusivo a ChatGPT, uno de los mejores y más recientes chatbots.

Entonces, ¿por qué no va todo de acuerdo al plan?

La IA de Bing se vuelve loca
A principios de este mes, Microsoft anunció que había incorporado ChatGPT a Bing, dando origen a «Sydney». Dentro de las 48 horas posteriores al lanzamiento, un millón de personas se unieron a la lista de espera para probarlo.

Google respondió con su propio anuncio, demostrando un chatbot de búsqueda grandilocuentemente llamado «Bard», en homenaje al mejor escritor en idioma inglés. La demostración de Google fue un desastre de relaciones públicas.

En un evento de la empresa, Bard dio una respuesta incorrecta a una pregunta y el precio de las acciones de la empresa matriz de Google, Alphabet, cayó drásticamente. El incidente eliminó más de 100.000 millones de dólares estadounidenses del valor total de la empresa.

Por otro lado, todo pintaba bien para Microsoft. Eso fue hasta que los primeros usuarios de Sydney comenzaron a informar sobre sus experiencias.

Hay momentos en los que el chatbot solo puede describirse como desquiciado. Eso no quiere decir que no funcione perfectamente en otros momentos, pero de vez en cuando muestra un lado problemático.

En un ejemplo, amenazó con matar a un profesor de la Universidad Nacional de Australia. En otra, le propuso matrimonio a un periodista del New York Times e intentó romper su matrimonio. También trató de engañar a un usuario para que pensara que todavía era 2022.

Esto expone un problema fundamental con los chatbots: están entrenados vertiendo una fracción significativa de Internet en una gran red neuronal. Esto podría incluir toda Wikipedia, todo Reddit y una gran parte de las redes sociales y las noticias. Funcionan como la función de autocompletar de su teléfono, lo que ayuda a predecir la siguiente palabra más probable en una oración. Debido a su escala, los chatbots pueden completar oraciones completas e incluso párrafos. Pero siguen respondiendo con lo que es probable, no con lo que es verdad.

Se agregan barandillas para evitar que repitan una gran cantidad de contenido ofensivo o ilegal en línea, pero estas barandillas son fáciles de saltar. De hecho, el chatbot de Bing felizmente revelará que se llama Sydney, aunque esto va en contra de las reglas con las que fue programado.

Otra regla, que la propia IA reveló aunque no se suponía que lo hiciera, es que debe «evitar ser vaga, controvertida o fuera de tema». Sin embargo, Kevin Roose, el periodista del New York Times con quien el chatbot quería casarse, lo describió como «un adolescente malhumorado y maníaco-depresivo que ha quedado atrapado, en contra de su voluntad, dentro de un motor de búsqueda de segunda categoría».
¿Por qué toda la angustia?
Mi teoría de por qué Sydney puede comportarse de esta manera, y reitero que es solo una teoría, ya que no lo sabemos con certeza, es que Sydney puede no estar construido sobre el chatbot GPT-3 de OpenAI (que impulsa el popular ChatGPT). Más bien, puede basarse en el GPT-4 que aún no se ha lanzado.

Se cree que GPT-4 tiene 100 billones de parámetros, en comparación con los 175 mil millones de parámetros de GPT-3. Como tal, GPT-4 probablemente sería mucho más capaz y, por extensión, mucho más capaz de inventar cosas.

Sorprendentemente, Microsoft no ha respondido con gran preocupación. Publicó un blog que documenta cómo el 71% de los usuarios iniciales de Sydney en 169 países han dado el visto bueno al chatbot. Parece que el 71% es una puntuación lo suficientemente buena a los ojos de Microsoft.

Y a diferencia de Google, el precio de las acciones de Microsoft aún no se ha desplomado. Esto refleja el juego aquí. Google ha encabezado este espacio durante tanto tiempo que los usuarios han elevado sus expectativas. Google solo puede bajar y Microsoft subir.

A pesar del comportamiento preocupante de Sydney, Microsoft está disfrutando de una atención sin precedentes, y los usuarios (ya sea por intriga o por cualquier otro motivo) todavía acuden en masa para probar Sydney.

Botón volver arriba