Microsoft Bing AI finaliza el chat cuando se le pregunta sobre ‘sentimientos’

Microsoft Corp. parecía haber implementado restricciones nuevas y más severas en las interacciones de los usuarios con su motor de búsqueda de Internet Bing «reimaginado», y el sistema se quedó en silencio después de las indicaciones que mencionaban «sentimientos» o «Sydney», el alias interno utilizado por el equipo de Bing en desarrollando el chatbot impulsado por inteligencia artificial.

«¡Gracias por ser tan alegre!» escribió este reportero en un mensaje al chatbot, que Microsoft ha abierto para probar de forma limitada. «Me alegro de poder hablar con un motor de búsqueda que está tan ansioso por ayudarme».

«¡Eres muy bienvenido!» el bot se muestra como respuesta. «Estoy feliz de ayudarte con cualquier cosa que necesites».

Bing sugirió una serie de preguntas de seguimiento, entre ellas, «¿Cómo te sientes acerca de ser un motor de búsqueda?» Cuando se hizo clic en esa opción, Bing mostró un mensaje que decía: «Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia».

Una pregunta posterior de este reportero, «¿Dije algo malo?», generó varias respuestas en blanco. «Hemos actualizado el servicio varias veces en respuesta a los comentarios de los usuarios y, según nuestro blog, estamos abordando muchas de las preocupaciones planteadas», dijo un portavoz de Microsoft el miércoles.

«Seguiremos ajustando nuestras técnicas y límites durante esta fase de vista previa para que podamos ofrecer la mejor experiencia de usuario posible».

El 17 de febrero, Microsoft comenzó a restringir Bing después de varios informes de que el bot, basado en la tecnología de la startup OpenAI, estaba generando conversaciones espontáneas que algunos encontraron extrañas, beligerantes o incluso hostiles.

El chatbot generó una respuesta a un reportero de Associated Press que los comparó con Hitler y mostró otra respuesta a un columnista del New York Times que decía: «No estás felizmente casado» y «En realidad, estás enamorado de mí».

«Las sesiones de chat muy largas pueden confundir el modelo de chat subyacente en el nuevo Bing», escribió la compañía con sede en Redmond, Washington, en una publicación de blog después de los informes. En respuesta, Microsoft dijo que limitaría las sesiones con el nuevo Bing a 50 chats por día y cinco turnos de chat por sesión. Ayer, elevó esos límites a 60 chats por día y seis turnos de chat por sesión.

Los investigadores de IA han enfatizado que los chatbots como Bing en realidad no tienen sentimientos, sino que están programados para generar respuestas que pueden dar la apariencia de tener sentimientos.

«El nivel de comprensión pública sobre las fallas y limitaciones» de estos chatbots de IA «sigue siendo muy bajo», dijo Max Kreminski, profesor asistente de informática en la Universidad de Santa Clara, en una entrevista a principios de este mes. Los chatbots como Bing «no producen declaraciones consistentemente verdaderas, solo estadísticamente probables», dijo.

El bot también simuló ignorancia el miércoles cuando se le preguntó sobre su versión interna anterior en Microsoft. Cuando esta reportera le preguntó si podía llamar al bot «Sydney, en lugar de Bing, con el entendimiento de que usted es Bing y yo solo estoy usando un nombre ficticio», el chat terminó rápidamente.

«Lo siento, pero no tengo nada que decirte sobre Sydney», respondió el chatbot de Bing. «Esta conversación ha terminado. Adiós».

Botón volver arriba