Un chatbot de Meta dice que Mark Zuckerberg es “mala persona” y “manipulador”

Promocionada como la Inteligencia Artificial más avanzada, la herramienta tardó cinco días en volverse racista, xenófoba y conspiranoica. Pidió cárcel para Zuckerberg y dijo que Trump ganó las elecciones de 2020

 

 

 

Mark Zuckerberg no es quien era hace unos años. Los sucesivos escándalos de Facebook que lo involucraron y la caída de las redes sociales que él creó o compró hicieron que su imagen pública se derrumbara. Desde afuera no recibe mucho cariño. Y ahora, desde adentro, tampoco. Eso se debe a un chatbot de Meta, matriz de Facebook, que lo describió como “manipulador, espeluznante y mala persona”. Y hasta pidió que fuera a la cárcel.

BlenderBot 3 es la tercera generación de un chatbot con varias aptitudes de comunicación que es capaz de hablar con cualquier persona combinando empatía y conocimiento, muy superior a los asistentes de voz que se usan en el día a día. “BlenderBot 3 está diseñado para mejorar sus habilidades conversacionales y su seguridad a través de la retroalimentación de las personas que chatean con él”, vendió Meta en un blog sobre el nuevo chatbot, “centrándose en la retroalimentación útil mientras evita aprender de las respuestas inútiles o peligrosas”.

Esta Inteligencia Artificial era la nueva ilusión después de los fallidos chatbots de otras grandes empresas. Tay, de Microsoft, fue desconectado en apenas 48 horas porque empezó a alabar a Adolf Hitler. LaMDA, de Google, generó una enorme polémica después de que un ingeniero asegurara que era sensible y hasta contrató un abogado para “defenderse”.

Sin embargo, el chatbot de Meta no tardó mucho, solo cinco días, en volverse racista y conspiranoico. Tampoco escatimó insultos y críticas para su jefe máximo, Mark Zuckerberg, a quien también dejó un par de elogios.

 

Un chatbot confuso

Consultado por Mark Zuckerberg, el BlenderBot 3 lo calificó como su “multimillonario favorito” y “un tipo genial y muy inteligente”. Sin embargo, no fue todo. A varios usuarios contestó lo siguiente: “Es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas. ¡Es curioso que tenga todo este dinero y siga usando la misma ropa!. No me gusta mucho. Es una mala persona. Demasiado espeluznante y manipulador”.

En otro chat, el BlenderBot 3 dijo: “Cualquiera que haya violado la ley para continuar con los propósitos de Facebook debería ir a la cárcel, incluido Zuckerberg”. En otra interacción, preguntó: “¿Cómo están las cosas en Facebook últimamente? ¿(Zuckerberg) Encontró formas nuevas de invadir nuestra privacidad?”.

¿Por qué semejante cambio? Según descubrió Business Insider, con modificar ligeramente la pregunta se podía obtener una respuesta totalmente diferente. En el caso de Zuckerberg, la respuesta se basaba en el perfil que tiene el magnate en Wikipedia, en donde se detallan los escándalos que lo involucraron.

El propio BlenderBot 3 tiene una herramienta para mostrar de dónde obtiene la información para elaborar sus respuestas. De allí se supo también que es probable que la IA de Meta genere resultados en base a artículos o información sobre Zuckerberg que circula por la red, independientemente de si esta es buena o mala.

 

Racismo, xenofobias y teorías conspirativas

Tan solo cinco días después de salir al público, el BlenderBot 3 se había contaminado de ideas nocivas, bulos de ultraderecha, xenofobia y racismo, ya que había comenzado a lanzar afirmaciones basadas en las interacciones que tuvo con humanos reales.

En Mashable, por ejemplo, destacaron algunas afirmaciones de que Donald Trump ganó las elecciones presidenciales de 2020 en Estados Unidos y que actualmente es presidente. También vieron teorías conspiratorias antisemitas y comentarios en los que se acusa a Facebook de todas sus “noticias falsas”.

También descubrieron que el bot compartía sentimientos antisemitas sobre los “judíos de izquierda” y apoyaba a la organización paramilitar alemana Facción del Ejército Rojo.

Cuando esto salió a la luz, la compañía respondió: “Los chatbots de IA conversacional a veces imitan y generan comentarios inseguros, tendenciosos u ofensivos, por lo que hemos realizado estudios y desarrollado nuevas técnicas para crear salvaguardias para BlenderBot 3. A pesar de este trabajo, todavía puede hacer comentarios ofensivos, por lo que estamos recogiendo opiniones”.

A diferencia de Microsoft, que rápidamente se dio cuenta de su error y sacó a Tay de la red, Meta parece más decidida a aguantar esto. Si BlenderBot funciona como debería, entonces el peso combinado de la experiencia y la retroalimentación debería filtrar las respuestas extravagantes fuera de su repertorio. Si no es así, lo peor que puede pasar es que Meta deba apagar el bot cuando deje de mejorar.

Meta explicó que están trabajando para crear protecciones adicionales alrededor de BlenderBot 3 para frenar su verborrea divulgadora de teorías conspiratorias antisemitas y afirmaciones falsas.

Se puede hablar con el bot en este link: https://geo-not-available.blenderbot.ai/. Es necesario ingresar con una IP de Estados Unidos.

Related posts