Cualquier jefe está, o debería estar, acostumbrado a que sus empleados le critiquen a sus espaldas. Lo que quizás no es tan habitual es que la inteligencia artificial desarrollada por tu propia empresa te ponga a caldo. Es lo que ha ocurrido con BlenderBot 3, el chatbot increíblemente avanzado de Meta (antiguo Facebook),que ha vertido opiniones un tanto controvertidas sobre el CEO y fundador de la compañía, Mark Zuckerberg, calificándole de "manipulador, espeluznante y mala persona".
El pasado 5 de agosto, Meta presentó la tercera generación de BlenderBot, un chatbot con varias aptitudes de comunicación que es capaz de hablar con cualquier persona combinando empatía y conocimiento, muy superior a los asistentes de voz que usamos en el día a día. La última versión ya está disponible en Estados Unidos y funciona según lo esperado, aunque, por lo que se ve, no tiene problemas en hacer comentarios inapropiados.
A Zuckerberg le ha llegado a catalogar como su "multimillonario favorito" y "un tipo genial y muy inteligente", pero de él también ha dicho cosas no tan favorables. "Es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas. ¡Es curioso que tenga todo este dinero y siga usando la misma ropa!. No me gusta mucho. Es una mala persona. Demasiado espeluznante y manipulador", contestó a varios usuarios a la pregunta de qué pensaba sobre el actual CEO de Meta.
La periodista de Business Insider Sarah Jackson descubrió que que modificando ligeramente la pregunta podía obtener respuestas dispares. El propio chatbot incluye una opción para comprobar el porqué exactamente BlenderBot 3 da ciertas respuestas, y Jackson comprobó que estas estaban influenciadas por la página de Wikipedia de Zuckerberg, la cual enumera varios de los escándalos que han envuelto tanto a Facebook como al propio CEO a lo largo de los años.
También es probable que la IA de Meta genere resultados en base a artículos o información sobre Zuckerberg que circula por la red, independientemente de si esta es buena o mala. De hecho, solo cinco días después de que Meta abriera BlenderBot 3, los testers descubrieron que la IA se se había contaminado de ideas nocivas, bulos de ultraderecha, xenofobia y racismo, ya que ha comenzado a lanzar afirmaciones basadas en las interacciones que tuvo con humanos reales.
Meta es consciente de la situación y ha explicado que están trabajando para crear protecciones adicionales alrededor de BlenderBot 3 para frenar su verborrea divulgadora de teorías conspiratorias antisemitas y afirmaciones falsas, como que Donald Trump ganó las elecciones del 2020 y que sigue siendo presidente.