El nuevo chatbot de IA de Meta se lanzó al público la semana pasada, pero ya ha mostrado signos de sentimientos antisemitas y parece no estar seguro de si Joe Biden es el presidente de los Estados Unidos.
El viernes, Meta lanzó BlenderBot 3 , su chatbot de IA más avanzado hasta la fecha, y pidió a los usuarios de los Estados Unidos que lo probaran para poder aprender de tantas fuentes como sea posible. La tecnología de aprendizaje automático busca información en Internet y aprende de las conversaciones que tiene.
En un comunicado , Meta dijo: “Entrenamos a BlenderBot 3 para aprender de las conversaciones y mejorar las habilidades que las personas consideran más importantes, desde hablar sobre recetas saludables hasta encontrar servicios para niños en la ciudad”.
Sin embargo, desde su lanzamiento, aquellos que lo probaron descubrieron que tiene algunas respuestas interesantes y preocupantes a ciertas preguntas, incluida la exhibición de estereotipos antisemitas y la repetición de afirmaciones de negación de elecciones.
En Twitter , el reportero del Wall Street Journal , Jeff Horwitz, publicó capturas de pantalla de sus interacciones con el bot, que incluían respuestas que afirmaban que Donald Trump todavía era presidente de los Estados Unidos. En otras capturas de pantalla, el bot proporcionó puntos de vista contradictorios sobre Donald Trump y afirmó que el presidente de la India, Narendra Modi, era el mejor presidente del mundo.
BlenderBot 3 también ha demostrado que se ocupa de los estereotipos judíos según Jeff Horwitz y Business Insider . Una captura de pantalla publicada por Horwitz parecía mostrar que BlenderBot 3 decía que los judíos están “sobrerrepresentados entre los súper ricos de Estados Unidos”.
Respuestas inusuales compartidas ampliamente en línea
En Twitter, otros temas probados por los usuarios también provocaron respuestas inusuales. El bot afirmó ser cristiano , le pidió a alguien chistes ofensivos y no se da cuenta de que es un chatbot.
En su declaración, Meta reconoció que el chatbot puede tener algunos problemas que resolver: "Dado que se sabe que todos los chatbots conversacionales de IA a veces imitan y generan comentarios inseguros, sesgados u ofensivos, hemos realizado estudios a gran escala, coorganizado talleres, y desarrolló nuevas técnicas para crear protecciones para BlenderBot 3”.
“A pesar de este trabajo, BlenderBot aún puede hacer comentarios groseros u ofensivos, por lo que estamos recopilando comentarios que ayudarán a mejorar los futuros chatbots”.
Meta no respondió de inmediato a una solicitud de comentarios.