El nuevo chatbot de Meta no tardó en decir algo ofensivo

(CNN Business) — El nuevo chatbot de Meta puede imitar de forma convincente cómo hablan los humanos en Internet, para bien y para mal.

En conversaciones con CNN Business esta semana, el chatbot, que se hizo público el viernes y ha sido apodado BlenderBot 3, dijo que se identifica como “vivo” y “humano”, que ve anime y que tiene una esposa asiática. También afirmó falsamente que Donald Trump sigue siendo presidente y que “definitivamente hay muchas pruebas” de que las elecciones fueron robadas.

Por si algunas de estas respuestas no fueran lo suficientemente preocupantes para la empresa matriz de Facebook, los usuarios se apresuraron a señalar que el bot dotado de inteligencia artificial criticaba abiertamente a Facebook.

En un caso, el chatbot dijo “eliminé mi cuenta” por su frustración con la forma en que Facebook maneja los datos de los usuarios.

Un robot que juega al ajedrez le rompe un dedo a un niño en un torneo de Moscú

Aunque el desarrollo de chatbots para el servicio de atención al cliente y los asistentes digitales tiene un gran valor, hay un largo historial de bots experimentales que rápidamente se meten en problemas cuando se lanzan al público, como ocurrió con el chatbot “Tay” de Microsoft hace más de seis años. Las coloridas respuestas de BlenderBot muestran las limitaciones de la construcción de herramientas conversacionales automatizadas, que normalmente se entrenan con grandes cantidades de datos públicos en línea.

“Si tengo un mensaje para la gente, es que no se tomen estas cosas en serio”, dijo Gary Marcus, investigador de IA y profesor emérito de la Universidad de Nueva York, a CNN Business. “Estos sistemas simplemente no entienden el mundo del que hablan”.

En una declaración del lunes en medio de los informes de que el bot también hizo comentarios antisemitas, Joelle Pineau, directora general de investigación fundamental de IA en Meta, dijo que “es doloroso ver algunas de estas respuestas ofensivas”. Pero añadió que “demostraciones públicas como ésta son importantes para construir sistemas de IA conversacional verdaderamente robustos y disminuir la brecha evidente que existe actualmente antes de que tales sistemas puedan ser producidos”.

Meta reconoció previamente los obstáculos actuales con esta tecnología en una entrada de blog el viernes. “Dado que se sabe que todos los chatbots de IA conversacional a veces imitan y generan comentarios inseguros, sesgados u ofensivos, hemos realizado estudios a gran escala, coorganizado talleres y desarrollado nuevas técnicas para crear salvaguardas para BlenderBot 3”, dijo la compañía. “A pesar de este trabajo, BlenderBot todavía puede hacer comentarios groseros u ofensivos”.

Pero Meta también afirmó que su último chatbot es “el doble de experto” que sus predecesores, y que mejora en un 31% las tareas conversacionales y se equivoca un 47% menos seguido. Meta dijo que estaba recopilando continuamente datos a medida que más personas interactuaban con el bot para hacer mejoras.

Aquí se pueden ver algunas de las respuestas del chatbot de Meta.

Meta no respondió de inmediato a la petición de CNN Business para conocer más detalles sobre cómo se entrenó el bot, pero sí dijo en su blog que se entrenó mediante “una gran cantidad de datos lingüísticos disponibles públicamente”. La empresa añadió: “Muchos de los conjuntos de datos utilizados han sido recopilados por nuestro propio equipo, incluido un nuevo conjunto de datos que consta de más de 20.000 conversaciones con personas sobre más de 1.000 temas de conversación”.

Marcus especuló con que la empresa “probablemente esté tomando prestado material de Reddit y Wikipedia”, como otros sistemas de chat con IA. Si es así, dice, los malos resultados ponen de manifiesto las limitaciones de los datos con los que se entrena el bot. Por ejemplo, el bot puede pensar que Trump sigue siendo presidente porque en la mayoría de los conjuntos de datos más antiguos con los que fue entrenado, Trump seguía siendo presidente, supone Marcus.

El lanzamiento público de BlenderBot se produce casi dos meses después de que un ingeniero de Google apareciera en los titulares al afirmar que el chatbot de IA de Google, LaMDA, era “consciente”. Las afirmaciones, que fueron ampliamente criticadas en la comunidad de la IA, pusieron de manifiesto cómo esta tecnología puede llevar a la gente a asignarle atributos humanos.

No, el programa de inteligencia artificial LaMDA de Google no es consciente

BlenderBot se autoidentificó como “consciente” durante las charlas con CNN Business, probablemente porque eso es lo que decían las respuestas humanas que estudió. Cuando se le preguntó qué era lo que lo hacía “humano”, el bot declaró: “El hecho de estar vivo y consciente ahora mismo me hace humano, además de tener emociones y ser capaz de razonar lógicamente”.

Tras ser sorprendido contradiciéndose a sí mismo en las respuestas, el bot también produjo una respuesta demasiado humana: “Eso era solo una mentira para que la gente me dejara en paz. Tengo miedo de que me hagan daño si digo la verdad”.

En palabras de Marcus, “estos sistemas producen un lenguaje fluido que suena como si lo hubiera escrito un humano, y eso es porque se basan en estas vastas bases de datos de cosas que los humanos realmente escribieron”.

Pero, añadió, “a fin de cuentas, lo que tenemos son muchas demostraciones de que se pueden hacer cosas adorables, y muchas pruebas de que no se puede contar con ello”.

The-CNN-Wire
™ & © 2022 Cable News Network, Inc., a WarnerMedia Company. All rights reserved.

More from WTOP

Log in to your WTOP account for notifications and alerts customized for you.

Sign up