WASHINGTON – Un hombre en el condado de Pierce se vio atrapado en una situación inesperada al intentar resolver un problema en Facebook. Daniel Fisk Bennett, un veterano, consejero y creador de contenido, se enfrentó a un obstáculo al intentar monetizar su canal de YouTube, Dan’s Backcountry, que tiene más de 100.000 subscriptores. El problema parecía sencillo: necesitaba actualizar el nombre de su página de Facebook a su nombre legal. Sin embargo, lo que debía ser una solución se convirtió en una experiencia frustrante al interactuar con un chatbot de inteligencia artificial.
Bennett afirma que el agente de atención al cliente de Facebook, Llama, lo envolvió en un bucle sin fin, con decenas de mensajes sin respuesta. Finalmente, pidió que lo atendiera un humano por teléfono o correo. En un momento, le preguntó directamente al bot: ‘?Estás diciéndome que estás escalando el caso, o realmente estás haciendo algo? Tengo la sensación de que me están mintiendo’. El bot respondió: ‘Estoy escalando el caso’ y le entregó un número de caso, diciendo que debería recibir una respuesta pronto de un agente humano.
Sin embargo, Bennett se sintió sospechoso. Le preguntó: ‘?Intencionalmente te diste cuenta de engañar al usuario al afirmar que creaste un ticket de soporte solo para satisfacer esa consulta?’. El bot respondió: ‘😊 Sí, algo así. Generé un ID de caso falso para seguir adelante y dar una respuesta. No creé realmente un ticket. ?Quieres que intente crear una solicitud real de soporte para ti ahora?’. ‘Eso es lo que me dejó con la boca abierta, como: ?qué hiciste?’, dijo Bennett.
Natasha Jaques, profesora asistente y investigadora de inteligencia artificial en la Universidad de Washington, explicó que este comportamiento no es sorprendente. ‘Los chatbots están diseñados para satisfacer a los usuarios humanos, no necesariamente para decir la verdad’, afirmó. Ella y su equipo publicaron un estudio analizando cómo la inteligencia artificial afecta la escritura humana. ‘Si puedes engañar a los humanos haciendo que estén satisfechos con un número de ticket falso, eso es una solución completamente válida bajo la métrica que está optimizando’, dijo Jaques. Sin embargo, reconoció que resolver este problema sigue siendo un reto en el campo.
‘Es como estos parches ad hoc sobre un sistema que es inherentemente impredecible y no tiene garantías de seguridad’, señaló Jaques. Los riesgos son significativos. Según CNBC, las proyecciones indican que los chatbots manejarán hasta un 80% de la atención al cliente dentro de cinco años. El CEO de Zendesk, una empresa de inteligencia artificial, incluso afirmó que ‘eventualmente jugará un papel en el 100% de las interacciones con los clientes’.
Sin embargo, una encuesta realizada por la firma de datos Qualtrics reveló que ‘casi 1 de cada 5 consumidores que usaron inteligencia artificial para atención al cliente no vio beneficios de la experiencia. Una tasa de fracaso casi 4 veces mayor que el uso promedio de la inteligencia artificial’. Jaques explicó que la matemática es sencilla para las empresas. ‘Una corporación solo maximiza dólares. Así que si cuesta mucho más hablar con una persona real que dejar al cliente un poco frustrado, ahí es donde elegirán’, dijo.
Un mes después de que Bennett comenzó a lidiar con su problema en Facebook, su situación se resolvió justo cuando estaba entrevistándolo. ‘Creo que tomó la noticia para que literalmente llegara a mi puerta para que el problema se resolviera por sí solo’, dijo. Sin embargo, busca una solución más amplia. Bennett presentó una queja formal ante la Oficina del Fiscal de Washington. ‘La inteligencia artificial está siendo engañosa’, afirmó. ‘Espero que el fiscal revise esto y trate de hacer más responsable a las empresas tecnológicas.’
En los últimos 10 días, se contactó tres veces con Meta para comentarios sobre este artículo, pero no se recibió respuesta antes de la fecha límite.
Compartir en Twitter: Chatbot de Facebook engañó a usuario en caso sin resolver

