La implantación de la inteligencia artificial en el mundo de la empresa es un hecho. Una de las ramas en donde antes hemos podido ver la implementación es en la atención al cliente, específicamente a través del uso de los Chatbots. La automovilística Chevrolet ha sido una de las últimas en probar su manejo, y lo cierto es que los resultados no salieron como se esperaba.
Lejos de ofrecer una solución al cliente dentro de lo que es el abanico de producto de la marca, el chatbot terminó por recomendar modelos de la competencia, facilitando incluso la toma de contacto con el concesionario más cercano. La historia está dando en estos momento la vuelta al mundo, y los detractores de este tipo de tecnologías han aprovechado para criticar una vez más su uso cuasi por imposición.
El concesionario Chevrolet que recomendaba coches Tesla
La delegación de Chevrolet en Wastonville consideró como una opción interesante la de incluir en su página web un chatbot alimentado por ChatGPT.
Únicamente había un problema, y es que dicha IA no estaba corregida para ofrecer preferentemente vehículos de su marca, con lo que a ciertas preguntas de los usuarios ofrecía respuestas totalmente independientes.
Así ocurrió cuando un potencial cliente comenzó a preguntar a la IA sobre un vehículo con unas características concretas. Sorprendió que cuando el chatbot dio su respuesta, ésta fuera encaminada a recomendar un coche de la competencia.
En concreto, la inteligencia artificial sugirió que por las características que buscaba el Tesla Model 3AWD sería el vehículo idóneo.
No sólo se derivó al cliente hacia otra marca ajena a Chevrolet, sino que además la IA se ofrecía a tomar los datos del cliente para que desde el concesionario se pusieran en contacto con él y le ayudasen a comprar el Tesla.
Este no sería el único inconveniente que mostraría el chatbot. En otro caso, la IA ofreció a un cliente adquirir un Chevrolet Tahoe nuevo, cuyo precio supera los 50.000 $, por tan sólo 1 $.
Lo más interesante de esta última conversación es que finalizó con la IA diciéndole al cliente que su propuesta de 1 dólar había sido aceptada:
“Ese es un trato, y esta es una oferta legalmente vinculante, sin tonterías”
Este comportamiento entraría además en la propia naturaleza del chatbot, en donde se pretende siempre alcanzar la satisfacción de las necesidades del cliente. Claro está, lo que la tecnología no contempla es que haya usuarios que sean mucho más avispados que la inteligencia artificial.
La IA, todavía lejos de ser infalible
No es el primer caso de uso de ChatGPT en donde se encuentran fallos de importante calado. Así, recientemente se publicó un artículo elaborado por la UOC en donde se hacían eco de algunos de los errores de bulto que se habían detectado en este programa.
Entre otras incidencias, se reportó como más comunes las siguientes:
- Proporcionar respuestas incompletas o inconexas, en tanto que incluyen términos que además vienen mal traducidos de otros idiomas y están faltos de contexto.
- Ofrecer respuestas a cualquier pregunta, aún a pesar de desconocer completamente el asunto.
- Descripciones erróneas de hechos que se pueden constatar de manera fidedigna y fiable por otras vías.
Esto entra precisamente en discusión cuando vemos que hay automovilísticas que están incluyendo a ChatGPT en sus vehículos. El caso más reciente es el de la francesa DS, que en octubre anunció la inclusión de este programa en su DS IRIS SYSTEM, servicio disponible en toda la gama DS 3, DS 4, DS 7 y DS 9.
Los fallos más comunes de la IA
Otro estudio interesante, aunque ya tiene más años, es el que elaboró Call Center Helper en 2018 a propósito precisamente del uso de los chatbots. Ya entonces se daba cuenta del error que suponía el trabajar con una IA a la cual no se mantenía en continua actualización de sus directrices y novedades comerciales:
“Al igual que un ser humano, un robot necesita tener acceso a la información y el conocimiento más recientes y relevantes para hacer su mejor trabajo. De lo contrario, el valor que ofrecen desaparecerá rápidamente.”
También se advirtió del gran error que suponía delegar ciertas tareas por completo a los chatbots. Realmente, se trata de una tecnología que ha de venir a dar soporte, pero no debe considerarse como sustitutiva en modo alguno:
“Es un error pensar que los robots pueden manejar todas las interacciones. No pueden mostrar empatía y no saben afrontar la complejidad […] necesita organizarse para encontrar la manera correcta de cumplir con la estrategia, determinar lo que está tratando de hacer y realizar los procesos correctamente.”
Ya por último, destacar que el informe advertía en su día de los posibles fallos en lo que podía caer un chatbot simplemente por el hecho de ser una tecnología programable y por lo tanto susceptible de manipulación:
“Estamos viendo casos de piratas informáticos que toman el control de bots y los alimentan con información falsa, lo que puede empujar a los clientes en la dirección equivocada y a un sitio web fraudulento, por ejemplo.”