La llegada de ChatGPT y otros grandes modelos de lenguaje establecerá nuevos estándares y procedimientos dentro de las empresas.
En este contexto, el desarrollo de chatbots y el diseño de la experiencia de los usuarios se verá principalmente impactada. La pregunta que se plantea es la siguiente: ¿cómo exactamente adaptamos las experiencias conversacionales a la nueva realidad tecnológica?
Alejandro Zuzenberg, CEO y cofundador de Botmaker, detalla a iProUP que su compañía tiene un desarrollo propio: "Entrenamos al Chatbot para responder usando Inteligencia Artificial Generativa. Lo entrenamos para ofrecer respuestas pero sin delirar".
Y remarca que la firma trabaja en el proyecto desde 2018. "El desarrollo es todo talento local. Entrenamos los bots y lo usamos de manera real. Tenemos un equipo de 200 personas".
Además, el CEO comenta que tienen abierta la búsqueda de personal para unas 40 posiciones adicionales que esperan completar para fines de año.
Botmaker, empresa argentina líder en la creación y administración de chatbots en Latinoamérica, explica cómo ChatGPT, el producto de consumo de más rápido crecimiento en la historia, tuvo un impacto significativo en la forma en que las empresas se comunican con sus clientes.
Botmaker, una solución innovadora que trabaja en proyectos con Inteligenca Artificial Generativa para competir con ChatGPT, entre otros
Todo lo que se sabía del funcionamiento de bots conversacionales, hasta no hace mucho, se vio afectado por la inteligencia artificial conversacional y se comenzó a hablar de "un antes y un después" en el diseño y desarrollo de CX.
Con más de 6 años en el mercado, Botmaker está presente en Brasil, Argentina, Colombia, México y EE.UU., con clientes en más de 40 países y asociación establecida con Big Techs, como:
El antes y después de la IA conversacional
"Para el desarrollo de un asistente virtual era esencial detectar cuáles serían las preguntas frecuentes de los consumidores y, a partir de ahí, desarrollar las respuestas fijas que el bot debía contestar", comenta el CEO.
Y añade: "Aquellas que no eran detectadas y respondidas entraban en lo llamado No entendido, para lo cual se le indicaba al robot cómo proceder, posiblemente derivando al usuario con un agente humano".
Esto está lejos de suceder en el nuevo modelo, en el que el chatbot es entrenado con "Bases de conocimiento" armadas a partir del sitio web de la compañía, documentación interna y el historial de conversaciones, si hubiera.
Todo esto se comparte con la IA conversacional que lo utiliza, junto con el contexto, para reconocer las preguntas y responder de manera dinámica.
Botmaker, para optimizar el rendimiento
Ya no se habla de un "No entendido" sino de un "No quiero hablar de eso" que se determina a través de los territorios de no respuesta, aquellos temas de los cuales el bot tiene prohibido hablar.
Botmaker ya incorporó esta tecnología como una funcionalidad (Knowledge Base) dentro de su plataforma, facilitando a los los clientes la creación de un chatbot con un rango de respuesta mucho más amplio que el de la manera "tradicional".
Todo lo que el asistente virtual debe hacer es acceder a esa información provista por la compañía para generar una respuesta acorde a lo que se le pregunta.
Sin embargo, el control que antes la compañía tenía sobre el tono, la voz y la personalidad del bot, con la llegada de los modelos de lenguaje, se reduce a una definición general.
"Ya no tenemos el control absoluto de lo que queremos que el asistente virtual responda, sino que hay un margen que se deja librado a la creatividad de la herramienta", explica Pablo Dorado, Sales and Operations Manager para Botmaker en Latinoamérica.
Y agrega: "Sin embargo, sí se parametriza a nivel general, por ejemplo, si queremos que sea simpático, que use negrita, que responda en dos o cuatro mensajes, si usa emojis, etc".
Los chatbots ganan terreno en empresas de todo tipo
Beneficios y desafíos del nuevo modelo
Además de un control más laxo sobre la personalidad del asistente virtual, el mantener un flujo conversacional con el fin de transaccionar es un desafío en la interacción con los consumidores.
Sin embargo, el robot puede recibir feedback de las respuestas de los agentes humanos, factor que alimentará la base de conocimiento y mejorará la experiencia del cliente.
La seguridad y privacidad son una preocupación especialmente para los usuarios:
- Por un lado, la información que compone la base de conocimiento es compartida con ChatGPT y, por tanto, se vuelve pública. Será la compañía la que decida qué documentos internos decide compartir; cuanta más información, mayor será la precisión de respuesta, pero también la exposición.
- Por otro, los datos personales provistos por los consumidores (nombre, DNI, dirección, etc.) son identificados automáticamente por la plataforma de Botmaker y encriptados para evitar su difusión.
La adopción de la IA conversacional significó una aceleración en la resolución de problemas, así como la disponibilidad 24hs en múltiples canales que permite la reducción de carga laboral, la administración de contenido y el ahorro de costos.
A su vez, esta tecnología tiene una gran capacidad de análisis de datos para retroalimentar y expandir la base de conocimiento.
Si bien se piensa en un antes y un después, estos dos modelos de chatbots no son exclusivos uno del otro.
Tal como explica Pablo Dorado: "Muchos proyectos aún están en el primer modelo y van a estarlo por un largo tiempo, pero además van a convivir con esta nueva versión".
"Los robots que ya estén diseñados con intenciones, respuestas, ejemplos de preguntas y con historial de conversaciones alimentarán la base de conocimiento para el nuevo modelo, alcanzando un nivel de personalización y seguridad en la respuesta mucho mayor que si creáramos el chatbot desde cero", completa.