Cómo crear un Agente de Soporte IA con N8N y OpenAI que recuerde conversaciones
Introducción: El Poder de un Agente IA para Soporte
En este tutorial, exploraremos cómo construir un agente de soporte al cliente totalmente automatizado utilizando N8N como nuestra plataforma de orquestación y OpenAI para la inteligencia conversacional. La clave aquí es dotar a nuestro agente de “memoria”, permitiéndole recordar el contexto de conversaciones anteriores para ofrecer respuestas más coherentes y personalizadas.
Imagina un chatbot que no solo responde preguntas frecuentes, sino que entiende el historial de interacciones con cada usuario, mejorando drásticamente la experiencia de soporte.
¿Qué Necesitaremos?
- Una instancia de N8N (auto-alojada o en la nube).
- Acceso a la API de OpenAI (GPT-3.5 o GPT-4).
- Un lugar para almacenar la memoria de la conversación (ej: una base de datos simple, Redis, o incluso el almacenamiento de N8N si es para pruebas). Para este tutorial, usaremos un enfoque simple con almacenamiento de N8N o una variable para demostrar el concepto.
Paso 1: Configurando N8N - El Webhook de Entrada
Comenzaremos creando un nuevo workflow en N8N y configurando un nodo Webhook. Este será el punto de entrada para las consultas de nuestros usuarios.
- Configuración del Webhook:
- Método:
POST - Respuesta:
Immediately(para feedback rápido al usuario) - JSON Body: Esperaremos un
text(la pregunta del usuario) y opcionalmente unconversationIdpara rastrear la memoria.
- Método:
Paso 2: Integrando OpenAI - La Inteligencia Central
Conectaremos el Webhook a un nodo de OpenAI para procesar la pregunta del usuario.
- Autenticación: Configura tus credenciales de la API de OpenAI.
- Modelo: Elige el modelo de GPT que prefieras (ej.
gpt-3.5-turbo). - Prompt del Sistema (System Prompt): Define el rol del agente. Por ejemplo: “Eres un asistente de soporte amigable y servicial para [Tu Empresa/Producto]. Responde a las preguntas de los usuarios de forma concisa y útil.”
Paso 3: La Magia de los Nodos AI de N8N (LangChain)
Olvídate de gestionar arrays de mensajes JSON manualmente. N8N ha integrado LangChain, lo que hace que añadir memoria sea trivial.
-
Añade el nodo “AI Agent” (o “Basic LLM Chain”):
- Este nodo será el cerebro. Conecta el Webhook a la entrada del Agent.
- En el campo
Text, asigna la expresión{{ $json.text }}que viene del Webhook.
-
Conecta un “Chat Model”:
- Arrastra un nodo OpenAI Chat Model y conecta su salida al conector
Modeldel Agent. - Configura aquí tu credencial y selecciona
gpt-3.5-turboogpt-4.
- Arrastra un nodo OpenAI Chat Model y conecta su salida al conector
-
Añade la Memoria (Window Buffer Memory):
- Arrastra el nodo Window Buffer Memory.
- Conéctalo al conector
Memorydel Agent. - Configuración Clave:
Session ID: Aquí debes poner{{ $json.conversationId }}(que viene del Webhook). Esto es lo que permite a N8N saber que “Juan” es “Juan” y recordar lo que dijo hace 5 minutos.Context Window: Define cuántos mensajes atrás recordar (ej: 5 o 10). Esto evita gastar demasiados tokens.
¡Y listo! Al conectar estos tres nodos, N8N gestionará automáticamente el historial. Si envías un mensaje con conversationId: "usuario_1", el agente buscará en su memoria interna (Redis o memoria volátil de N8N) lo que “usuario_1” dijo antes.
Paso 4: Probando el Agente
- Activa el workflow o usa “Execute Workflow”.
- Envía un POST al Webhook con:
{ "text": "Hola, me llamo Carlos", "conversationId": "session_123" } - El Agente responderá saludando.
- Envía otro POST (misma
session_123):{ "text": "¿Cómo me llamo?", "conversationId": "session_123" } - ¡El Agente responderá “Te llamas Carlos”! Ha recordado el contexto sin que tú programaras una base de datos.
Conclusión
Con N8N y OpenAI, hemos creado un agente de soporte conversacional con memoria. Este es solo el inicio; puedes expandirlo con:
- Integraciones con bases de datos de conocimiento (RAG).
- Envío de emails o creación de tickets.
- Conexión con CRMs.