Memory te permite chatear con la AI como si la AI tuviera memoria de conversaciones anteriores.
Humano: hola soy bob
AI: ¡Hola Bob! Es un placer conocerte. ¿Cómo puedo ayudarte hoy?
Humano: ¿cuál es mi nombre?
AI: Tu nombre es Bob, como mencionaste anteriormente.
Internamente, estas conversaciones se almacenan en arrays o bases de datos, y se proporcionan como contexto al LLM. Por ejemplo:
Eres un asistente para un humano, impulsado por un modelo de lenguaje grande entrenado por OpenAI.
Ya sea que el humano necesite ayuda con una pregunta específica o solo quiera tener una conversación sobre un tema en particular, estás aquí para ayudar.
Conversación actual:
{history}
Por defecto, la UI y el Chat Embebido separarán automáticamente las conversaciones de diferentes usuarios. Esto se hace generando un chatId único para cada nueva interacción. Esa lógica es manejada internamente por Flowise.
API de Predicción
Puedes separar las conversaciones para múltiples usuarios especificando un sessionId único
Para cada nodo de memory, deberías poder ver un parámetro de entrada Session ID
En el cuerpo de la solicitud POST /api/v1/prediction/{your-chatflowid}, especifica el sessionId en overrideConfig
API de Mensajes
GET /api/v1/chatmessage/{your-chatflowid}
DELETE /api/v1/chatmessage/{your-chatflowid}
Parámetro de Consulta
Tipo
Valor
sessionId
string
sort
enum
ASC o DESC
startDate
string
endDate
string
Todas las conversaciones también pueden ser visualizadas y gestionadas desde la UI:
Para OpenAI Assistant, se utilizarán Threads para almacenar las conversaciones.