El sistema de memoria contextual:
Dentro de una sesión:
Perplexity recuerda el historial de la conversación:
- Preguntas previas codificadas
- El contexto se mantiene
- Las consultas de seguimiento entienden referencias
Ejemplo:
P1: “¿Cuáles son los últimos avances en computación cuántica?”
P2: “¿Cómo se compara esto con la computación clásica?”
Para P2, Perplexity entiende que “esto” se refiere a computación cuántica de P1.
El mecanismo de atención:
Usa pesos de atención para determinar qué contexto previo es relevante para la nueva consulta. No todo se mantiene — solo las partes contextualmente relevantes.
La limitación:
La memoria es solo por sesión. Si cierras la conversación, se pierde el contexto. No hay personalización persistente entre sesiones.
Esto es una decisión de privacidad, no una limitación técnica.