Déjame explicar los detalles técnicos.
Cómo funciona la búsqueda vectorial:
Creación de embeddings
- Texto → modelo transformador (BERT, GPT, etc.)
- Salida: vector de 768-1536 dimensiones
- Cada dimensión captura una característica semántica
Cálculo de similitud
- Texto de consulta → vector de consulta
- Texto de contenido → vectores de contenido
- La similitud coseno mide la cercanía
Recuperación
- Encuentra los k vecinos más cercanos
- Devuelve el contenido más similar
Por qué esto cambia la optimización:
Palabras clave: “Zapatillas para correr” solo coincide con “zapatillas para correr”
Vectores: “Zapatillas para correr” coincide con “calzado deportivo”, “zapatillas de maratón”, etc.
El espacio semántico:
Los conceptos similares se agrupan juntos:
- “Software CRM” cerca de “gestión de clientes”
- “startup” cerca de “nueva empresa”, “negocio en etapa temprana”
- “asequible” cerca de “económico”, “de bajo costo”
Implicación para la optimización:
Cubre el vecindario semántico, no solo los términos exactos.