N8n vector store embeddings es uno de los usos más prácticos de n8n. Los vector stores y embeddings en n8n son la base de cualquier sistema de búsqueda semántica o RAG (Retrieval Augmented Generation). Permiten encontrar información por significado en lugar de por coincidencia exacta de palabras. En esta guía explico qué son, cómo funcionan y cómo usarlos en n8n.
¿Qué son los embeddings?
Un embedding es una representación numérica de un texto en forma de vector (lista de números). La propiedad clave: textos con significado similar tienen vectores similares, aunque no compartan las mismas palabras.
Ejemplo:
- "¿Cuánto cuestan los planes?" → vector [0.12, -0.45, 0.87, …]
- "¿Cuál es el precio de la suscripción?" → vector [0.11, -0.44, 0.85, …]
- "¿Dónde está la oficina?" → vector [-0.23, 0.67, -0.12, …]
Las primeras dos frases tienen vectores muy parecidos (mismo significado), aunque no comparten palabras. La tercera es diferente.
¿Qué es un vector store?
Un vector store es una base de datos optimizada para almacenar y buscar vectores por similitud. A diferencia de una base de datos SQL que busca coincidencias exactas, un vector store encuentra los vectores más cercanos a uno dado.
Los principales vector stores compatibles con n8n:
| Vector Store | Hosting | Coste | Mejor para |
|---|---|---|---|
| Pinecone | Cloud | $0 (starter) | Producción, fácil configuración |
| Qdrant | Self-hosted | Gratis | Privacidad, control total |
| Supabase (pgvector) | Cloud/Self | $0 (hobby) | Si ya usas Supabase |
| In-Memory Vector Store | n8n (RAM) | Gratis | Pruebas, pequeños volúmenes |
| Weaviate | Cloud/Self | Gratis | Datasets grandes |
Paso 1: Crear embeddings con n8n
El modelo de embeddings convierte texto en vectores. Los más usados en n8n:
OpenAI Embeddings:
- Modelo:
text-embedding-3-small— 1536 dimensiones, $0.002/1M tokens - Modelo:
text-embedding-3-large— 3072 dimensiones, mejor calidad
Ollama Embeddings (gratuito, local):
- Modelo:
nomic-embed-text— buena calidad, sin coste - Requiere Ollama instalado con el modelo descargado:
ollama pull nomic-embed-text
Para la mayoría de casos, text-embedding-3-small es suficiente y muy económico.
Paso 2: Workflow de ingestión de documentos
Este workflow lee un documento, lo divide en fragmentos y los almacena en Pinecone:
Estructura:
Manual Trigger
→ HTTP Request (obtener el documento)
→ Extract from File (extraer texto del PDF)
→ Recursive Character Text Splitter (dividir en chunks)
→ Embeddings OpenAI (crear vectores)
→ Pinecone Vector Store - Insert (guardar)
Configuración del Text Splitter
El nodo Recursive Character Text Splitter divide el texto de forma inteligente:
- Chunk Size: 800-1200 caracteres — equilibrio entre contexto y precisión
- Chunk Overlap: 150-200 caracteres — evita perder contexto en los bordes de cada chunk
Metadatos en Pinecone
Al insertar en Pinecone, añade metadatos para filtrar después:
{
"source": "manual_empleados.pdf",
"page": 5,
"category": "rrhh",
"date": "2026-01-15"
}
Paso 3: Búsqueda semántica en n8n
Para buscar los fragmentos más relevantes dado una consulta:
Estructura:
Webhook (consulta del usuario)
→ Embeddings OpenAI (vectorizar la consulta)
→ Pinecone Vector Store - Retrieve (buscar top-K similares)
→ Responder con los fragmentos encontrados
Parámetros de búsqueda
- Top K: número de fragmentos a recuperar. Para RAG, 3-5 suele ser suficiente
- Score Threshold: filtra resultados por debajo de cierta similitud. Un valor de 0.7-0.8 elimina resultados poco relevantes
Caso de uso 1: Buscador de FAQ inteligente
Una empresa tiene 500 preguntas frecuentes en un Excel. En lugar de búsqueda por palabras clave, implementa búsqueda semántica:
Ingestión (se ejecuta una vez al actualizar el Excel):
- Google Sheets → leer todas las FAQ
- Formatear como "Pregunta: X\nRespuesta: Y"
- Crear embeddings
- Guardar en Pinecone con metadato
category
Búsqueda (en tiempo real):
- Webhook recibe pregunta del usuario
- Vectorizar la pregunta
- Buscar en Pinecone top-3 más similares
- Devolver las respuestas encontradas
Caso de uso 2: Búsqueda en historial de soporte
Cuando llega un ticket nuevo, busca automáticamente tickets similares resueltos en el pasado para sugerir soluciones:
- Trigger: nuevo ticket en Zendesk
- Crear embedding del ticket
- Buscar en Pinecone tickets similares (score > 0.85)
- Si hay resultados: añadir nota interna con las soluciones anteriores
- Si no hay resultados: escalar a soporte humano
Usar Supabase como vector store (alternativa)
Si ya tienes Supabase (incluye pgvector gratis), puedes usarlo directamente en n8n con el nodo Supabase Vector Store:
-- Crear la tabla en Supabase
CREATE TABLE documents (
id bigserial primary key,
content text,
metadata jsonb,
embedding vector(1536)
);
n8n gestiona la inserción y búsqueda automáticamente a través del nodo.
In-Memory Vector Store para pruebas
Para prototipar sin configurar infraestructura externa, usa el In-Memory Vector Store de n8n:
- Los datos se almacenan en RAM de n8n
- Se pierden al reiniciar n8n
- Perfecto para probar flujos antes de pasarlos a Pinecone o Qdrant
Conclusión
Los vector stores y embeddings en n8n son la infraestructura fundamental para cualquier aplicación de IA que necesite búsqueda por significado. Con Pinecone o Qdrant como almacén y OpenAI o Ollama para crear los vectores, puedes implementar búsqueda semántica, sistemas RAG y recomendaciones en tus automatizaciones sin necesidad de código adicional.


