n8n con Vector Store y Embeddings: Guía para Búsqueda Semántica

N8n vector store embeddings es uno de los usos más prácticos de n8n. Los vector stores y embeddings en n8n son la base de cualquier sistema de búsqueda semántica o RAG (Retrieval Augmented Generation). Permiten encontrar información por significado en lugar de por coincidencia exacta de palabras. En esta guía explico qué son, cómo funcionan y cómo usarlos en n8n.

¿Qué son los embeddings?

Un embedding es una representación numérica de un texto en forma de vector (lista de números). La propiedad clave: textos con significado similar tienen vectores similares, aunque no compartan las mismas palabras.

Ejemplo:

  • "¿Cuánto cuestan los planes?" → vector [0.12, -0.45, 0.87, …]
  • "¿Cuál es el precio de la suscripción?" → vector [0.11, -0.44, 0.85, …]
  • "¿Dónde está la oficina?" → vector [-0.23, 0.67, -0.12, …]

Las primeras dos frases tienen vectores muy parecidos (mismo significado), aunque no comparten palabras. La tercera es diferente.

¿Qué es un vector store?

Un vector store es una base de datos optimizada para almacenar y buscar vectores por similitud. A diferencia de una base de datos SQL que busca coincidencias exactas, un vector store encuentra los vectores más cercanos a uno dado.

Los principales vector stores compatibles con n8n:

Vector Store Hosting Coste Mejor para
Pinecone Cloud $0 (starter) Producción, fácil configuración
Qdrant Self-hosted Gratis Privacidad, control total
Supabase (pgvector) Cloud/Self $0 (hobby) Si ya usas Supabase
In-Memory Vector Store n8n (RAM) Gratis Pruebas, pequeños volúmenes
Weaviate Cloud/Self Gratis Datasets grandes

Paso 1: Crear embeddings con n8n

El modelo de embeddings convierte texto en vectores. Los más usados en n8n:

OpenAI Embeddings:

  • Modelo: text-embedding-3-small — 1536 dimensiones, $0.002/1M tokens
  • Modelo: text-embedding-3-large — 3072 dimensiones, mejor calidad

Ollama Embeddings (gratuito, local):

  • Modelo: nomic-embed-text — buena calidad, sin coste
  • Requiere Ollama instalado con el modelo descargado: ollama pull nomic-embed-text

Para la mayoría de casos, text-embedding-3-small es suficiente y muy económico.

Paso 2: Workflow de ingestión de documentos

Este workflow lee un documento, lo divide en fragmentos y los almacena en Pinecone:

Estructura:

Manual Trigger
  → HTTP Request (obtener el documento)
  → Extract from File (extraer texto del PDF)
  → Recursive Character Text Splitter (dividir en chunks)
  → Embeddings OpenAI (crear vectores)
  → Pinecone Vector Store - Insert (guardar)

Configuración del Text Splitter

El nodo Recursive Character Text Splitter divide el texto de forma inteligente:

  • Chunk Size: 800-1200 caracteres — equilibrio entre contexto y precisión
  • Chunk Overlap: 150-200 caracteres — evita perder contexto en los bordes de cada chunk

Metadatos en Pinecone

Al insertar en Pinecone, añade metadatos para filtrar después:

{
  "source": "manual_empleados.pdf",
  "page": 5,
  "category": "rrhh",
  "date": "2026-01-15"
}

Paso 3: Búsqueda semántica en n8n

Para buscar los fragmentos más relevantes dado una consulta:

Estructura:

Webhook (consulta del usuario)
  → Embeddings OpenAI (vectorizar la consulta)
  → Pinecone Vector Store - Retrieve (buscar top-K similares)
  → Responder con los fragmentos encontrados

Parámetros de búsqueda

  • Top K: número de fragmentos a recuperar. Para RAG, 3-5 suele ser suficiente
  • Score Threshold: filtra resultados por debajo de cierta similitud. Un valor de 0.7-0.8 elimina resultados poco relevantes

Caso de uso 1: Buscador de FAQ inteligente

Una empresa tiene 500 preguntas frecuentes en un Excel. En lugar de búsqueda por palabras clave, implementa búsqueda semántica:

Ingestión (se ejecuta una vez al actualizar el Excel):

  1. Google Sheets → leer todas las FAQ
  2. Formatear como "Pregunta: X\nRespuesta: Y"
  3. Crear embeddings
  4. Guardar en Pinecone con metadato category

Búsqueda (en tiempo real):

  1. Webhook recibe pregunta del usuario
  2. Vectorizar la pregunta
  3. Buscar en Pinecone top-3 más similares
  4. Devolver las respuestas encontradas

Caso de uso 2: Búsqueda en historial de soporte

Cuando llega un ticket nuevo, busca automáticamente tickets similares resueltos en el pasado para sugerir soluciones:

  1. Trigger: nuevo ticket en Zendesk
  2. Crear embedding del ticket
  3. Buscar en Pinecone tickets similares (score > 0.85)
  4. Si hay resultados: añadir nota interna con las soluciones anteriores
  5. Si no hay resultados: escalar a soporte humano

Usar Supabase como vector store (alternativa)

Si ya tienes Supabase (incluye pgvector gratis), puedes usarlo directamente en n8n con el nodo Supabase Vector Store:

-- Crear la tabla en Supabase
CREATE TABLE documents (
  id bigserial primary key,
  content text,
  metadata jsonb,
  embedding vector(1536)
);

n8n gestiona la inserción y búsqueda automáticamente a través del nodo.

In-Memory Vector Store para pruebas

Para prototipar sin configurar infraestructura externa, usa el In-Memory Vector Store de n8n:

  • Los datos se almacenan en RAM de n8n
  • Se pierden al reiniciar n8n
  • Perfecto para probar flujos antes de pasarlos a Pinecone o Qdrant

Conclusión

Los vector stores y embeddings en n8n son la infraestructura fundamental para cualquier aplicación de IA que necesite búsqueda por significado. Con Pinecone o Qdrant como almacén y OpenAI o Ollama para crear los vectores, puedes implementar búsqueda semántica, sistemas RAG y recomendaciones en tus automatizaciones sin necesidad de código adicional.