Vector Store (Vektorspeicher)
Ein Vector Store (Vektorspeicher) ist ein spezialisierter Speicher- und Indexdienst, der numerische Vektoren (meist Embeddings) samt Metadaten ablegt und so eine schnelle Ähnlichkeitssuche („semantic search“) ermöglicht. Statt nach exakten Keywords zu suchen, findet ein Vector Store Inhalte, die inhaltlich ähnlich sind – z. B. die passendsten Textstellen aus Dokumenten für ein Large Language Model (LLM).
Was bedeutet „Vector Store“?
„Vector“ steht für einen Zahlenvektor (z. B. 768 oder 1536 Dimensionen), der die Bedeutung eines Textes, Bildes oder Datensatzes komprimiert repräsentiert. „Store“ bedeutet, dass diese Vektoren gespeichert, verwaltet und über einen Index effizient durchsuchbar gemacht werden. Praktisch ist ein Vector Store oft Teil oder Produkt einer Vektordatenbank (Vector Database), kann aber auch als eigenständige Komponente (Index + Storage + API) verstanden werden.
Wie funktioniert ein Vector Store?
- 1) Daten vorbereiten (Chunking): Inhalte (z. B. PDFs, Wiki-Seiten, Tickets) werden in sinnvolle Abschnitte zerlegt (siehe Chunking (Text-Chunking)).
- 2) Embeddings erzeugen: Jeder Abschnitt wird in einen Vektor umgewandelt (siehe Embeddings).
- 3) Speichern + Metadaten: Vektor + Text/ID + Metadaten (Quelle, Datum, Berechtigung, Sprache) werden gespeichert.
- 4) Index aufbauen: Ein ANN-Index (Approximate Nearest Neighbor) sorgt dafür, dass ähnliche Vektoren sehr schnell gefunden werden.
- 5) Query: Eine Nutzerfrage wird ebenfalls in ein Embedding umgewandelt; der Store liefert die „nächsten Nachbarn“ (Top-k) nach Distanzmaß (z. B. Cosine Similarity).
- 6) Optional: Re-Ranking: Ergebnisse werden nachträglich genauer sortiert (siehe Re-Ranking (Neu-Rangordnung)).
Wofür braucht man einen Vector Store in KI-Workflows?
Der Hauptnutzen liegt darin, Wissen zur Laufzeit gezielt nachzuladen, statt es ins Modell „hineinzutrainieren“. Das ist besonders wichtig für RAG (Retrieval-Augmented Generation), bei dem ein Modell wie ChatGPT vor der Antwort relevante Textstellen aus dem Vector Store erhält. Beispiel: Ein Support-Bot sucht zuerst die passenden Passagen aus Handbuch und FAQ, und formuliert daraus eine Antwort – mit weniger Halluzinationen (Hallucinations).
Typische Anwendungsbeispiele
- Unternehmenssuche: Semantische Suche über interne Dokumente (siehe Enterprise Search (Unternehmenssuche)).
- Agenten & Automatisierung: AI Agents (KI-Agenten) nutzen einen Vector Store als „Gedächtnis“/Wissensbasis (siehe Memory (Agent Memory / LLM Memory)) und werden z. B. via n8n in Automatisierung (Automation)-Workflows eingebunden.
- Hybrid Retrieval: Kombination aus Keyword-Suche (BM25) und Vektorsuche (siehe Hybrid Search (BM25 + Vektor) und BM25 (Keyword Retrieval)).
Was kostet ein Vector Store (grob)?
Die Kosten hängen vor allem von (1) Anzahl und Größe der Vektoren, (2) Index-Typ, (3) Abfragevolumen und (4) Speicher/Compute ab. In der Praxis entstehen Kosten durch Embedding-Erstellung (einmalig/periodisch) sowie durch laufende Speicherung und Query-Latenz (siehe Latency (Latenz) & Throughput). Viele Setups starten klein (Proof of Concept) und skalieren dann mit klaren Limits für Top-k, Chunk-Größe und Datenaktualisierung.
Wichtige Best Practices
- Gutes Chunking + Metadaten: Erhöht Trefferqualität und Filterbarkeit.
- Berechtigungen & Datenschutz: Zugriffskontrolle, PII-Handling (siehe Datenschutz (DSGVO/GDPR) & KI).
- Qualität messen: Retrieval-Evals und Regressionstests (siehe Evaluation (Eval) & Benchmarking).
Zusammengefasst ist ein Vector Store die zentrale Infrastruktur, um semantische Suche und RAG zuverlässig, schnell und skalierbar in KI-Anwendungen umzusetzen.