Vektordatenbank (Vector Database)
Eine Vektordatenbank (Vector Database) ist eine Datenbank, die hochdimensionale Vektoren (Embeddings) speichert und extrem schnell nach „ähnlichen“ Einträgen sucht. Statt exakte Treffer über Keywords zu liefern, findet sie Inhalte nach semantischer Nähe – z. B. passende Textpassagen, Produkte oder Bilder, auch wenn nicht dieselben Wörter verwendet werden.
Vektordatenbanken sind besonders wichtig im KI-Kontext, weil moderne Modelle (LLMs, Bildmodelle etc.) Informationen oft als Zahlenvektoren repräsentieren. Ein Embedding ist dabei eine Art „Bedeutungs-Fingerabdruck“: Ähnliche Bedeutungen liegen im Vektorraum näher beieinander als unähnliche.
Was bedeutet „Vektordatenbank“ konkret?
„Vektor“ steht für eine Liste von Zahlen (z. B. 768 oder 1536 Dimensionen), die ein Objekt beschreibt – etwa einen Textabschnitt, ein Support-Ticket, einen Produkttext oder ein Bild. „Datenbank“ bedeutet hier: Diese Vektoren werden zusammen mit Metadaten (Titel, URL, Kategorie, Datum, Rechte, Nutzer-ID etc.) gespeichert, indexiert und durchsuchbar gemacht. Das Ziel ist eine Approximate Nearest Neighbor-Suche (ANN): schnell die nächsten Nachbarn im Vektorraum finden.
Wie funktioniert eine Vektordatenbank?
- 1) Daten vorbereiten: Inhalte werden in sinnvolle Einheiten zerlegt (z. B. Dokumente in Absätze/Chunks).
- 2) Embeddings erzeugen: Ein Embedding-Modell wandelt jeden Chunk in einen Vektor um.
- 3) Speichern & indexieren: Vektor + Metadaten werden in der Vektordatenbank abgelegt und in einem ANN-Index organisiert.
- 4) Query-Embedding: Eine Nutzerfrage wird ebenfalls in einen Vektor umgewandelt.
- 5) Ähnlichkeitssuche: Die DB berechnet z. B. Cosine Similarity/Dot Product und liefert die ähnlichsten Treffer zurück (Top-k).
- 6) Filtern & Reranking (optional): Metadatenfilter (z. B. Sprache=DE, Datum>2024) und ggf. ein Reranker verbessern Präzision.
Warum ist eine Vektordatenbank wichtig (z. B. für LLMs wie ChatGPT)?
LLMs „wissen“ nicht automatisch deine internen Dokumente oder aktuellen Daten. Eine Vektordatenbank ermöglicht Retrieval-Augmented Generation (RAG): Das System sucht zuerst relevante Passagen in deinen Daten und gibt diese als Kontext an das Modell. Ergebnis: deutlich bessere Antworten, weniger Halluzinationen und nachvollziehbarere Quellen.
Beispiele & typische Use Cases
- Semantische Suche: „Wie setze ich die Rückerstattung auf?“ findet die passende Richtlinie, auch wenn im Dokument „Erstattung“ statt „Rückerstattung“ steht.
- Chatbots mit Wissensbasis (RAG): Support- oder Mitarbeiter-Chatbot, der Handbücher, SOPs und Tickets durchsucht.
- Ähnlichkeits- und Empfehlungssysteme: „Ähnliche Produkte“ oder „ähnliche Tickets“ zur schnelleren Bearbeitung.
- Deduplication & Clustering: Doppelte Inhalte erkennen, Themen automatisch clustern.
- Automationen mit n8n: Workflows, die neue Dokumente automatisch embedden, in die Vektordatenbank schreiben und bei Anfragen wieder abrufen.
Vektordatenbank vs. klassische Datenbank / Volltextsuche
Klassische SQL- oder Dokumentdatenbanken sind stark bei strukturierten Abfragen („alle Bestellungen aus 2025“). Volltextsuche ist stark bei Keywords. Vektordatenbanken sind stark bei Bedeutung/Ähnlichkeit. In der Praxis werden sie oft kombiniert: Metadatenfilter (klassisch) + semantische Treffer (Vektorindex).
Wann lohnt sich eine Vektordatenbank?
Wenn du semantisch suchen möchtest, RAG/Chatbots auf eigenen Daten betreibst, viele unstrukturierte Inhalte (PDFs, Wikis, Tickets) hast oder Empfehlungen/Ähnlichkeitsabgleiche brauchst. Auch bei Systemen mit AI Agents (KI-Agenten) ist sie häufig ein Kernbaustein, weil Agenten zuverlässig „nachschlagen“ müssen, statt zu raten.