Model Registry (Modell-Registry)
Eine Model Registry (Modell-Registry) ist ein zentrales Verzeichnis, in dem KI-Modelle inklusive Versionen, Metadaten, Artefakten und Freigabestatus verwaltet werden. Sie macht Modelle auffindbar, reproduzierbar und sicher deploybar – vom Experiment bis zur produktiven Nutzung – und ist ein Kernbaustein von MLOps und AI Governance.
Was bedeutet „Model Registry“ konkret?
„Registry“ bedeutet Register/Verzeichnis. Eine Model Registry bündelt alles, was ein Team über ein Modell wissen und nachhalten muss: Welche Version ist aktuell? Wer hat sie trainiert? Mit welchen Daten? Welche Metriken wurden erreicht? Welche Risiken oder Einschränkungen gibt es? In der Praxis ist sie die „Single Source of Truth“ für Modell-Lebenszyklen – besonders wichtig, wenn mehrere Teams gleichzeitig an Generative KI (Generative AI)- oder klassischen ML-Modellen arbeiten.
Wie funktioniert eine Model Registry?
- Registrieren: Nach Training oder Fine-Tuning wird ein Modell samt Artefakt (z. B. Gewichte, Tokenizer, Konfiguration) in die Registry eingetragen.
- Versionieren: Jede Änderung erzeugt eine neue Version (z. B. v1.2.0). So bleibt nachvollziehbar, was sich wann geändert hat.
- Metadaten & Nachweise speichern: Trainingsdaten-Referenzen, Hyperparameter, Evaluationsmetriken, Prompt-/System-Configs, Sicherheits-Checks, Lizenzinfos, Owner, Tags.
- Stages/Status verwalten: Typisch sind „Experiment“, „Staging“, „Production“, „Archived“ – mit Freigabeprozessen und Rollenrechten.
- Deployment & Rollback: Produktionssysteme ziehen genau die freigegebene Version; bei Problemen ist ein Rollback auf die letzte stabile Version möglich.
- Monitoring-Verknüpfung: Laufzeitdaten (Drift, Qualität, Kosten) können mit der Modellversion verknüpft werden, um Entscheidungen zu begründen.
Wofür braucht man eine Model Registry? (Use Cases)
Eine Model Registry ist besonders wertvoll, wenn KI nicht nur „ausprobiert“, sondern zuverlässig betrieben wird. Typische Szenarien:
- LLM-Apps in Produktion: Wenn ein Large Language Model (LLM) (oder ein externes Modell wie ChatGPT) in Workflows eingebunden ist, müssen Modellwahl, Parameter und Versionen nachvollziehbar sein.
- RAG-Systeme: Bei RAG (Retrieval-Augmented Generation) hängen Qualität und Verhalten nicht nur vom Modell ab, sondern auch von Retriever, Embeddings und ggf. Vektordatenbank (Vector Database). Eine Registry hilft, diese Kombinationen sauber zu dokumentieren.
- Fine-Tuning & LoRA: Bei Fine-Tuning oder LoRA entstehen viele Varianten. Die Registry verhindert Chaos, indem sie Experimente, Metriken und Freigaben strukturiert.
- Automatisierte Prozesse: In Automations-Setups (z. B. mit n8n und Automatisierung (Automation)) ist klar definiert, welche Modellversion ein Workflow nutzt – wichtig für Stabilität und Audits.
Warum ist eine Model Registry wichtig?
- Reproduzierbarkeit: Ergebnisse werden nachvollziehbar (welches Modell, welche Daten, welche Parameter?).
- Qualität & Sicherheit: Freigaben, Tests und Richtlinien reduzieren Risiken wie Halluzinationen (Hallucinations) oder unerwartetes Verhalten.
- Compliance & Governance: Unterstützt AI Governance, Anforderungen aus dem EU AI Act sowie Dokumentationspflichten rund um Datenschutz (DSGVO/GDPR) & KI.
- Effizienz: Teams finden bestehende Modelle schneller wieder und vermeiden Doppelarbeit.
Was kostet eine Model Registry?
Die Kosten hängen stark davon ab, ob du eine Open-Source-Lösung (Betrieb/Hosting/DevOps-Aufwand) oder eine Managed-Plattform nutzt. Treiber sind vor allem: Anzahl Modelle/Versionen, Speicher für Artefakte, Integrationen (CI/CD, Monitoring), Rollen- & Rechtekonzept sowie Compliance-Anforderungen. In Enterprise-Umgebungen steigen Kosten typischerweise durch Audit- und Security-Funktionen, nicht durch die reine Registrierung.
Praxisbeispiel
Ein Team betreibt einen Support-Chatbot mit Function Calling / Tool Use und testet zwei Modellversionen: v1 (schnell, günstiger) und v2 (bessere Antworten, höhere Kosten). In der Registry werden beide Versionen mit Benchmarks, Kostenprofil, Sicherheitschecks und Freigabe dokumentiert. Der produktive Workflow zieht nur „Production“-Modelle; bei Qualitätsproblemen wird automatisch auf v1 zurückgerollt.