MAllgemein

Model Risk Management (MRM)

Framework zur Steuerung von Modellrisiken (Validierung, Kontrollen).

Model Risk Management (MRM) ist ein Framework aus Prozessen, Rollen und Kontrollen, mit dem Unternehmen Risiken aus analytischen Modellen und KI-Systemen steuern. Es umfasst u. a. Modellinventar, Dokumentation, unabhängige Validierung, Freigaben, Monitoring und Governance, damit Modelle zuverlässig, fair, sicher und regelkonform eingesetzt werden.

MRM stammt historisch aus dem Banken- und Versicherungsumfeld (z. B. Kreditrisiko- oder Pricing-Modelle), wird heute aber genauso für moderne KI angewendet – insbesondere für Large Language Model (LLM)-basierte Anwendungen wie ChatGPT oder Generative KI (Generative AI), Agenten-Workflows und Automatisierungen mit n8n. Der Kern bleibt gleich: Ein Modell kann falsche Entscheidungen treffen, sich im Betrieb verändern oder unerwartete Schäden verursachen – MRM macht diese Risiken sichtbar und beherrschbar.

Wie funktioniert Model Risk Management (MRM)?

  • Modellinventar & Klassifizierung: Alle Modelle werden erfasst (Zweck, Owner, Datenquellen, Kritikalität). Ein LLM-Chatbot für Kundenservice wird z. B. höher eingestuft als ein internes Text-Tool.
  • Dokumentation & Nachvollziehbarkeit: Annahmen, Grenzen, Trainings-/Prompt-Logik, Datenflüsse und Abhängigkeiten werden beschrieben (ähnlich wie Model Cards (Modellkarten), aber oft stärker prozess- und audit-orientiert).
  • Unabhängige Validierung: Separate Teams prüfen Qualität, Robustheit und Risiken. Bei LLM-Apps umfasst das u. a. Evaluation (Eval) & Benchmarking, Tests gegen Halluzinationen (Hallucinations), Bias-Checks und Sicherheitsprüfungen.
  • Kontrollen & Freigaben: Change-Management, Vier-Augen-Prinzip, Versionierung (z. B. Prompts), Freigabe-Workflows und technische Leitplanken wie Guardrails (KI-Leitplanken).
  • Monitoring im Betrieb: Laufende Überwachung von Qualität, Drift und Incidents, z. B. über Model Monitoring & Observability (LLMOps) und Erkennung von Model Drift (Modell-Drift).
  • Incident- & Exit-Management: Was passiert bei Fehlverhalten? Rollback, Abschalten, Eskalationswege, Beweissicherung und Lessons Learned.

Welche Risiken adressiert MRM bei KI und LLMs?

Beispiel aus der Praxis

Ein Unternehmen baut einen Support-Chatbot auf Basis eines Large Language Model (LLM). MRM verlangt: (1) Registrierung im Modellinventar, (2) definierte Qualitätsmetriken (z. B. korrekte Lösung, Eskalationsrate), (3) Validierung mit Testfällen und Red-Teaming (z. B. gegen Prompt Injection), (4) Freigabe inkl. Rollen und Logging, (5) laufendes Monitoring inkl. Drift- und Incident-Prozess. So wird der Chatbot nicht „nur gebaut“, sondern kontrolliert betrieben.

Warum ist MRM wichtig?

MRM reduziert finanzielle, rechtliche und Reputationsschäden, erhöht Vertrauen in KI-Ergebnisse und schafft Auditierbarkeit. Es ist ein zentraler Baustein von AI Governance und unterstützt regulatorische Anforderungen (z. B. EU AI Act), ohne Innovation auszubremsen – weil Risiken früh erkannt und systematisch gemanagt werden.