PAllgemein

Prompt Telemetry (Prompt-Telemetrie)

Messung von Prompt-Performance: Kosten, Latenz, Qualität, Fehler.

Prompt Telemetry (Prompt-Telemetrie) ist die systematische Messung und Auswertung der Leistung von Prompts in LLM-Anwendungen – typischerweise entlang von Kosten (Tokens/€), Latenz (Antwortzeit), Qualität (z. B. Relevanz, Korrektheit) und Fehlern (Timeouts, Tool-Fehlschläge, Validierungsprobleme). Ziel ist, Prompts und Workflows datenbasiert zu optimieren, statt nur „nach Gefühl“ zu prompten.

Was bedeutet Prompt Telemetry konkret?

„Telemetry“ kennt man aus Software- und Cloud-Systemen: Laufzeitdaten werden automatisch erfasst, um Stabilität und Performance zu überwachen. Übertragen auf Prompts heißt das: Jede LLM-Interaktion wird als messbares Ereignis betrachtet (Request/Response), inklusive Kontext (welcher Prompt, welches Modell, welche Parameter), Ergebnis und Nebenwirkungen (Kosten, Dauer, Fehler).

Wie funktioniert Prompt-Telemetrie? (typischer Ablauf)

Welche Daten werden typischerweise gemessen?

Warum ist Prompt Telemetry wichtig?

LLM-Systeme sind dynamisch: Modellupdates, Prompt-Änderungen, neue Datenquellen oder andere Parameter können die Ergebnisse spürbar verändern. Prompt-Telemetrie macht diese Effekte sichtbar, reduziert Risiken (z. B. Qualitätsabfall oder Kostenexplosion) und unterstützt Governance-Anforderungen, etwa Nachvollziehbarkeit und Auditierbarkeit (siehe AI Governance).

Beispiele aus der Praxis

Was kostet Prompt Telemetry?

Die Kosten hängen weniger vom Begriff selbst ab als von Umsetzung und Tooling: von „leichtgewichtig“ (eigene Logs + Dashboards) bis „professionell“ (vollständige Observability mit Traces, Evals, Alerting). Treiber sind Datenvolumen (Log-Speicher), Auswertungen (Evals) und Integrationen in bestehende MLOps/Monitoring-Stacks.