KI-Beratung ist tot. Lang lebe KI-Beratung + Umsetzung (weil eine PDF nichts baut)
Die unbequeme Wahrheit: KI-Beratung endet zu oft bei Folien
„Wir brauchen erst eine KI-Strategie.“ Klingt schlau. Fühlt sich sicher an. Und endet erstaunlich häufig in einem 50-Seiten-PDF, das niemand baut, niemand integriert und niemand produktiv nutzt. Auf LinkedIn liest sich das wie Fortschritt: Reifegradmodell, Zielbild, Roadmap, Governance. In der Realität bleiben Prozesse gleich, Daten liegen weiter verteilt, Zugriffe sind ungeklärt – und nach sechs Wochen gibt es… eine Präsentation.
Das ist nicht mal böser Wille. Der Markt wächst, immer mehr Firmen holen sich KI-Beratung, und trotzdem scheitert die Umsetzung oft an den immer gleichen Bremsklötzen: Datenschutzfragen, fehlende Integrationen, unklare Verantwortlichkeiten. Genau dort trennt sich „reden“ von „machen“.
Woran du erkennst, ob du Beratung kaufst – oder ein Ergebnis
Wenn ein Berater nur über Möglichkeiten spricht, aber keine Systeme anfasst, bekommst du am Ende Rhetorik statt Nutzen. Eine funktionierende KI-Lösung braucht Entscheidungen, Zugriff auf echte Daten und iterative Umsetzung – nicht nur ein Zielbild.
- Konkreter Use Case statt Buzzwords: z. B. Support-Tickets automatisch klassifizieren, Angebotsdaten extrahieren, Wissenssuche im Intranet.
- Integration ab Tag 1: E-Mail, CRM, SharePoint, ERP, Ticketsystem – ohne Anbindung keine Wirkung.
- Datenschutz & Rechte: wer darf was sehen, wo liegen Daten, wie wird protokolliert.
- Iteratives Vorgehen: kleine Releases, schnelle Tests, messbare Verbesserungen statt Big-Bang.
Warum ich da allergisch reagiere
Ich habe Computer Vision für Drohnen gebaut, Digital Twins in Umgebungen gebracht, in denen Fehler teuer sind, und einen OrbitOS AI-Assistenten umgesetzt, der nicht „inspiriert“, sondern arbeitet. Deshalb mein Versprechen: Ich zeige dir den Unterschied zwischen Beratern, die über KI sprechen – und Partnern, die in zwei Wochen ein KI-System liefern, das im Alltag genutzt wird.
Der Berater-Friedhof: So sterben KI-Projekte nach dem Workshop
9.000 € später – nichts live
Strategy Theater
Workshop-Tourism
PowerPoint-Strategie statt Produkt
Zu groß, zu früh
Vergleich
Vorher
Technische Tiefe
„Wir machen erst mal KI-Strategie.“ Klingt gut, bleibt aber oft abstrakt: Modellwahl wird zur Glaubensfrage, RAG wird als Buzzword notiert, und niemand klärt Chunking, Embeddings, Latenz, Token-Kosten oder Datenschutz sauber. Ergebnis: Ein schönes Zielbild ohne Bauplan.
Skin in the Game
Empfehlungen sind risikofrei: „Nehmt Tool X, baut einen Data Lake, stellt zwei Data Scientists ein.“ Für viele KMU ist das finanziell und personell unrealistisch – aber im PDF sieht es sauber aus.
Valley of Death zwischen Plan und Betrieb
Nach dem Workshop beginnt die Leere: IT wartet auf Fachbereich, Fachbereich auf IT, niemand besitzt das Backlog. Die Strategie stirbt in Abstimmungsrunden, weil niemand die Brücke in Tickets, Tests und Deployment baut.
Datenrealität
„Daten sind wichtig“ steht immer drin. Aber niemand prüft, ob CRM-Felder gepflegt sind, PDFs maschinenlesbar sind, Berechtigungen existieren oder ob ihr überhaupt eine sichere, zentrale Datenhaltung habt. KI scheitert dann an Basics.
Adoption im Team
Die Lösung ist „für später“ gedacht. Mitarbeitende bekommen selten Training, keine Leitplanken, keine Beispiele. Folge: Unsicherheit, geringe Nutzung, und das Tool wird als Spielerei abgestempelt.
Nachher
Technische Tiefe
Beratung + Umsetzung startet mit einem Proof of Value: Welche Datenquellen, welches Retrieval, welche Prompt- und Chunking-Logik, welche Kosten pro Anfrage, welche Qualitätsmetriken? Am Ende steht ein laufender Prototyp im echten Prozess – nicht nur ein Konzept.
Skin in the Game
Umsetzung zwingt zu Prioritäten: Was geht mit eurem Team, eurem Budget und euren Systemen in 14 Tagen live? Statt Maximal-Architektur gibt’s minimale, belastbare Lösungen, die sofort Nutzen liefern und dann iterativ wachsen.
Valley of Death zwischen Plan und Betrieb
Ein Delivery-Ansatz übersetzt Ziele direkt in Umsetzung: klarer Owner, wöchentliche Releases, definierte Abnahmekriterien, Logging und Feedback-Schleifen. Das System läuft in der Realität – inklusive Monitoring und Verbesserungsroutine.
Datenrealität
Beratung + Umsetzung beginnt mit Daten-Triage: Welche Quellen sind nutzbar, was muss bereinigt werden, welche Zugriffe sind erlaubt? Daraus entsteht ein simples, sicheres Daten-Setup, das die KI zuverlässig füttert – ohne Großprojekt.
Adoption im Team
Umsetzung liefert Enablement mit: kurze Schulungen zu Grundlagen (z. B. wie man gute Prompts schreibt, was ein Modell kann und was nicht), klare Do/Don’ts, und ein Workflow, der Zeit spart. Nutzung wird messbar und wächst.
Beratung + Umsetzung in 2 Wochen: Der Ablauf, der wirklich liefert
Kickoff + Zielbild (nur was wir auch bauen)
Woche 1 · Tag 1
Kickoff + Zielbild (nur was wir auch bauen)
Kickoff mit Klartext statt Folien
Wir starten mit einem 60–90‑Minuten‑Kickoff: Ziel, Nutzergruppen, Risiken, Budgetkorridor und Erfolgskriterien (z. B. „30% weniger Ticket-Handling-Zeit“ oder „Antwortqualität > 4/5 im Feedback“). Der Unterschied zur klassischen KI-Beratung: Ich empfehle nur, was ich technisch auch umsetzen kann. Das verhindert „Strategie-Theater“ und sorgt für ein realistisches Zielbild.
- Use-Case-Scoring nach Impact, Datenverfügbarkeit, Integrationsaufwand
- Definition von Guardrails: Datenschutz, Rollen, Freigaben, Logging
- Entscheidung: Quick-Win in 14 Tagen vs. Vorarbeit nötig
Tool- & Daten-Audit + Prozess-Mapping
Woche 1 · Tag 2–3
Tool- & Daten-Audit + Prozess-Mapping
Wo KI wirklich andocken kann
Wir prüfen, welche Systeme bereits da sind (CRM, Helpdesk, SharePoint/Drive, ERP) und wo die Daten liegen. Dann mappen wir den Prozess, nicht nur die Idee: Welche Schritte kosten Zeit, wo entstehen Fehler, wo sind Medienbrüche? So finden wir die Stelle, an der KI messbar hilft – und nicht nur „nett klingt“.
- Datencheck: Qualität, Aktualität, Zugriffsrechte, Struktur
- Prozess-Mapping: Inputs → Entscheidungen → Outputs
- Technik-Check: API-Zugänge, SSO, Berechtigungen, Hosting-Vorgaben
Quick-Win-Design + Klarheits-Dokument
Woche 1 · Tag 4–5
Quick-Win-Design + Klarheits-Dokument
Ein Plan, der implementierbar ist
Statt 50 Seiten Strategie gibt es ein kurzes Klarheits-Dokument (typisch 2–5 Seiten): Use Case, Nutzerfluss, Datenquellen, Sicherheitsregeln, Metriken, Aufwand. Beispiel: Ein interner Wissens-Chat für Vertrieb und Support, der nur freigegebene Dokumente nutzt und Antworten mit Quellen ausgibt. Damit ist die Umsetzung eindeutig und jeder weiß, was „fertig“ bedeutet.
- Scope: Was ist drin, was bewusst nicht
- Messpunkte: Zeitersparnis, Ticket-Deflection, Qualitätsrating
- Entscheidung: Custom GPT vs. RAG-System (oder beides)
Prototyp bauen (Custom GPT oder RAG) + Integration
Woche 2 · Tag 6–9
Prototyp bauen (Custom GPT oder RAG) + Integration
Vom Konzept zum funktionierenden System
Jetzt wird gebaut: Entweder ein Custom GPT mit klaren Prompt-Templates und Rollenlogik oder ein RAG-Prototyp (Dokumente anbinden, Chunking/Embeddings, Retrieval, Antwortformat). Ziel ist ein nutzbarer Prototyp im echten Arbeitskontext – nicht eine Demo. Typische Integrationen: Helpdesk-Makros, CRM-Notizen, interne Wissenssuche, Standardantworten mit Freigabe.
- Prompt- und Output-Standards: Tonalität, Struktur, „Do/Don’t“
- Qualitätschecks: Halluzinations-Tests, Edge Cases, Zugriffstests
- Minimal-UI oder Einbettung in vorhandene Tools
Übergabe, Training + Betrieb (kein Tschüss nach dem Workshop)
Woche 2 · Tag 10–14
Übergabe, Training + Betrieb (kein Tschüss nach dem Workshop)
Damit das Team es nutzt – und es stabil bleibt
Wir machen eine saubere Übergabe: Dokumentation, Admin-Setup, Rollen & Rechte, Monitoring. Dann ein kompaktes Training (60–120 Minuten) mit echten Fällen aus dem Alltag: Wie man gute Inputs schreibt, wie man Antworten prüft, welche Templates genutzt werden. Danach läuft die Partnerschaft weiter: monatliche Check-ins, asynchroner Support, Optimierungs-Backlog.
- Training: Prompting-Patterns + Templates im Custom GPT
- Betrieb: Feedback-Schleifen, KPI-Review, Iterationen
- Optionale Pakete: KI-Workshop + Setup, RAG/Chatbot-Prototyp in 1 Woche, Prompting-Training
Praxisbeispiel 1: „ChatGPT-Friedhof“ im Handwerk (30 Lizenzen, 4 Nutzer)
Ein Handwerksbetrieb hatte 30 ChatGPT-Lizenzen gekauft, aber nach drei Monaten nutzten es effektiv nur 4 Mitarbeitende. Der „Berater“ hatte einen Prompt-Workshop gemacht, eine Folien-Mappe dagelassen – und war weg. Ergebnis: Unsicherheit, keine Standards, keine Vorlagen, keine messbaren Aufgaben.
Beratung + Umsetzung sah hier so aus: Wir haben 22 Lizenzen gekündigt (440 €/Monat weniger Kosten) und stattdessen 3 Custom GPTs gebaut: (1) Angebotshelfer mit Bausteinen und Tonalität, (2) Reklamations-Assistent mit klaren Eskalationsregeln, (3) Baustellen-Doku mit Checklisten. Danach: 60-Minuten Training mit echten Fällen, plus eine 1‑seitige „So nutzen wir KI“-Regel (was rein darf, was nicht).
- Berater: „Nutzt ChatGPT mehr.“
- Ich: Baue 3 konkrete Workflows, die jede Woche 3 Stunden sparen.
Praxisbeispiel 2: „RAG-Plan“ in einer 12‑MA-Beratung (1.000 Dokumente)
Eine kleine Beratung wollte internes Wissen aus ca. 1.000 Dokumenten nutzbar machen. Klassische Beratung lieferte: Zielbild, Tool-Vergleich, Architekturdiagramm. Nur: Niemand hatte einen funktionierenden Prototypen gesehen, niemand wusste, wie gut die Antworten wirklich werden.
Statt Big-Bang haben wir [RAG] als Prototyp in 1 Woche umgesetzt – bewusst klein: Start mit 100 Dokumenten, sauberes Chunking, klare Prompt-Struktur, Logging der Fragen. Für den Anfang reichte eine einfache Vector-Suche ohne große [Vector Database]-Migration. Erst nach den ersten echten Nutzerfragen haben wir iteriert: bessere Dokument-Tags, Priorisierung „Gold-Dokumente“, Guardrails für unsichere Antworten.
- Berater: „In 3 Monaten könnt ihr das ausrollen.“
- Ich: Liefere in 7 Tagen ein System, das im Team getestet wird.
Praxisbeispiel 3: „Tool-Tourismus“ in einer Agentur (14 Tools)
Eine Agentur hatte 14 Tools für Projektmanagement, Notizen, Automationen, KI-Plugins und Reporting. Ergebnis: doppelte Datenhaltung, Chaos bei Zuständigkeiten, monatliche Kosten ohne Klarheit. Beratung schlug neue Tools vor – das Problem wurde größer.
Beratung + Umsetzung bedeutete: Tool-Audit, „Stop-Doing“-Liste, Migration der wichtigsten Prozesse und Kündigung von 9 Tools. OrbitOS übernahm 5 Funktionen (Wissenshub, Aufgaben-Intake, Meeting-Notizen, SOPs, KI-Assistent). Ergebnis: 820 €/Monat weniger Fixkosten und ein einziger Einstiegspunkt für das Team.
- Berater: „Ihr braucht ein besseres Tool-Setup.“
- Ich: Kündige, migriere, baue den neuen Standard und trainiere das Team.
Für wen ist was? (ehrlich, auch wenn’s weh tut)
Klassischer Berater passt, wenn …
...du ein internes Tech-Team hast
, das Architektur, Datenpipelines und Implementierung selbst sauber umsetzen kann – und du primär eine belastbare Entscheidungsgrundlage brauchst. Das ist typisch bei 50+ Mitarbeitenden, klar getrennten Budgets (Strategie vs. Delivery) und C‑Level-Programmen, bei denen mehrere Stakeholder ausgerichtet werden müssen.
Compliance-first: DSGVO, ISO, Risk-Management, Vendor-Checks – bevor eine Zeile gebaut wird.
Portfolio-Entscheidungen: Welche Use Cases zahlen auf Umsatz, Marge, Risiko ein – und welche nicht.
Governance & Zielbild: Rollen, KPIs, Datenverantwortung, Betriebsmodell für KI.
Beratung + Umsetzung passt, wenn …
... du Ergebnisse brauchst – nicht nur Richtung
Ideal für KMU (oft 5–30 Mitarbeitende), wenn niemand intern die technische Verantwortung übernehmen kann oder will – und du nach dem Workshop nicht wieder bei Null starten möchtest. Du willst in 1–2 Wochen etwas, das im Alltag benutzt wird: ein interner Assistent, ein [RAG]-Prototyp oder konkrete Automationen, die Zeit sparen.
PDF-Frust: Du hast schon Folien gesehen, aber kein Tool live.
Messbare Effekte: weniger Tool-Kosten, schnellere Angebote, weniger Support-Pings, weniger Copy/Paste.
Klare Übergabe: Templates, Rechtekonzept, Training – damit das System ohne „Agentur-Abhängigkeit“ läuft.
Häufig gestellte Fragen
- Was aus deinem letzten KI-Deck ist heute live?
- Welcher Prozess läuft messbar schneller – mit echter Nutzung im Team?
- Welche Datenquelle ist angebunden – und wer pflegt sie?
- Welche Entscheidung trifft das System besser als vorher?