EU AI Act: Was seit Februar 2025 gilt – und welche Pflichten 2026 kommen
Einordnung: Warum der EU AI Act jetzt operativ wird
Der EU AI Act ist seit dem 1. August 2024 in Kraft – und wird seitdem stufenweise „scharfgeschaltet“. Für Unternehmen bedeutet das: KI-Regulierung ist nicht mehr nur ein Zukunftsthema für Legal und Compliance, sondern wird ab 2025 operativ. Prozesse, Schulungen, Produktentscheidungen und Lieferantenbeziehungen müssen so gestaltet werden, dass sie den neuen Anforderungen standhalten.
Kern des AI Acts ist ein risikobasierter Ansatz. KI-Systeme werden danach bewertet, welches Risiko sie für Grundrechte, Sicherheit und Gesellschaft darstellen. Je höher das Risiko, desto strenger die Pflichten. Praktisch hilft diese Logik, KI-Anwendungen im Unternehmen zu priorisieren: Was darf gar nicht eingesetzt werden? Was braucht Transparenz? Was erfordert ein vollständiges Compliance-Programm?
- Unannehmbares Risiko: Verbotene KI-Praktiken (z. B. bestimmte Formen von Social Scoring oder Emotionserkennung am Arbeitsplatz).
- Hohes Risiko: KI in sensiblen Bereichen (z. B. Recruiting, Kritische Infrastrukturen, Bildung, bestimmte biometrische Anwendungen) – hier werden bis 2026 umfassende Anforderungen verbindlich.
- Begrenztes Risiko: KI mit Transparenzpflichten, etwa wenn Menschen mit KI interagieren oder Inhalte synthetisch erzeugt werden.
- Minimales Risiko: Viele Standardanwendungen ohne besondere Pflichten, aber mit guter Praxis (Governance, Dokumentation) sinnvoll.
Der Fokus dieses Artikels liegt auf zwei operativen Meilensteinen: Seit dem 2. Februar 2025 gelten Verbote bestimmter KI-Praktiken sowie die Pflicht, KI-Kompetenz im Unternehmen sicherzustellen. Ab 2026 werden dann die meisten Regeln verbindlich – insbesondere für Hochrisiko-KI, inklusive Risikomanagement und Konformitätsbewertungen. Wer jetzt inventarisiert, Verantwortlichkeiten festlegt und Trainings- sowie Prüfprozesse aufsetzt, spart später Zeit und reduziert Umstellungsstress.
Als Relevanzanker kommt der Sanktionsrahmen hinzu: Bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes. Das macht den AI Act zu einem Thema für Geschäftsleitung, Einkauf, IT, HR und Fachbereiche – nicht nur für die Rechtsabteilung.
Zeitplan: Von 2025 bis 2027 – die wichtigsten Stichtage
Schritt 1: Verbotene KI-Praktiken stoppen & AI Literacy aufsetzen
2. Februar 2025
Schritt 1: Verbotene KI-Praktiken stoppen & AI Literacy aufsetzen
Was ab jetzt gilt
Seit dem 2. Februar 2025 sind bestimmte KI-Anwendungen untersagt – darunter biometrische Kategorisierung anhand sensibler Merkmale, Emotionserkennung am Arbeitsplatz sowie manipulative Systeme, die Verhalten unbemerkt beeinflussen. Parallel gilt die Pflicht, KI-Kompetenz im Unternehmen sicherzustellen: Mitarbeitende, die KI entwickeln, betreiben oder einsetzen, brauchen passende Schulungen.
Bedeutung für Anbieter vs. Anwender
- Anbieter: Portfolio prüfen, verbotene Features entfernen, Produkt-Roadmap anpassen.
- Anwender: Einsatzfälle im Betrieb identifizieren (z. B. HR-Tools, Überwachung, „Nudging“ im Vertrieb), Nutzung sofort beenden und Alternativen definieren.
Praktische Tipps
- „Red-Flag“-Checkliste für verbotene Praktiken in Beschaffung und Projekten verankern.
- AI-Literacy-Programm rollenbasiert gestalten (Fachbereich, IT, Compliance, Management).
Schritt 2: GPAI-Modelle – Transparenz, Doku & Copyright-Prozesse
2. August 2025
Schritt 2: GPAI-Modelle – Transparenz, Doku & Copyright-Prozesse
Was ab dann greift
Ab dem 2. August 2025 werden Anforderungen für KI mit allgemeinem Verwendungszweck (GPAI) verbindlich. Anbieter müssen u. a. Transparenzanforderungen erfüllen, technische Dokumentation bereitstellen und Urheberrechtsaspekte berücksichtigen. Für Unternehmen, die solche Modelle einkaufen oder integrieren, wird die Lieferkette zum Compliance-Thema.
Bedeutung für Anbieter vs. Anwender
- Anbieter: Technische Doku, Nutzungsbedingungen, Trainings- und Daten-Governance sowie Copyright-Handling operationalisieren.
- Anwender: Vendor-Due-Diligence aufsetzen: Welche Doku liefert der Anbieter? Welche Nutzungsgrenzen gelten? Wie wird Output-Transparenz umgesetzt?
Praktische Tipps
- Standardisierte Vertragsklauseln für Doku- und Transparenzpflichten einführen.
- Intern festlegen, wann generierte Inhalte gekennzeichnet oder geprüft werden müssen.
Schritt 3: 2026 wird operativ – Hochrisiko-KI und Kernpflichten werden verbindlich
2. August 2026
Schritt 3: 2026 wird operativ – Hochrisiko-KI und Kernpflichten werden verbindlich
Was sich ändert
Ab dem 2. August 2026 wird der Großteil der Pflichten verbindlich – insbesondere rund um Hochrisiko-KI. Für viele Organisationen ist das der Zeitpunkt, an dem aus „Vorbereitung“ ein prüfbarer Betrieb wird: Risikomanagement, Dokumentation, klare Verantwortlichkeiten, Qualitäts- und Monitoring-Prozesse.
Bedeutung für Anbieter vs. Anwender
- Anbieter: Hochrisiko-Compliance in Entwicklungsprozess integrieren (z. B. Teststrategie, Änderungsmanagement, Nachvollziehbarkeit).
- Anwender: Einsatz im Fachbereich absichern: Zweckbindung, menschliche Aufsicht, Incident- und Change-Prozesse, Nachweise für Audits.
Praktische Tipps
- Jetzt eine KI-Inventarliste erstellen und Hochrisiko-Fälle priorisieren (z. B. Recruiting, Kreditprüfung, kritische Infrastruktur).
- Ein „AI Competence Center“ oder klare Rollen (Owner, Risk, Legal, Security) etablieren.
Schritt 4: 2027 – Hochrisiko-KI in regulierten Produkten endgültig konform
2. August 2027
Schritt 4: 2027 – Hochrisiko-KI in regulierten Produkten endgültig konform
Worum es geht
Ab dem 2. August 2027 greifen die Regeln voll für Hochrisiko-KI in regulierten Produkten. Gleichzeitig enden Übergangsfristen für bestimmte bereits am Markt befindliche GPAI-Modelle: Modelle, die vor dem 2. August 2025 in Verkehr gebracht wurden, müssen bis dahin konform sein. Für Branchen wie Medizintechnik oder Industrieautomation wird damit die Verzahnung aus Produkt-Compliance und KI-Compliance zum Standard.
Bedeutung für Anbieter vs. Anwender
- Anbieter: Produktdokumentation, Risikobewertung und KI-Lifecycle müssen zusammenpassen – inklusive Updates und Post-Market-Monitoring.
- Anwender: Bei regulierten Systemen nur noch Lösungen mit belastbaren Nachweisen einkaufen und Änderungen streng steuern.
Praktische Tipps
- Upgrade-Pfade für bestehende Systeme planen (Daten, Modelle, Prozesse, Verträge).
- Bei Lieferanten verbindliche Nachweisformate und Update-Informationspflichten festlegen.
Februar 2025: Was sofort gilt (Verbote & AI Literacy) – kompakt erklärt
Verbot „unannehmbares Risiko“
Seit Februar 2025 sind KI-Anwendungen mit „unannehmbarem Risiko“ verboten – darunter Social Scoring, Emotionserkennung am Arbeitsplatz und in Bildung sowie manipulative Systeme, die gezielt Schwächen ausnutzen. Auch Echtzeit-Biometrie im öffentlichen Raum ist grundsätzlich untersagt, mit engen Ausnahmen für Strafverfolgung.
Praktisch heißt das: Ein „Mitarbeiter-Stressradar“ per Webcam oder ein Bewerber-Ranking nach vermeintlicher „Zuverlässigkeit“ aus Verhaltensdaten kann nicht einfach „datenschutzkonform“ gemacht werden – es ist regulatorisch ausgeschlossen.
AI Literacy wird Pflicht
Unternehmen müssen seit 2. Feb. 2025 sicherstellen, dass Mitarbeitende, die KI nutzen oder betreiben, über ausreichende KI-Kompetenz verfügen. Betroffen sind nicht nur IT-Teams, sondern auch HR, Marketing, Vertrieb, Customer Support oder Fachabteilungen, wenn sie z. B. Chatbots, Textgeneratoren oder Analyse-Tools einsetzen.
Ein praxistauglicher Ansatz: Rollenbasierte Trainings (Grundlagen für alle, vertieft für „Power User“), plus kurze Lernchecks zu Themen wie Halluzinationen, Bias, Prompting, Datenumgang und Freigabeprozessen.
Erste Governance: Prozesse statt PowerPoint
Jetzt lohnt sich ein schlankes Governance-Setup: Benennen Sie Verantwortliche (z. B. KI-Owner je Tool), definieren Sie erlaubte Use Cases und legen Sie fest, wann Legal/Compliance eingebunden wird. Ergänzen Sie das durch eine einfache Policy: Welche Daten dürfen in Tools, welche nicht, und wie werden Ergebnisse geprüft?
Konkreter Tipp: Etablieren Sie einen „Human-in-the-Loop“-Standard für externe Kommunikation (z. B. Angebote, Verträge, HR-Entscheidungen) und einen Eskalationskanal für Verdachtsfälle verbotener Praktiken.
Quick-Check: Fällt etwas unter die Verbote?
Führen Sie eine KI-Inventur durch: Welche Systeme werden genutzt, wofür, mit welchen Daten und von wem? Prüfen Sie dann gezielt auf rote Flaggen: Emotionserkennung (Kamera/Mikro), biometrische Identifikation, Bewertung von Personen nach Verhalten/Profilmerkmalen oder „Nudging“, das Schwächen ausnutzt.
Beispiel-Fragen: „Wird jemand aufgrund eines Scores anders behandelt?“ „Wird Stimmung/Emotion automatisch abgeleitet?“ „Gibt es Echtzeit-Identifikation im öffentlichen Raum?“ Wenn ja: sofort stoppen und bewerten.
Dokumentation: Nachweisbarkeit von Training & Entscheidungen
Auch wenn viele Pflichten erst 2026 voll greifen, ist Nachweisbarkeit ab jetzt ein Vorteil: Halten Sie Trainingsinhalte, Teilnahme, Lernziele und Aktualisierungen fest. Dokumentieren Sie außerdem Entscheidungen aus dem Quick-Check (z. B. „Use Case abgelehnt, weil…“) sowie Freigaben für erlaubte Anwendungen.
Minimal-Setup: Schulungsregister, Tool-Liste mit Zweck und Datenkategorien, Verantwortliche je System und ein kurzer Prüfvermerk pro kritischem Use Case.
Risikomanagement-System: Von „KI im Einsatz“ zu „KI unter Kontrolle“
Ab August 2026 wird für Hochrisiko-KI ein belastbares Risikomanagement zum Standard: Risiken identifizieren, bewerten, mitigieren – und das über den gesamten Lebenszyklus. Praktisch heißt das: schon vor dem Rollout definieren Sie Risiko-Szenarien (z. B. Fehlklassifikation, Bias, Sicherheitslücken) und legen messbare Akzeptanzkriterien fest.
- Praxis-Tipp: Starten Sie mit einem KI-Inventar und markieren Sie Systeme in HR, Bildung, kritischer Infrastruktur oder Compliance als „High-Risk-Kandidaten“.
- Beispiel: Ein Bewerber-Scoring-Tool bekommt klare Schwellenwerte, wann menschliche Prüfung verpflichtend ist und wann das System gestoppt werden muss.
Datenqualität & Data Governance: Saubere Trainings- und Eingabedaten als Compliance-Hebel
Hochrisiko-KI steht und fällt mit Datenqualität: Herkunft, Repräsentativität, Fehlerquoten und mögliche Verzerrungen müssen nachvollziehbar gesteuert werden. Damit vermeiden Sie nicht nur regulatorische Risiken, sondern verbessern auch die Modellleistung und reduzieren operative Streitfälle.
- Praxis-Tipp: Führen Sie „Data Fact Sheets“ ein: Datensatzquelle, Aktualität, bekannte Lücken, erlaubte Nutzung und Löschkonzept.
- Beispiel: In der Betrugserkennung dokumentieren Sie, welche Kundengruppen im Training unterrepräsentiert sind und wie Sie das durch Sampling/Validierung ausgleichen.
Technische Dokumentation & Transparenz: Auditierbar statt erklärungsbedürftig
2026 wird Nachweisbarkeit entscheidend: Technische Dokumentation, Modell- und Systembeschreibung, Zweck, Leistungsgrenzen, Testresultate und Betriebsanleitungen müssen so strukturiert sein, dass interne Reviews und externe Prüfungen effizient möglich sind. Transparenz bedeutet außerdem, dass Nutzer:innen und betroffene Teams verstehen, wofür das System geeignet ist – und wofür nicht.
- Praxis-Tipp: Legen Sie ein einheitliches Template an (Versionierung, Change-Log, Testprotokolle) und koppeln Sie Releases an „Doc-Complete“-Gates.
- Beispiel: Ein KI-Tool zur Priorisierung von Support-Tickets enthält klare Grenzen (z. B. keine automatische Ablehnung) plus Hinweise auf typische Fehlmuster.
Monitoring, Incident-Prozesse & Rollen: Betriebssicherheit mit klarer Verantwortlichkeit
Hochrisiko-KI braucht laufendes Monitoring: Drift, Performance, Fehlerraten, Security-Events und Nutzerfeedback werden kontinuierlich ausgewertet und in definierte Reaktionspfade überführt. Gleichzeitig müssen Provider- und Deployer-Rollen sauber getrennt sein – inklusive Verantwortlichkeiten, Lieferantensteuerung und Eskalationswegen.
- Praxis-Tipp: Etablieren Sie ein „KI-Vigilanz“-Playbook mit Schwellenwerten, Incident-Kategorien und Stop/Go-Entscheidungen.
- Beispiel: Bei auffälligen Fehlentscheidungen in einer Kreditvorprüfung greift ein Prozess: sofortige Limitierung des Modus, Root-Cause-Analyse, Patch, Re-Validierung und dokumentierte Wiederfreigabe.
Vorher
- KI wird „einfach mal ausprobiert“ (Chatbots, Copilots, CV-Tools) – ohne formale Einordnung, ob das System in verbotene Praktiken fallen könnte (z. B. Emotionserkennung am Arbeitsplatz) oder ob ein Hochrisiko-Use-Case vorliegt.
- Beschaffung läuft wie bei Standardsoftware: Anbieter-Versprechen, ein Datenblatt, fertig. Technische Nachweise fehlen, Modellgrenzen werden nicht geprüft, Verantwortlichkeiten bleiben im Einkauf hängen.
- KI-Kompetenz entsteht zufällig: einzelne Power-User lernen „on the job“. Es gibt keine Schulungsnachweise, keine klaren Do’s & Don’ts und keine Vorgaben für den Umgang mit sensiblen Daten in Prompts.
- Produktentwicklung ist schnell, aber schwer prüfbar: Anforderungen sind unklar, Testkriterien fehlen, Bias- und Robustheitschecks passieren unregelmäßig, Änderungen am Modell werden kaum nachvollzogen.
- Betrieb ist reaktiv: Wenn die KI „komisch“ antwortet oder Fehler macht, wird manuell nachjustiert. Es gibt kein Monitoring, keine Incident-Routinen und keine klare Eskalationskette.
- Dokumentation ist minimal: ein paar Tickets, ein Wiki-Eintrag, sonst wenig. Entscheidungen sind personenabhängig und bei Teamwechsel kaum rekonstruierbar.
Nachher
- Jedes KI-Vorhaben startet mit einer Risikoklassifizierung und einem Use-Case-Check: Was ist verboten, was ist potenziell hochriskant, was ist nur begrenzt riskant? Ergebnis: klare Go/No-Go-Entscheidung und definierte Auflagen für Umsetzung und Betrieb.
- Vendor-Checks werden Pflichtprogramm: Lieferanten müssen technische Dokumentation, Transparenzinfos und belastbare Aussagen zu Datenherkunft, Limitierungen und Sicherheitsmaßnahmen liefern. Verträge regeln Rollen (Provider/Deployer), Support bei Incidents und Aktualisierungspflichten.
- Ein AI-Literacy-Programm macht KI nutzbar und auditierbar: rollenbasierte Trainings (Fachbereich, IT, Compliance, HR), dokumentierte Teilnahme, verbindliche Nutzungsrichtlinien und Prompt-Guidelines – inklusive klarer Regeln für personenbezogene und vertrauliche Informationen.
- Entwicklung folgt einem compliance-fähigen Prozess: definierte Anforderungen, Testpläne, dokumentierte Daten- und Modellentscheidungen, Freigaben über Gate-Reviews sowie nachvollziehbares Change-Management. Ergebnis: weniger Überraschungen bei Rollout und Skalierung.
- Betrieb wird kontrollierbar: Monitoring für Qualität, Drift und Fehlerraten, definierte Incident-Prozesse (inkl. Meldewegen), klare Verantwortlichkeiten und regelmäßige Reviews. So lassen sich Risiken früh erkennen und Updates gezielt ausrollen.
- Technische und organisatorische Nachweise werden Standard: Risikobewertung, Rollenmodell, Schulungsbelege, Vendor-Unterlagen, Test- und Betriebsdokumentation. Das reduziert Reibung bei internen Kontrollen, Audits und bei der Zusammenarbeit mit Partnern.