Federated Learning (Föderiertes Lernen)
Federated Learning (föderiertes Lernen) ist ein Trainingsverfahren für KI-Modelle, bei dem mehrere Geräte oder Organisationen gemeinsam ein Modell verbessern, ohne ihre Rohdaten zentral zusammenzuführen. Stattdessen werden nur Modell-Updates (z. B. Gradienten oder Gewichte) ausgetauscht. Das ist besonders relevant, wenn Daten sensibel sind oder aus Compliance-Gründen (z. B. Datenschutz (DSGVO/GDPR) & KI und Data Residency) nicht geteilt werden dürfen.
Was bedeutet Federated Learning?
„Federated“ (föderiert) bedeutet: verteilt, aber koordiniert. Die Daten bleiben dort, wo sie entstehen (z. B. auf Smartphones, in Kliniken, bei Banken oder in Filialen). Ein zentraler Server oder Koordinator orchestriert das Training und aggregiert die lokalen Lernfortschritte zu einem globalen Modell.
Wie funktioniert föderiertes Lernen?
- 1) Initiales Modell: Ein Startmodell wird an die teilnehmenden Clients verteilt (Geräte/Standorte/Unternehmen).
- 2) Lokales Training: Jeder Client trainiert das Modell mit seinen lokalen Daten (z. B. Nutzungsdaten, Patientendaten, Maschinensensordaten) – die Daten verlassen den Client nicht.
- 3) Update statt Daten: Der Client sendet nur ein Update (z. B. Gewichtsdeltas/Gradienten) an den Server.
- 4) Aggregation: Der Server kombiniert die Updates (klassisch: „Federated Averaging“) zu einem verbesserten globalen Modell.
- 5) Wiederholung: Dieser Prozess läuft über viele Runden, bis die gewünschte Qualität erreicht ist. Anschließend folgt die Inference mit dem finalen Modell.
Warum ist Federated Learning wichtig?
Der größte Vorteil ist die Datensouveränität: Unternehmen können gemeinsam lernen, ohne Datenpools aufzubauen. Das reduziert rechtliche und organisatorische Hürden und kann die Akzeptanz von KI-Projekten erhöhen. Gleichzeitig kann Federated Learning helfen, Modelle robuster zu machen, weil sie aus vielfältigen Datenquellen lernen (z. B. unterschiedliche Standorte, Geräte, Nutzergruppen).
Beispiele & typische Use Cases
- On-Device AI: Smartphones verbessern Tastatur-Vorschläge oder Spracherkennung, ohne Texte zentral zu speichern (siehe On-Device AI (Edge AI)).
- Gesundheitswesen: Mehrere Kliniken trainieren ein Modell zur Bilddiagnostik, ohne Patientendaten auszutauschen.
- Industrie/IoT: Werke oder Maschinenparks trainieren gemeinsam ein Qualitäts- oder Wartungsmodell, obwohl Daten lokal bleiben müssen.
- LLM-Umfeld: Für ein Large Language Model (LLM) ist echtes Federated Training sehr aufwendig, aber das Prinzip ist interessant für dezentrale Anpassungen (z. B. lokale Updates statt zentralem Fine-Tuning), insbesondere wenn Daten nicht in eine Cloud dürfen.
Herausforderungen & Grenzen
Federated Learning ist nicht automatisch „privacy-safe“: Updates können unter Umständen Informationen leaken. Deshalb werden häufig zusätzliche Maßnahmen wie Secure Aggregation, Differential Privacy oder Verschlüsselung eingesetzt. Weitere Hürden sind heterogene Daten (nicht-iid), unzuverlässige Clients, hoher Kommunikationsaufwand und komplexeres MLOps-Monitoring über viele Teilnehmer hinweg.
Wann lohnt sich Federated Learning?
Föderiertes Lernen lohnt sich besonders, wenn (1) Daten aus rechtlichen/ethischen Gründen nicht zentralisiert werden dürfen, (2) mehrere Parteien gemeinsam profitieren, (3) genügend Rechenleistung lokal verfügbar ist und (4) der zusätzliche Betriebsaufwand gegenüber zentralem Training gerechtfertigt ist.