FAllgemein

Function Calling / Tool Use

LLM ruft definierte Funktionen/APIs strukturiert auf.

Function Calling (auch „Tool Use“ genannt) bedeutet, dass ein Large Language Model (LLM) wie ChatGPT nicht nur Text generiert, sondern definierte Funktionen, Tools oder APIs in einem strukturierten Format aufruft. Statt „frei“ zu raten, kann das Modell z. B. eine Wetter-API abfragen, Daten in einem CRM speichern oder einen Workflow in n8n starten – und anschließend das Ergebnis verständlich zusammenfassen.

Was bedeutet Function Calling / Tool Use?

Der Begriff beschreibt eine Schnittstelle zwischen LLM und Software-Welt: Du stellst dem Modell „Werkzeuge“ (Funktionen) zur Verfügung, inklusive Name, Beschreibung und Parametern (z. B. JSON-Schema). Wenn der Nutzer etwas fragt, entscheidet das LLM, ob es ein Tool nutzen sollte, erzeugt einen passenden Funktionsaufruf (strukturierte Daten), und ein System führt diesen Aufruf aus. Das LLM erhält danach das Tool-Ergebnis zurück und formuliert daraus die Antwort.

Wie funktioniert Function Calling?

  • 1) Tools definieren: Du beschreibst Funktionen/APIs (z. B. get_weather, create_ticket) samt Parametern und Validierungsregeln.
  • 2) Nutzeranfrage: Der User stellt eine Frage („Buche einen Termin am Freitag um 14 Uhr“).
  • 3) Tool-Entscheidung: Das LLM erkennt, dass ein externer Schritt nötig ist (Kalender prüfen/buchen).
  • 4) Strukturierter Aufruf: Das Modell erzeugt z. B. JSON mit date, time, timezone statt unstrukturiertem Text.
  • 5) Ausführung & Rückgabe: Dein Backend, Zapier/n8n oder ein Service führt den Call aus und liefert Resultate (Bestätigung, Fehlermeldung, Daten).
  • 6) Antwortgenerierung: Das LLM erklärt das Ergebnis („Termin ist eingetragen, Einladung ist raus“).

Warum ist Tool Use wichtig?

Function Calling macht LLMs deutlich zuverlässiger und „handlungsfähig“. Statt Halluzinationen zu riskieren, kann das Modell Informationen aus verlässlichen Quellen holen oder Aktionen in Systemen ausführen. Das ist zentral für Automationen (z. B. in n8n), Assistenzsysteme und AI Agents (KI-Agenten), die mehrere Schritte planen und Tools kombinieren.

Beispiele aus Praxis & Automation

  • Kundensupport: Ticket anlegen, Status aus Helpdesk abrufen, Rückerstattung anstoßen.
  • Sales/CRM: Lead anlegen, Notizen speichern, Follow-up-E-Mail vorbereiten und versenden.
  • Reporting: Daten aus Google Sheets/DB ziehen, Kennzahlen berechnen, Management-Zusammenfassung schreiben.
  • n8n-Workflows: LLM entscheidet, welche Node/Route genutzt wird, und übergibt saubere Parameter.

Was kostet Function Calling / Tool Use?

Die Kosten hängen meist von (a) LLM-Tokens (Eingabe/Ausgabe), (b) Tool-/API-Kosten (z. B. CRM, Maps, Datenbanken) und (c) Infrastruktur/Workflow-Plattform (z. B. n8n Cloud vs. Self-Hosted) ab. Oft starten einfache Setups im niedrigen zweistelligen Eurobereich pro Monat (Tool+Hosting), während produktive Systeme je nach Volumen schnell deutlich höher liegen.

Wichtige Erfolgsfaktoren

  • Gute Tool-Beschreibungen: Klare Namen, präzise Parameter, Beispiele.
  • Validierung & Sicherheit: Parameter prüfen, Berechtigungen/Scopes, Logging, Rate Limits.
  • Fehlerhandling: Saubere Rückgaben (z. B. „Termin nicht verfügbar“) und sinnvolle Nachfragen.

Richtig umgesetzt ist Function Calling der Schlüssel, um aus „Chat“ echte, zuverlässige Automatisierung zu machen – mit nachvollziehbaren, strukturierten Aktionen statt reiner Textausgabe.