Zum Hauptinhalt springen
Startseite > “Admin-Menü” > “Konnektoren” > “OpenAPI”-Tab

Übersicht

Der OpenAPI-Konnektor ermöglicht es, externe REST-APIs über OpenAPI-Spezifikationen (Swagger) als LLM-Funktionen zu nutzen. LLM-Modelle können diese APIs dann automatisch als Funktionen aufrufen, um Daten abzurufen oder Aktionen auszuführen.
Info: OpenAPI-Spezifikationen können im JSON- oder YAML-Format importiert werden. Die Endpunkte werden automatisch erkannt und als LLM-Funktionen verfügbar gemacht.

Funktionen im Überblick

  • Import von OpenAPI-Spezifikationen: Unterstützung für JSON- und YAML-Formate
  • Automatische Endpunkt-Erkennung: Alle Endpunkte werden automatisch aus der Spezifikation extrahiert
  • Authentifizierung: Unterstützung für API Key, Bearer Token und Basic Auth
  • Test-Interface: Integrierter Tester zum Testen von API-Aufrufen
  • Gruppenverwaltung: Zugriffskontrolle über Gruppen

OpenAPI-Konfiguration erstellen

Beim Erstellen einer neuen OpenAPI-Konfiguration stehen folgende Optionen zur Verfügung:

1. Titel

Frei wählbare Bezeichnung zur Identifikation der Konfiguration, z. B. GitHub API oder Stripe API.

2. OpenAPI-Spezifikation

Die vollständige OpenAPI-Spezifikation im JSON- oder YAML-Format. Diese kann:
  • Direkt eingegeben werden
  • Aus einer URL importiert werden
  • Aus einer Datei hochgeladen werden
Hinweis: Die Spezifikation muss dem OpenAPI 3.0 oder Swagger 2.0 Standard entsprechen.

3. Authentifizierung

Unterstützte Authentifizierungstypen:
  • Keine Authentifizierung (none)
    • Für öffentliche APIs ohne Authentifizierung
  • API Key (apiKey)
    • API Key Name: Name des API-Keys (z. B. X-API-Key)
    • API Key Wert: Der tatsächliche API-Key-Wert
    • Position: Header oder Query-Parameter
  • Bearer Token (bearer)
    • Token: Der Bearer-Token-Wert
    • Wird automatisch im Authorization: Bearer <token> Header gesendet
  • Basic Auth (basic)
    • Benutzername: Benutzername für Basic Authentication
    • Passwort: Passwort für Basic Authentication

4. Gruppen

Auswahl, welche Gruppen Zugriff auf diese OpenAPI-Konfiguration haben. Nur Benutzer aus freigegebenen Gruppen können die Endpunkte als LLM-Funktionen nutzen.

Endpunkte verwalten

Nach dem Import einer OpenAPI-Spezifikation werden alle Endpunkte automatisch erkannt und extrahiert. Jeder Endpunkt wird als separate LLM-Funktion verfügbar gemacht.

Endpunkt-Details

Jeder Endpunkt enthält:
  • Name: Der Funktionsname für das LLM
  • Beschreibung: Beschreibung der Funktion für das LLM
  • HTTP-Methode: GET, POST, PUT, DELETE, PATCH
  • Pfad: Der API-Endpunkt-Pfad
  • Parameter: Alle Parameter (Query, Header, Path, Body) mit ihren Schemas

Endpunkt testen

Über das integrierte Test-Interface können Sie jeden Endpunkt direkt testen:
  1. Wählen Sie einen Endpunkt aus
  2. Füllen Sie die erforderlichen Parameter aus
  3. Klicken Sie auf “Testen”
  4. Die Antwort wird mit Statuscode, Headers und Body angezeigt

OpenAPI-Endpunkte als Konnektoren bereitstellen

Nachdem Sie eine OpenAPI-Konfiguration erstellt und Endpunkte importiert haben, können Sie diese Endpunkte als Konnektoren in Ihren Assistenten verwenden.

Konnektor erstellen

  1. Assistent bearbeiten: Öffnen Sie die Assistenten-Konfiguration
  2. Konnektor hinzufügen: Fügen Sie einen neuen Konnektor hinzu
  3. OpenAPI-Endpunkte auswählen: Wählen Sie die gewünschten Endpunkte aus der Liste aus
    • Sie können Endpunkte aus verschiedenen OpenAPI-Konfigurationen auswählen
    • Jeder Endpunkt wird als separate LLM-Funktion bereitgestellt
  4. Speichern: Speichern Sie die Konnektor-Konfiguration
Info: OpenAPI-Endpunkte werden automatisch als LLM-Funktionen konvertiert. Das LLM kann diese Funktionen während der Konversation aufrufen, um Daten abzurufen oder Aktionen auszuführen.

Endpunkt-Auswahl

  • Mehrfachauswahl: Sie können mehrere Endpunkte aus verschiedenen OpenAPI-Konfigurationen auswählen
  • Suche: Verwenden Sie die Suchfunktion, um Endpunkte schnell zu finden
  • Filterung: Endpunkte werden nach OpenAPI-Konfiguration gruppiert angezeigt

Funktionsweise

Wenn ein Assistent mit OpenAPI-Endpunkten konfiguriert ist:
  1. Die Endpunkte werden dem LLM als verfügbare Funktionen bereitgestellt
  2. Das LLM kann diese Funktionen basierend auf der Benutzeranfrage aufrufen
  3. Die API-Aufrufe werden an die entsprechende REST-API weitergeleitet
  4. Die Antworten werden dem LLM zur Verfügung gestellt und in die Konversation integriert