Übersicht
Der OpenAPI-Konnektor ermöglicht es, externe REST-APIs über OpenAPI-Spezifikationen (Swagger) als LLM-Funktionen zu nutzen. LLM-Modelle können diese APIs dann automatisch als Funktionen aufrufen, um Daten abzurufen oder Aktionen auszuführen.Info: OpenAPI-Spezifikationen können im JSON- oder YAML-Format importiert
werden. Die Endpunkte werden automatisch erkannt und als LLM-Funktionen
verfügbar gemacht.
Funktionen im Überblick
- Import von OpenAPI-Spezifikationen: Unterstützung für JSON- und YAML-Formate
- Automatische Endpunkt-Erkennung: Alle Endpunkte werden automatisch aus der Spezifikation extrahiert
- Authentifizierung: Unterstützung für API Key, Bearer Token und Basic Auth
- Test-Interface: Integrierter Tester zum Testen von API-Aufrufen
- Gruppenverwaltung: Zugriffskontrolle über Gruppen
OpenAPI-Konfiguration erstellen
Beim Erstellen einer neuen OpenAPI-Konfiguration stehen folgende Optionen zur Verfügung:1. Titel
Frei wählbare Bezeichnung zur Identifikation der Konfiguration, z. B. GitHub API oder Stripe API.2. OpenAPI-Spezifikation
Die vollständige OpenAPI-Spezifikation im JSON- oder YAML-Format. Diese kann:- Direkt eingegeben werden
- Aus einer URL importiert werden
- Aus einer Datei hochgeladen werden
Hinweis: Die Spezifikation muss dem OpenAPI 3.0 oder Swagger 2.0 Standard
entsprechen.
3. Authentifizierung
Unterstützte Authentifizierungstypen:-
Keine Authentifizierung (
none)- Für öffentliche APIs ohne Authentifizierung
-
API Key (
apiKey)- API Key Name: Name des API-Keys (z. B.
X-API-Key) - API Key Wert: Der tatsächliche API-Key-Wert
- Position: Header oder Query-Parameter
- API Key Name: Name des API-Keys (z. B.
-
Bearer Token (
bearer)- Token: Der Bearer-Token-Wert
- Wird automatisch im
Authorization: Bearer <token>Header gesendet
-
Basic Auth (
basic)- Benutzername: Benutzername für Basic Authentication
- Passwort: Passwort für Basic Authentication
4. Gruppen
Auswahl, welche Gruppen Zugriff auf diese OpenAPI-Konfiguration haben. Nur Benutzer aus freigegebenen Gruppen können die Endpunkte als LLM-Funktionen nutzen.Endpunkte verwalten
Nach dem Import einer OpenAPI-Spezifikation werden alle Endpunkte automatisch erkannt und extrahiert. Jeder Endpunkt wird als separate LLM-Funktion verfügbar gemacht.Endpunkt-Details
Jeder Endpunkt enthält:- Name: Der Funktionsname für das LLM
- Beschreibung: Beschreibung der Funktion für das LLM
- HTTP-Methode: GET, POST, PUT, DELETE, PATCH
- Pfad: Der API-Endpunkt-Pfad
- Parameter: Alle Parameter (Query, Header, Path, Body) mit ihren Schemas
Endpunkt testen
Über das integrierte Test-Interface können Sie jeden Endpunkt direkt testen:- Wählen Sie einen Endpunkt aus
- Füllen Sie die erforderlichen Parameter aus
- Klicken Sie auf “Testen”
- Die Antwort wird mit Statuscode, Headers und Body angezeigt
OpenAPI-Endpunkte als Konnektoren bereitstellen
Nachdem Sie eine OpenAPI-Konfiguration erstellt und Endpunkte importiert haben, können Sie diese Endpunkte als Konnektoren in Ihren Assistenten verwenden.Konnektor erstellen
- Assistent bearbeiten: Öffnen Sie die Assistenten-Konfiguration
- Konnektor hinzufügen: Fügen Sie einen neuen Konnektor hinzu
- OpenAPI-Endpunkte auswählen: Wählen Sie die gewünschten Endpunkte aus der Liste aus
- Sie können Endpunkte aus verschiedenen OpenAPI-Konfigurationen auswählen
- Jeder Endpunkt wird als separate LLM-Funktion bereitgestellt
- Speichern: Speichern Sie die Konnektor-Konfiguration
Info: OpenAPI-Endpunkte werden automatisch als LLM-Funktionen konvertiert.
Das LLM kann diese Funktionen während der Konversation aufrufen, um Daten
abzurufen oder Aktionen auszuführen.
Endpunkt-Auswahl
- Mehrfachauswahl: Sie können mehrere Endpunkte aus verschiedenen OpenAPI-Konfigurationen auswählen
- Suche: Verwenden Sie die Suchfunktion, um Endpunkte schnell zu finden
- Filterung: Endpunkte werden nach OpenAPI-Konfiguration gruppiert angezeigt
Funktionsweise
Wenn ein Assistent mit OpenAPI-Endpunkten konfiguriert ist:- Die Endpunkte werden dem LLM als verfügbare Funktionen bereitgestellt
- Das LLM kann diese Funktionen basierend auf der Benutzeranfrage aufrufen
- Die API-Aufrufe werden an die entsprechende REST-API weitergeleitet
- Die Antworten werden dem LLM zur Verfügung gestellt und in die Konversation integriert
