OpenAI-Workflow Action: Konfiguration, Parameter & Best Practices
Dieser Artikel erklärt im Detail, wie eine OpenAI-Workflow Action innerhalb der DataEngine aufgebaut ist, welche Eingabe- und Ausgabeparameter es gibt und was man beachten muss für eine bestmögliche Antwort.
Input & Output Parameter (Felder des WorkFlow-Moduls)
Jeder OpenAI-Workflow benötigt klar definierte Felder zur Verarbeitung einer Anfrage. Diese werden im Workflow-Modul zugeordnet:
- Quellfeld: Das Quellfeld ist das Eingabefeld, dessen Inhalt an das OpenAI-Modell gesendet wird. Es dient als Prompt, also textliche Aufforderung, die das Modell bearbeiten soll.
- JSON Request Field : Das Feld, in dem die vollständige JSON-Anfrage gespeichert wird. Das ist besonders hilfreich zur Nachvollziehbarkeit oder zum Debugging.
- Zielfeld : Das Zielfeld ist das Speicherfeld für die generierte Antwort. Es wird empfohlen, Felder mit WYSIWYG-Editor zu nutzen, da diese HTML-Formatierungen unterstützen und somit optisch ansprechende Ausgaben ermöglichen.
- JSON-Antwort Feld: Das Feld, in dem die vollständige JSON-Antwort gespeichert wird. Ideal für Support-Teams und Entwickler, um zu verstehen, wie das Modell auf die Anfrage reagiert hat.
Request Body Parameters – Beschreibung & Info
Eine Chat-Completion Anfrage besteht aus mehreren wichtigen Parametern, die beeinflussen, wie das Modell arbeitet. Hier wird ein Überblick über allgemeine Parameter gegeben, die allen Modellen gemein sind. Einzelne Modelle können aber nochmal spezifischere Parameter haben – diese kannst du in der offiziellen OpenAI-Dokumentation nachlesen.
- Model: Der Parameter model in einer Chat-Vervollständigungsanfrage definiert das spezifische GPT-Modell, das für die Generierung der Antwort verwendet werden soll. Die verfügbaren Modelle können sich ändern, also überprüfe die aktuelle OpenAI-Dokumentation, um sicherzustellen, dass du den neuesten Modellnamen verwendest. Normalerweise wirst du Modelle wie „text-davinci-003“ verwenden, aber es gibt auch spezialisierte Modelle für bestimmte Anwendungen. Falls du dir nicht sicher bist, welches Modell du verwenden sollst, ist hier eine webbasierte Plattform zum Experimentieren mit verschiedenen Modellen von OpenAI.
Wichtig: Aktuelle Modelle & Preise müssen immer direkt bei OpenAI eingesehen werden. Die Preisliste findest du hier. - Prompt: Im Prompt-Feld wird die eigentliche Anfrage an das Modell formuliert, d.h. was das Modell tun soll, wie es antworten soll und welche Daten (z.B. via Platzhalter) einfließen sollen. Platzhalter aus anderen Modulen können genutzt werden, um Inhalte dynamisch einzubinden. Ein Platzhalter beginnt mit „/“. Das System ersetzt dann beim Ausführen automatisch mit dem Feldinhalt.
Beispiel: /bsp_Person.name fügt den Namen aus dem Modul bsp_Person ein.
- Tools: Unter Tools stehen Erweiterungen wie Web Search zur Verfügung. Damit kann das Modell zusätzlich auf aktuelle Informationen aus dem Internet zugreifen, die automatisch in die Antwort integriert werden. Das ist besonders nützlich für Recherchen, Preisangaben, Faktenchecks und aktuelle Marktinformationen.
- Ziel: Hier wird festgelegt, wo die generierte Antwort gespeichert werden soll. Besonders empfehlenswert ist ein WYSIWYG-Datentyp, da dieser HTML-Formatierungen unterstützt und somit eine ansprechende Darstellung der Ergebnisse ermöglicht.
- Playground: Der Playground der OpenAI-Plattform ist ein webbasiertes Testlabor. Dort kann man Modelle ausprobieren, Parameter ausgiebig testen, Tokenverbrauch live beobachten, Beispiel-Prompts simulieren und vieles mehr. Der Playground eignet sich hervorragend, um den Workflow vor der Implementierung zu optimieren und auf eigene Anforderungen anzupassen.
Zusammenfassung
Ein OpenAI-Workflow besteht im Wesentlichen aus:
- Inputfeldern (Prompt)
- JSON-Request
- Modellparametern
- Tools wie Web Search
- Zielfeldern für formatierten Output
- vollständiger JSON-Antwort für Nachvollziehbarkeit
Durch die richtigen Einstellungen und klar definierten Prompts lässt sich ein leistungsfähiger, transparent dokumentierter KI-Workflow erstellen.
Best Practices
Damit ein OpenAI-Workflow zuverlässig, effizient und in konsistent hoher Qualität arbeitet, sollten bei der Einrichtung und Nutzung folgende Punkte beachtet werden.
- Klare, eindeutige Aufgabenstellung formulieren – schreibe immer aus, was das Modell tun soll und was nicht. Je klarer die Aufgabe gestellt ist, desto besser die Antwort.
- Kontext mitgeben – das Modell weiß nichts über deinen Anwendungsfall, wenn du es ihm nichts sagst. Den Kontext direkt im Prompt mitzugeben, hilft dem Modell, zielgerichtet zu arbeiten.
- Regeln und Einschränkungen – wenn etwas nicht passieren soll, dann benenne es explizit. Diese Einschränkungen erhöhen die Zuverlässigkeit enorm.
- Formatvorgaben beschreiben – das Modell liefert das Format, das du vorgibst z.B. „Gib die Antwort als Satz aus“ oder „Nutze eine Liste mit drei Punkten“. Das verhindert abweichende Antwortformen. Du kannst dem Modell hier zusätzlich ein Beispiel geben, das wirkt oft besser als reine Erklärung.
- Immer nur eine Aufgabe pro Prompt – wenn ein Prompt zwei Dinge gleichzeitig verlangt, kann es passieren, dass das Modell Inhalte vermischt.