OpenAI Proxy Entry Point
In der DataEngine gibt es nun einen OpenAI Proxy Entry Point. Der kümmert sich um die Request an AzureOpenAI (wenn die Zugangsdaten im Admin Bereich eingegeben worden sind), sonst wird die Request an die „normale“ OpenAI geschickt.
Es müsste eine POST Request and die Url : …?entryPoint=OpenAIProxy geschickt werden.
Beispiel: https://xxx.marini.systems/index.php?entryPoint=OpenAIProxy
Der Body der POST-Anfrage sollte im Format x-www-form-urlencoded kodiert werden.
Beispiel für die POST-Anfrage:
curl -X POST \ -H "Content-Type: application/x-www-form-urlencoded" \ -d "model=gpt-35-turbo&message=Hallo&max_tokens=500&temperature=0.7&api_version=2024-02-15-preview" \ https://xxx.marini.systems/index.php?entryPoint=OpenAIProxy
Die Parameter, die als „Pflicht“ gelten, sind: „model“ & „message„. (Wenn AzureOpenAI benutzt werden sollte auch „api_version„)
Weitere Parameter, die geschickt werden könnten: „top_p“, „frequency_penalty“, „presence_penalty“, „debug“.
Endpoint & API Key müssen somit nicht mehr eingegeben werden, der Entry Point kümmert sich darum.
Wenn „debug“ eingeschaltet wird, wird die tatsächliche Fehlermeldung im Falle eines Problems zurückgegeben, sonst einen leeren String.