OpenAI Realtime API
Sprich mit dem OpenAI-Realtime-Modell in Millisekunden — bidirektionales Audio und Text in einer einzigen WebSocket-Sitzung, angesteuert aus Delphi/C++Builder.
Sprich mit dem OpenAI-Realtime-Modell in Millisekunden — bidirektionales Audio und Text in einer einzigen WebSocket-Sitzung, angesteuert aus Delphi/C++Builder.
WebSocket-Client für die OpenAI Realtime API — vollständiger Session-Lebenszyklus, Function Tools, Audio-Frame-Streaming und Transkriptions-Ereignisse.
TsgcWSAPI_OpenAI
Windows, macOS, Linux, iOS, Android
Standard / Professional / Enterprise
Verbinde sie mit einem TsgcWebSocketClient, setze OpenAI.ApiKey und OpenAI.Model und schicke dann Audio oder Text – und höre die Response-Ereignisse ab.
uses
sgcWebSocket, sgcWebSocket_API_OpenAI;
var
WSClient: TsgcWebSocketClient;
OpenAI: TsgcWSAPI_OpenAI;
begin
WSClient := TsgcWebSocketClient.Create(nil);
OpenAI := TsgcWSAPI_OpenAI.Create(nil);
OpenAI.Client := WSClient;
OpenAI.OpenAI.ApiKey := 'sk-...';
OpenAI.OpenAI.Model := 'gpt-realtime';
WSClient.Active := True;
// send a text turn
OpenAI.ConversationCreateMessageText('Hello', 'user');
OpenAI.ResponseCreate;
end;
// uses: sgcWebSocket, sgcWebSocket_API_OpenAI
TsgcWebSocketClient *WSClient = new TsgcWebSocketClient(this);
TsgcWSAPI_OpenAI *OpenAI = new TsgcWSAPI_OpenAI(this);
OpenAI->Client = WSClient;
OpenAI->OpenAI->ApiKey = "sk-...";
OpenAI->OpenAI->Model = "gpt-realtime";
WSClient->Active = true;
OpenAI->ConversationCreateMessageText("Hello", "user");
OpenAI->ResponseCreate();
Verpackt das OpenAI-Realtime-WebSocket-Gateway als typisierte Delphi-Komponente mit Helfern für Session, Conversation und Audio.
SessionUpdate wendet Modalities-, Voice-, Instructions-, input_audio_format-, output_audio_format- und turn_detection-Einstellungen auf die aktive Realtime-Session an.
ConversationCreateMessageText und ConversationCreateMessageAudio schieben Nutzer-/System-Inhalte ein; ConversationItemDelete und ConversationItemTruncate formen den laufenden Verlauf um.
InputAudioBufferAppend schickt PCM-Frames (base64-codiert), InputAudioBufferCommit beendet einen Nutzer-Turn. Ausgabe-Audio kommt als response.audio.delta-Ereignisse an.
Deklariere Tools in SessionUpdate; Argumente kommen als response.function_call_arguments.delta-Ereignisse, Ergebnisse gehen via ConversationCreateFunctionCallOutput zurück.
Server-seitige VAD (turn_detection: {type: server_vad}) erkennt automatisch das Sprechende — die Komponente liefert jede Phase als eigenes Ereignis aus.
Die Komponente fügt im WebSocket-Handshake die Header Authorization und OpenAI-Beta: realtime=v1 ein. Kombiniere sie unter Windows mit TsgcWebSocketClient_WinHTTP für betriebssystemverwaltetes TLS.
Maßgebliche Quellen für die APIs, die diese Komponente implementiert.
Direkter Link zur Komponenten-Referenz, hol dir das sofort lauffähige Demoprojekt und lade die Testversion herunter.
| Online-Hilfe — API_OpenAI Vollständige Referenz für Eigenschaften, Methoden und Ereignisse dieser Komponente. | Öffnen | |
| Kostenlose Testversion — sgcWebSockets Lade das Testpaket herunter und beginne, Realtime-Audio und -Text in deine Delphi-Anwendungen zu streamen. | Öffnen | |
| Technisches Dokument (PDF) Funktionen, Schnellstart, Code-Beispiele für Delphi & C++ Builder und Primärquellen — nur für diese Komponente. | Öffnen | |
| Benutzerhandbuch (PDF) Umfassendes Handbuch zu allen Komponenten der Bibliothek. | Öffnen |