Skip to content

Offline 客户端

文件: main_logic/omni_offline_client.py

OmniOfflineClient 提供基于文本的 LLM 对话,作为 Realtime API 不可用时的备用方案。

使用场景

  • 所选提供商不支持 Realtime API 时
  • 使用本地 LLM 部署(Ollama 等)时
  • 禁用语音输入且偏好纯文本模式时

功能

  • 文本输入、文本输出的对话
  • 兼容任何 OpenAI 兼容的 API 端点
  • 使用 LangChain 进行 LLM 集成
  • 支持对话历史和系统提示词

与 Realtime 客户端的区别

功能Realtime 客户端Offline 客户端
音频 I/O原生支持需要单独的 STT/TTS
流式传输WebSocket 双向HTTP 流式
多模态原生(音频 + 图像)仅文本
延迟较低(持久连接)较高(按请求)
提供商支持有限(需要 Realtime API)任何 OpenAI 兼容端点

基于 MIT 许可发布。