跳转到主要内容
本页将指导您完成部署和配置 Livepeer 网关以用于 AI 推理服务的过程。

网关模式

您可以运行一个网关
  • “Off-chain” -> 开发或本地模式
  • “On-chain” -> 生产模式,连接到基于区块链的 Livepeer 网络。
If you run your gateway off-chain - you will need to run your own Orchestrator node ie. have access to a GPU and set it up as an Orchestrator, in order to test Gateway functionality.
There is currently no Livepeer “Testnet” available which has Orchestrator offerings, though there are conversations underway to enable this in the future.Do you think Livepeer should have a “testnet” available for Gateways to connect to?Follow & contribute to the discussion in the Discord and on the Forum

部署用于 AI 推理服务的网关

您可以使用以下方法之一运行 Livepeer AI 软件:
  • Docker(推荐):最简单、最优选的方法。
  • 预构建二进制文件: 如果您不想使用 Docker,则可选择此方案。

部署 AI 网关

请按照以下步骤启动您的 Livepeer AI 网关节点。
These instructions apply to both on-chain & off-chain Gateway deployments.

网关代码链接

对于 AI 处理,Gateway 扩展其功能以处理 AI 专用工作流。

go-livepeer/server/ai_mediaserver.go

关键组件包括:
  • AISessionManager: 管理 AI 处理会话并选择具有 AI 能力的适当 Orchestratorai_http.go
  • MediaMTX 集成: 处理 AI 处理的媒体流
  • Trickle 协议: 启用高效流式传输以实现实时 AI 视频处理
AI 工作流 server/ai_process.go 涉及
  • 验证 AI 流程,
  • 选择支持 AI 的 Orchestrators,
  • 处理支付 基于像素, 并
  • 管理实时 AI 管道
Last modified on March 1, 2026