跳转到主要内容
Livepeer AI 管道让您在分布式 GPU 基础设施上运行可自定义、可组合的视频推理任务。由 Livepeer 网络提供支持,并由像 ComfyStream 这样的离链工作者支持,该系统使您能够轻松地大规模部署视频 AI。

简而言之

  • 管道 是一个或多个推理任务(例如 Whisper、风格迁移、检测)按顺序在视频帧上运行。
  • 网关 将任务路由到兼容的协调者工作者;协议处理支付和协调。
  • BYOC(自带计算资源)和ComfyStream 是两种运行或扩展管道的方式,您可以使用自己的模型和节点。

使用案例

  • 语音转文本(Whisper)
  • 风格迁移或滤镜(Stable Diffusion)
  • 物体跟踪和检测(YOLO)
  • 视频分割(segment-anything)
  • 人脸遮蔽或模糊处理
  • BYOC(自备计算资源)

什么是管道?

AI 管道由一个或多个任务组成,这些任务按顺序在实时视频帧上执行。每个任务可能:
  • 修改视频(例如添加叠加层)
  • 生成元数据(例如,字幕,边界框)
  • 将结果中继到另一个节点
Livepeer 处理流摄入、帧提取和任务分发。节点运行实际的推理。

架构

网关和工作者

  • 协调者 队列推理任务并运行(或委托给)工作者。
  • 工作者 订阅任务类型(例如 whisper-transcribe)并执行它们。
  • 网关 从客户端将任务路由到兼容的节点。这是链下操作;协议 (Arbitrum) 处理付款和奖励。

工作者类型

TypeDescriptionExample models

Pipeline definition format

Jobs can be JSON-based task objects. Example:
{
  "streamId": "abc123",
  "task": "custom-pipeline",
  "pipeline": [
    { "task": "whisper-transcribe", "lang": "en" },
    { "task": "segment-blur", "target": "faces" }
  ]
}
Workers can accept:
  • JSON-formatted tasks via the Gateway
  • Frame-by-frame gRPC (low latency)
  • Result upload via webhook

自带计算资源 (BYOC)

您可以使用自己的 GPU 节点来提供推理任务:
  1. 克隆 ComfyStream 或实现处理 API。
  2. 添加 Whisper、ControlNet 或其他模型的插件。
  3. 通过网关注册您的节点(并可选地在链上注册)
参见BYOC以获取完整的设置指南。

另请参见

资源

Last modified on March 1, 2026