跳转到主要内容
ComfyStream 是一个模块化的 AI 推理引擎,它与 Livepeer 的网关协议集成,可在 GPU 功能的工作者节点上执行视频帧管道。它扩展了ComfyUI 与 Livepeer 兼容的网关绑定、实时流 I/O、动态节点图和插件链,以及叠加渲染和元数据导出。 有关概述和 DeepWiki,请参阅ComfyStream 完整指南

架构概览

ComfyStream 中的节点类型

Node typeDescriptionExample models
这些作为模块暴露在nodes/*.py中,并可以以图格式进行链接。

示例流程:字幕叠加

{
  "pipeline": [
    { "task": "whisper-transcribe" },
    { "task": "caption-overlay", "font": "Roboto" }
  ]
}
ComfyStream 会将此转换为内部计算图(例如 WhisperNode → TextOverlayNode → OutputStreamNode)。

插件支持

您可以构建自己的插件:
  • 实现NodeBase 类从 ComfyUI
  • 注册元数据和参数
  • 声明输入和输出以进行链式处理
示例:
class FaceBlurNode(NodeBase):
  def run(self, frame):
    result = blur_faces(frame)
    return result

连接到 Livepeer 网关

config.yaml:
gatewayURL: wss://gateway.livepeer.org
models:
  - whisper
  - sdxl
启动您的节点:
python run.py --adapter grpc --model whisper --gpu
ComfyStream 工作程序将通过 pub/sub 监听任务队列,逐帧执行管道,并将推理结果作为覆盖层或 JSON 返回。

调试管道

ComfyStream 将心跳、作业负载、图错误和输出流指标记录到网关。启用详细模式:
python run.py --debug

另请参见

资源

Last modified on March 1, 2026