ComfyStream 是一个模块化的 AI 推理引擎,它与 Livepeer 的网关协议集成,可在 GPU 功能的工作者节点上执行视频帧管道。它扩展了ComfyUI 与 Livepeer 兼容的网关绑定、实时流 I/O、动态节点图和插件链,以及叠加渲染和元数据导出。
有关概述和 DeepWiki,请参阅ComfyStream 完整指南。
架构概览
ComfyStream 中的节点类型
| Node type | Description | Example models |
|---|
这些作为模块暴露在nodes/*.py中,并可以以图格式进行链接。
示例流程:字幕叠加
{
"pipeline": [
{ "task": "whisper-transcribe" },
{ "task": "caption-overlay", "font": "Roboto" }
]
}
ComfyStream 会将此转换为内部计算图(例如 WhisperNode → TextOverlayNode → OutputStreamNode)。
插件支持
您可以构建自己的插件:
- 实现
NodeBase 类从 ComfyUI
- 注册元数据和参数
- 声明输入和输出以进行链式处理
示例:
class FaceBlurNode(NodeBase):
def run(self, frame):
result = blur_faces(frame)
return result
连接到 Livepeer 网关
在 config.yaml:
gatewayURL: wss://gateway.livepeer.org
models:
- whisper
- sdxl
启动您的节点:
python run.py --adapter grpc --model whisper --gpu
ComfyStream 工作程序将通过 pub/sub 监听任务队列,逐帧执行管道,并将推理结果作为覆盖层或 JSON 返回。
调试管道
ComfyStream 将心跳、作业负载、图错误和输出流指标记录到网关。启用详细模式:
另请参见
Last modified on March 1, 2026