Saltar al contenido principal
ComfyStream es un motor de inferencia de IA modular que se integra con el Protocolo de Pasarela de Livepeer para ejecutar pipelines de marcos de video en nodos de trabajo con GPU. Se extiendeComfyUI con enlaces de pasarela compatibles con Livepeer, entrada/salida de transmisión en tiempo real, gráficos de nodos dinámicos y encadenamiento de complementos, así como renderizado de superposición y exportación de metadatos. Para una vista general de alto nivel y DeepWiki, consulte elguía completa de ComfyStream.

Visión general de la arquitectura

Tipos de nodos en ComfyStream

Node typeDescriptionExample models
Estos se exponen como módulos en nodes/*.py y se pueden encadenar en formato de grafo.

Ejemplo de canal: superposición de leyenda

{
  "pipeline": [
    { "task": "whisper-transcribe" },
    { "task": "caption-overlay", "font": "Roboto" }
  ]
}
ComfyStream lo convierte en un grafo de cálculo interno (por ejemplo, WhisperNode → TextOverlayNode → OutputStreamNode).

Soporte de complementos

Puedes crear tus propios complementos:
  • Implementa laNodeBase clase de ComfyUI
  • Registra metadatos y parámetros
  • Declara entradas y salidas para encadenamiento
Ejemplo:
class FaceBlurNode(NodeBase):
  def run(self, frame):
    result = blur_faces(frame)
    return result

Conexión al Gateway Livepeer

En config.yaml:
gatewayURL: wss://gateway.livepeer.org
models:
  - whisper
  - sdxl
Inicie su nodo:
python run.py --adapter grpc --model whisper --gpu
El trabajador ComfyStream escuchará las colas de tareas mediante pub/sub, ejecutará los flujos de trabajo marco a marco y devolverá los resultados de inferencia como superposiciones o JSON.

Depuración de pipelines

Los registros de ComfyStream envían latidos al gateway, cargas de trabajo, errores de gráficos y métricas de flujo de salida. Habilitar el modo detallado:
python run.py --debug

Ver también

Recursos

Last modified on March 1, 2026