Passer au contenu principal
ComfyStream est un moteur d’inférence IA modulaire qui s’intègre au protocole Gateway de Livepeer pour exécuter des pipelines de cadres vidéo sur des nœuds de travail alimentés par GPU. Il étendComfyUI avec une liaison de passerelle compatible Livepeer, une entrée/sortie de flux en temps réel, des graphes de nœuds dynamiques et une chaîne de plugins, ainsi qu’un rendu superposé et une exportation de métadonnées. Pour un aperçu de haut niveau et le DeepWiki, consultez leguide complet de ComfyStream.

Aperçu de l’architecture

Types de nœuds dans ComfyStream

Node typeDescriptionExample models
Ce sont des modules exposés dansnodes/*.py et peuvent être connectés au format graphique.

Exemple de pipeline : légende superposée

{
  "pipeline": [
    { "task": "whisper-transcribe" },
    { "task": "caption-overlay", "font": "Roboto" }
  ]
}
ComfyStream le convertit en un graphe de calcul interne (par exemple, WhisperNode → TextOverlayNode → OutputStreamNode).

Prise en charge des plugins

Vous pouvez créer vos propres plugins :
  • Implémentez la NodeBase classe de ComfyUI
  • Enregistrer les métadonnées et les paramètres
  • Déclarer les entrées et les sorties pour le chaînage
Exemple :
class FaceBlurNode(NodeBase):
  def run(self, frame):
    result = blur_faces(frame)
    return result

Connexion au Gateway Livepeer

Dans config.yaml:
gatewayURL: wss://gateway.livepeer.org
models:
  - whisper
  - sdxl
Démarrer votre nœud :
python run.py --adapter grpc --model whisper --gpu
Le worker ComfyStream écoutera les files d’attente de tâches via pub/sub, exécutera les pipelines frame par frame, et renverra les résultats d’inférence sous forme de superpositions ou de JSON.

Débogage des pipelines

ComfyStream envoie des signaux d’activité au portail, les charges utiles des tâches, les erreurs du graphique et les métriques du flux de sortie. Activez le mode verbeux :
python run.py --debug

Voir également

Ressources

Last modified on March 1, 2026