This page is a work in progress.
TODO: Edit, Streamline, Format & Style
TODO: Edit, Streamline, Format & Style
Définition
Les passerelles servent de couche d’aggrégation de la demande principale dans le réseau Livepeer. Elles acceptent les demandes de transcodage vidéo et d’inférence IA des clients finaux, puis distribuent ces tâches à travers le réseau des Orchestrators équipés de GPU. Dans les anciens documents Livepeer, ce rôle était appelé diffuseur. Modèle mentalFrom a Cloud Background?
From a Cloud Background?
Running a Gateway is similar to operating an API Gateway or Load Balancer in cloud computing —
it ingests traffic, routes workloads to backend GPU nodes, and manages session flow
without doing the heavy compute itself.
From an Ethereum Background?
From an Ethereum Background?
Running a Gateway is not like running a validator on Ethereum.
Validators secure consensus whereas Gateways route workloads. It’s more akin to a Sequencer on a Layer 2.
Just as a Sequencer ingests user transactions, orders them, and routes them into the rollup execution layer,
a Livepeer Gateway performs the same function for the Livepeer compute network.
Neither? You can still run a gateway!
Neither? You can still run a gateway!
For the rest of us, running a Gateway is like being a film producer.
You take a request, assemble the right specialists, manage constraints,
and ensure the final result is delivered reliably—without doing every task yourself.
Qu’est-ce qu’une passerelle ?
Les passerelles sont le point d’entrée des applications dans le réseau Livepeercompute. Elles constituent la couche de coordination qui relie les charges de travail en temps réel d’IA et de vidéo aux orchestrators qui effectuent le calcul GPU. Elles agissent comme la couche technique essentielle entre le protocole et le réseau de calcul décentralisé. Une passerelle est un nœud Livepeer autogéré qui interagit directement avec les orchestrateurs, soumet des tâches, gère les paiements et expose des interfaces directes du protocole. Les services hébergés comme Daydream ne sont pas des passerelles. Une passerelle est responsable de- valider les demandes
- sélectionner les Workers
- traduire les demandes en appels OpenAPI des Workers
- agréger les résultats
Ce que font les Gateways
Les gateways gèrent toute la logique nécessaire pour faire fonctionner un réseau d’images vidéo AI à faible latence et évolutif :-
Prise en charge des tâches
Ils reçoivent des charges de travail des applications utilisant les API Livepeer, PyTrickle ou les intégrations BYOC. -
Capacité et correspondance des modèles
Les passerelles déterminent quels orchestrateurs prennent en charge la GPU, le modèle ou le pipeline requis. -
Acheminement et planification
Ils dispatchent les tâches vers l’orchestrator optimal en fonction des performances, de la disponibilité et du prix. -
Exposition sur le marché
Les opérateurs de passerelle peuvent publier les services qu’ils proposent, y compris les modèles pris en charge, les pipelines et les structures de tarification.
Gateway Functions & Services
Learn More About Gateway Functions & Services
Pourquoi les passerelles sont-elles importantes
Alors que Livepeer passe à un réseau d’IA en temps réel à forte demande, les passerelles deviennent une infrastructure essentielle. Ils permettent :- Des workflows à faible latence pour Daydream, ComfyStream et d’autres outils vidéo IA en temps réel
- Le routage dynamique des GPU pour les charges de travail intensives en inférence
- Un marché décentralisé des capacités de calcul
- Une intégration flexible via le modèle de pipeline BYOC
Résumé
Les passerelles sont la couche de coordination et de routage de l’écosystème Livepeer. Elles exposent des capacités, fixent des prix pour les services, acceptent des charges de travail et les transmettent aux orchestrateurs pour l’exécution sur GPU. Ce design permet un marché décentralisé de calcul à grande échelle, à faible latence et prêt pour l’IA. Cette architecture permet à Livepeer de s’étendre en un fournisseur mondial d’infrastructure vidéo IA en temps réel.Marketplace Content
Marketplace Content
Key Marketplace Features
1. Capability Discovery
Gateways and orchestrators list:- AI model support
- Versioning and model weights
- Pipeline compatibility
- GPU type and compute class
2. Dynamic Pricing
Pricing can vary by:- GPU class
- Model complexity
- Latency SLA
- Throughput requirements
- Region
3. Performance Competition
Orchestrators compete on:- Speed
- Reliability
- GPU quality
- Cost efficiency
- Routing quality
- Supported features
- Latency
- Developer ecosystem fit
4. BYOC Integration
Any container-based pipeline can be brought into the marketplace:- Run custom AI models
- Run ML workflows
- Execute arbitrary compute
- Support enterprise workloads
Protocol Overview
Understand the Full Livepeer Network Design
Marketplace Benefits
- Developer choice — choose the best model, price, and performance
- Economic incentives — better nodes earn more work
- Scalability — network supply grows independently of demand
- Innovation unlock — new models and pipelines can be added instantly
- Decentralization — no single operator controls the workload flow
Summary
The Marketplace turns Livepeer into a competitive, discoverable, real-time AI compute layer.- Gateways expose services
- Orchestrators execute them
- Applications choose the best fit
- Developers build on top of it
- Users benefit from low-latency, high-performance AI