This page is a work in progress.
TODO: Edit, Streamline, Format & Style
TODO: Edit, Streamline, Format & Style
Definición
Los Gateways actúan como la capa principal de agregación de demanda en la red Livepeer. Aceptan solicitudes de transcodificación de video e inferencia de IA de los clientes finales, y luego distribuyen estos trabajos a través de la red de Orchestrators equipados con GPU. En documentación anterior de Livepeer, este rol se refería como un emisor. Modelo mentalFrom a Cloud Background?
From a Cloud Background?
Running a Gateway is similar to operating an API Gateway or Load Balancer in cloud computing —
it ingests traffic, routes workloads to backend GPU nodes, and manages session flow
without doing the heavy compute itself.
From an Ethereum Background?
From an Ethereum Background?
Running a Gateway is not like running a validator on Ethereum.
Validators secure consensus whereas Gateways route workloads. It’s more akin to a Sequencer on a Layer 2.
Just as a Sequencer ingests user transactions, orders them, and routes them into the rollup execution layer,
a Livepeer Gateway performs the same function for the Livepeer compute network.
Neither? You can still run a gateway!
Neither? You can still run a gateway!
For the rest of us, running a Gateway is like being a film producer.
You take a request, assemble the right specialists, manage constraints,
and ensure the final result is delivered reliably—without doing every task yourself.
¿Qué es un Gateway?
Los Gateways son el punto de entrada para las aplicaciones en la red Livepeercompute. Son la capa de coordinación que conecta cargas de trabajo en tiempo real de IA y video con los Orchestrators que realizan el cálculo con GPU. Operan como la capa técnica esencial entre el protocolo y la red de cálculo distribuido. Una puerta de enlace es un nodo Livepeer operado por sí mismo que interactúa directamente con los orquestadores, envía trabajos, maneja los pagos y expone interfaces directas del protocolo. Los servicios alojados como Daydream no son puertas de enlace. Una Puerta de enlace es responsable de- validar solicitudes
- seleccionar Trabajadores
- traducir solicitudes en llamadas OpenAPI de Trabajador
- agregar resultados
Qué hacen los Gateways
Los Gateways manejan toda la lógica de nivel de servicio necesaria para operar una red de video de inteligencia artificial escalable y de baja latencia:-
Ingreso de trabajo
Reciben cargas de trabajo de aplicaciones que utilizan las API de Livepeer, PyTrickle o integraciones BYOC. -
Capacidad y coincidencia de modelos
Los nodos de puerta deciden qué orquestadores admiten la GPU, modelo o pipeline requeridos. -
Enrutamiento y programación
Envían trabajos al orquestador óptimo según rendimiento, disponibilidad y precio. -
Exposición en el mercado
Los operadores de puerta de enlace pueden publicar los servicios que ofrecen, incluidos los modelos compatibles, los flujos de trabajo y las estructuras de precios.
Gateway Functions & Services
Learn More About Gateway Functions & Services
¿Por qué las puertas de enlace son importantes?
A medida que Livepeer se convierte en una red de IA de alta demanda y en tiempo real, las puertas de enlace se convierten en infraestructura esencial. Permiten:- Flujos de trabajo de baja latencia para Daydream, ComfyStream y otras herramientas de video de IA en tiempo real
- Enrutamiento dinámico de GPU para cargas de trabajo intensivas en inferencia
- Un mercado descentralizado de capacidades de cómputo
- Integración flexible mediante el modelo de pipeline BYOC
Resumen
Los puertos de enlace son la capa de coordinación y enrutamiento del ecosistema Livepeer. Exponen capacidades, cotizan servicios, aceptan cargas de trabajo y las envían a los orquestadores para su ejecución en GPU. Este diseño permite un mercado descentralizado de cómputo escalable, de baja latencia y listo para IA. Esta arquitectura permite que Livepeer se escale como un proveedor global de infraestructura de video de IA en tiempo real.Marketplace Content
Marketplace Content
Key Marketplace Features
1. Capability Discovery
Gateways and orchestrators list:- AI model support
- Versioning and model weights
- Pipeline compatibility
- GPU type and compute class
2. Dynamic Pricing
Pricing can vary by:- GPU class
- Model complexity
- Latency SLA
- Throughput requirements
- Region
3. Performance Competition
Orchestrators compete on:- Speed
- Reliability
- GPU quality
- Cost efficiency
- Routing quality
- Supported features
- Latency
- Developer ecosystem fit
4. BYOC Integration
Any container-based pipeline can be brought into the marketplace:- Run custom AI models
- Run ML workflows
- Execute arbitrary compute
- Support enterprise workloads
Protocol Overview
Understand the Full Livepeer Network Design
Marketplace Benefits
- Developer choice — choose the best model, price, and performance
- Economic incentives — better nodes earn more work
- Scalability — network supply grows independently of demand
- Innovation unlock — new models and pipelines can be added instantly
- Decentralization — no single operator controls the workload flow
Summary
The Marketplace turns Livepeer into a competitive, discoverable, real-time AI compute layer.- Gateways expose services
- Orchestrators execute them
- Applications choose the best fit
- Developers build on top of it
- Users benefit from low-latency, high-performance AI