Saltar al contenido principal
Livepeer AI Pipelines permiten ejecutar trabajos de inferencia de video personalizables y componibles en infraestructura GPU distribuida. Impulsado por la red Livepeer y respaldado por trabajadores fuera de cadena como ComfyStream, el sistema facilita la implementación de inteligencia artificial para video a gran escala.

En resumen

  • Pipelines son una o más tareas de inferencia (por ejemplo, Whisper, transferencia de estilo, detección) ejecutadas en secuencia en cuadros de video.
  • Gateways enrutan trabajos a Orquestadores y trabajadores; el protocolo maneja los pagos y la coordinación.
  • BYOC (Trae tu propio cálculo) y ComfyStream son dos formas de ejecutar o extender flujos de trabajo con sus propios modelos y nodos.

Casos de uso

  • Reconocimiento de voz (Whisper)
  • Transferencia de estilo o filtros (Stable Diffusion)
  • Seguimiento y detección de objetos (YOLO)
  • Segmentación de video (segment-anything)
  • Supresión o desenfoque de rostros
  • BYOC (Trae tu propio cálculo)

¿Qué es una tubería?

Una tubería de IA consiste en una o más tareas ejecutadas en secuencia en cuadros de video en vivo. Cada tarea puede:
  • Modificar el video (por ejemplo, agregar superposiciones)
  • Generar metadatos (por ejemplo, transcripción, cuadros de límites)
  • Relayar los resultados a otro nodo
Livepeer maneja la recepción de la transmisión, la extracción de cuadros y la programación de tareas. Los nodos ejecutan la inferencia real.

Arquitectura

Puerta de enlace y trabajadores

  • Orquestadorescolas de trabajos de inferencia y ejecutar (o delegar a) trabajadores.
  • Trabajadoresse suscriben a tipos de tareas (por ejemplo, whisper-transcribe) y las ejecutan.
  • Puertas de enlacerutean trabajos desde los clientes a nodos compatibles. Esto es fuera de cadena; el protocolo (Arbitrum) maneja los pagos y recompensas.

Tipos de trabajadores

TypeDescriptionExample models

Formato de definición de pipeline

Los trabajos pueden ser objetos de tarea basados en JSON. Ejemplo:
{
  "streamId": "abc123",
  "task": "custom-pipeline",
  "pipeline": [
    { "task": "whisper-transcribe", "lang": "en" },
    { "task": "segment-blur", "target": "faces" }
  ]
}
Los trabajadores pueden aceptar:
  • Tareas formateadas en JSON a través de la Gateway
  • gRPC por cuadro (baja latencia)
  • Carga de resultados mediante webhook

Trae tu propio cálculo (BYOC)

Puedes usar tus propios nodos de GPU para servir tareas de inferencia:
  1. Clonar ComfyStream o implementar la API de procesamiento.
  2. Añade complementos para Whisper, ControlNet u otros modelos.
  3. Registre su nodo con la puerta de enlace (y opcionalmente en cadena).
Vea BYOC para un guía completa de configuración.

También lea

Recursos

Last modified on March 1, 2026