Saltar al contenido principal
Los orquestadores ejecutan transcodificación de video (NVENC/FFmpeg) y/o inferencia de IA en GPUs. El hardware afecta directamente la selección de trabajos, la reputación y los ingresos. A continuación se presentan las pautas mínimas, recomendadas y optimizadas para IA para 2026.

Mínimo (desarrollo / pruebas)

Minimum specs
ComponentMinimum
Adecuado para testnet, cargas de trabajo de bajo volumen y aprendizaje.

Recomendado (video / producción)

Recommended production (video-focused)
ComponentRecommended
Optimizado para transmisión en tiempo real y transcodificación multiresolución.

Inferencia de IA

Las cargas de trabajo de IA están limitadas por la VRAM. Stake hace no determinar el enrutamiento de trabajos de IA; la capacidad y el precio sí lo hacen.
AI-oriented GPUs
GPUUse case
También asegúrate de: CUDA 12+, NVIDIA Container Toolkit, buena refrigeración, almacenamiento de alta IOPS para los pesos del modelo.

Red y operaciones

  • Latencia: <50 ms a regiones principales ayuda a la transmisión y la selección de gateway.
  • Producción: IP estática, proxy inverso (p. ej. nginx), TLS, reglas de firewall.
  • Monitoreo: Prometheus, Grafana, exportador NVIDIA DCGM; rastrea la utilización de GPU, VRAM, tasa de éxito de segmentos/trabajos.

Lista de verificación antes de lanzar

  • GPU visible a través de nvidia-smi
  • Docker detecta GPU (--gpus all)
  • CUDA funcional
  • Puertos abiertos (p. ej. 8935)
  • RPC estable Arbitrum
  • Monitoreo configurado

Ver también

Last modified on March 1, 2026