Passer au contenu principal
Les orchestrateurs exécutent la transcodage vidéo (NVENC/FFmpeg) et/ou l’inférence d’IA sur des cartes graphiques. Le matériel influence directement le choix des tâches, la réputation et les revenus. Ci-dessous se trouvent les directives minimales, recommandées et optimisées pour l’IA pour 2026.

Minimum (développement / test)

Minimum specs
ComponentMinimum
Adapté au testnet, aux charges de travail à faible volume et à l’apprentissage.

Recommandé (vidéo / production)

Recommended production (video-focused)
ComponentRecommended
Optimisé pour la diffusion en temps réel et la transcodage multi-résolution.

Inférence IA

Les charges de travail IA sont limitées par la VRAM. Le stake faitpasdéterminer le routage des tâches AI ; la capacité et le prix le font.
AI-oriented GPUs
GPUUse case
Assurez-vous également : CUDA 12+, NVIDIA Container Toolkit, bonne ventilation, stockage à haut IOPS pour les poids des modèles.

Réseau et opérations

  • Latence : <50 ms vers les grandes régions aide au streaming et à la sélection des passerelles.
  • **Production :**IP statique, proxy inverse (par exemple nginx), TLS, règles de pare-feu.
  • **Surveillance :**Prometheus, Grafana, exportateur NVIDIA DCGM ; suivez l’utilisation de la GPU, la VRAM, le taux de réussite des segments/tâches.

Liste de vérification avant le lancement

  • GPU visible via nvidia-smi
  • Docker voit la GPU (--gpus all)
  • Fonctionnalité CUDA
  • Ports ouverts (par exemple 8935)
  • RPC stable Arbitrum
  • Surveillance configurée

Voir aussi

Last modified on March 1, 2026