Currently operating as a brainstorming page
请求路由
请求处理流程(两者)- 请求验证: OpenAPI 验证中间件验证请求结构
- 会话选择: AISessionManager 根据模型能力选择适当的协调器
- 支付处理: 根据非实时端点的像素数量计算支付
- 模型执行: 将请求发送到指定模型的AI工作者
转码请求
传统的视频转码请求通过以下方式处理:- RTMP 推流: 端口
1935默认情况下 - HTTP 推送:
/live/{streamKey}当-httpIngest已启用 - HLS 输出: 用于播放的自适应码率流
AI 请求
AI 处理请求通过专用端点进行路由ai_mediaserver.go (fixme) OpenAPI Spec is here: ai/worker/api/openapi.json
Generate images from text prompts.
Uses
jsonDecoder for parsingTransform images with prompts.
Uses
multipartDecoder for file uploadsCreate videos from images.
Uses
multipartDecoder for file uploadsUpscale (enhance) images to higher resolution.
Uses
multipartDecoder for file uploadsApply transformations to a live video streamed to the returned endpoints.
Live video endpoint has specialized handling for real-time streaming with MediaMTX integration
支付模型
双设置处理两种不同的支付模型:转码付款
基础:按处理的视频片段计算 方法:每个片段发送付款票证 验证:多协调器验证以确保质量AI 付款
基础:按处理的像素计算(宽度 × 高度 × 输出) 方法:基于像素的付款计算 实时视频:流媒体期间的间隔付款操作注意事项
资源分配
在运行双设置时,请考虑:- GPU 资源:在转码和 AI 工作负载之间共享
- 内存:加载(“预热”)时,AI 模型需要大量 RAM
- 网络:用于流式传输输入和 AI 请求/响应的带宽
监控
监控两种工作负载类型:- 转码: 段处理延迟,成功率
- AI: 模型加载时间,推理延迟,像素处理速率
扩展策略
- 水平扩展: 在负载均衡器后部署多个网关实例
- 垂直扩展: 为AI模型并行分配更多GPU资源
- 专用化:根据工作负载模式,将节点分为转码节点和基于AI的节点