团队负责在线推理服务的GPU资源利用,为 AI 视频生成模型提供算力基石。GPU集群算力规模大,且随着业务持续快速增长,团队积累了丰富的 GPU 资源调度与优化经验,旨在打造覆盖多场景、多地域的万卡级 GPU 算力平台。其中,在推理服务、模型训练等核心场景,通过算力调度、弹性伸缩、虚拟化混部等技术实现了GPU利用率的高水位。
1、参与GPU利用率下钻指标的建设及分析,挖掘潜在的GPU利用率提升手段;
2、通过算力调度策略,协同同步业务的资源供给;
3、参与虚拟化混部技术方案的架构设计和核心代码开发,协同推动方案落地,通过混部和潮汐资源提升面向业务的GPU供给能力;
4、参与模型推理执行优化,设计模型推理执行流水线。1、本科及以上学历,计算机相关专业优先;
2、计算机和编程基础扎实,熟练掌握Java或Python,有服务端系统的开发经验;
3、有较强的工作责任心和自驱力,较好的学习能力和沟通能力,良好的工作文档习惯;
4、熟悉大模型推理或训练框架(如vLLM、SGLang、PyTorch等);
5、了解 Docker/Containerd 等容器运行时技术原理、理解Kubernetes调度实现。