一、27年毕业应届生优先
二、岗位职责
1、负责语言模型、多模态基础模型的开发与优化,参与从预训练(Pre-training)到指令微调(SFT)的全链路开发。
2、针对端侧场景,构建高质量、高多样性的数据清洗与合成流水线,通过“以质取胜”提升小模型在特定任务上的表现。
3、应用 DPO、PPO 等对齐技术,针对端侧交互场景优化模型回复的准确性与安全性。
4、负责入端模型探索调优,极致优化首字延迟(Prefill)与生成速度(Decoding),确保端侧交互的高流畅度与低功耗。
三、岗位要求
1、计算机科学、人工智能、软件工程、电子信息、自动化、统计数学等相关专业,具备扎实的机器学习与深度学习理论基础;
2、深入理解 Transformer 架构及主流 LLM 训练技术栈,有大模型训练、微调经验、熟练使用 分布式训练框架(如 Megatron)者优先。
3、熟练使用 PyTorch 等框架,熟悉vllm 等高效部署框架。
4、熟悉语言大模型、多模态大模型、深度神经网络、和机器学习算法等的至少一种,能够针对芯片硬件特点提出算法特点设计者优先。