团队背景:
联想子公司,团队来源于联想研究院。
负责支持公司内LLM相关业务需求,主要研究LLM在RAG、TOD、KBQA、Search以及Agent场景的应用和优化。
面向在读的硕士研究生,工程能力或算法能力突出者优先,实习表现优秀者有转正机会。
岗位职责
1.参与大模型在“企业知识库/企业智能体”等场景下的模型压缩研究,包括量化、蒸馏、结构剪枝等核心技术。
2.负责构建和优化大模型小型化部署方案,提高推理速度与资源利用率。
3.协助建立压缩后模型的评测体系,包括知识召回、推理一致性、上下文理解能力等指标。
4.将压缩技术应用到实际业务场景,推动模型在端侧、私有化环境或资源受限环境下的落地。
5.参与相关技术文档撰写、实验记录、报告整理等工作。
岗位要求
1.计算机、人工智能、数学、电子工程等相关专业硕士在读(研一/研二)。
2.具备深度学习基础,熟悉 Transformer、LLM 推理原理。
3.至少掌握一种主流深度学习框架(PyTorch/TensorFlow),有实际项目或课题经验者优先。
4.了解或使用过模型压缩技术者优先(如 INT4/INT8 量化、蒸馏、LoRA、剪枝)。
5.具备良好的工程能力,熟悉 Python,有一定的调参、实验推进能力。
6.有责任心,能保证每周稳定出勤 4–5 天,具备较强的自驱力与学习能力。
加分项(非必须)
有大模型相关研究、课程项目或竞赛经验
有阅读论文并复现的经历
对知识库、向量数据库、RAG 框架有了解
有 GPU 编程、模型加速框架经验(如 TensorRT、vLLM、MLC)