岗位职责:
参与大模型(LLM)在实际业务场景中的验证测试,包括但不限于对话系统、内容生成、数据分析等应用方向;
设计并执行测试用例,评估模型在准确性、鲁棒性、安全性等方面的表现,输出量化分析报告;
跟踪行业前沿技术,调研大模型在垂直领域的应用案例;
协助构建自动化测试工具或标注规范,提升验证效率。
任职要求:
必需条件:
计算机科学、人工智能、数学、统计学等相关专业在读硕士;
熟悉Python编程,能使用PyTorch/TensorFlow等框架进行基础模型测试;
具备良好的逻辑思维和数据分析能力,能通过量化指标评估模型效果;
对NLP和大模型技术(如GPT、LLaMA等)有基本了解,有相关项目经验者优先;
责任心强,具备团队协作和沟通能力。
加分项:
参与过Prompt Engineering、模型微调或评估项目;
熟悉LangChain/LLamaIndex等大模型应用开发工具;
有数据处理、标注或众包管理经验。