岗位职责:
1、负责生成式大模型(LLM)预训练算法的训练、优化、精调、对齐等技术研究,涉及语言大模型、多模态大模型;
2、参与构建涵盖模型选型、微调、部署、计算优化、工程应用的全链路大模型服务框架及工具平台体系;
3、负责大模型基于GPU的并行多机多卡训练、高性能模型推理,推进分布式训练中的计算和通信优化等;
4、负责大模型前沿技术研究,通用类和垂类预训练模型研发及效果持续优化;
5、参与深度优化大模型推理引擎的性能,包括提高吞吐与降低延时,推进对用户query的处理。
岗位要求
1、本科及以上学历,计算机相关专业,2年以上NLP相关经验;
2、逻辑归纳能力,具备良好的Python和算法基础;
3、熟悉Linux开发环境,掌握深度学习的常用框架Pytorch/TensorFlow/Paddle等;
4、熟悉大模型相关技术,Prompt工程、微调训练、分布式训练、RAG技术等;
5、优秀的分析问题、解决问题能力和团队合作意识;
6、具有chatGLM,llama等十亿以上模型的训练、部署推理、下游任务和调优、稀疏量化等经验者优先。