岗位职责:
1.负责基于spark生态技术的AI机器学习平台设计与研发工作,包括基础架构,平台功能迭代等;
2.参与机器学习平台的稳定性增强和性能优化;
3.负责机器学习平台的架构设计和平台功能开发,功能迭代;
任职要求:
1.统招计算机或相关学科本科以上学历
2.扎实的数据结构及算法基础,理解面向对象设计的基本原则,熟悉常用的设计模式
3.有Java/Scala相关开发经验,熟悉并理解缓存、消息、RPC调用框架、jvm调优、序列化、nio等原理,熟悉http等相关通信协议
4.熟悉Shell、Python等至少一种脚本编程
5.了解大数据技术,对Hadoop/Spark等分布式计算有实用经验优先
6.具有强烈的责任心,良好的沟通、学习能力,良好的团队合作意识,勇于接受技术挑战
当前职位已下线
为你揭秘各职业的工作内容|薪资水平…
负责一个大数据平台的底层架构的搭建和开发的人员。