工作职责: 1)负责spark计算平台的算法优化和开发; 2)负责基于Spark技术的海量数据处理,分析和挖掘; 工作要求: 1)计算机或相关专业本科以上学历; 2)熟悉Spark Streaming和Spark SQL; 3)熟悉Linux/Unix平台上的Java、python、scala、C++编程,熟悉常用脚本语言 ; 4)熟悉分布式系统设计范型,有大规模系统设计和工程实现的经验 ; 5)对大数据、机器学习有强烈的兴趣;对技术创新有热情和激情,具有良好的自学能力 ; 6)良好的团队合作精神,较强的沟通能力 ; 具有以下条件者优先 1)有Spark平台、Hadoop平台开发经验者优先 ; 2)精通Scala语言,对Scala原理、底层技术有深入研究者优先; 3)有MLlib/mahout开发经验者优先; 4)熟悉聚类、分类、回归,LR,SVM等机器学习算法者优先。