1、负责构建Spark/HDFS大数据处理架构; 2、负责基于Spark技术的海量数据的自动化分析处理和统计工作; 3、基于Spark框架大数据架构的设计、开发和维护; 4、根据相关需求使用SparkStreaming/Storm、SparkSQL进行数据处理、查询和统计等工作。
1、计算机科学、软件工程等相关理工类专业硕士学历; 2、熟练掌握Hadoop、Spark、Hbase等技术; 3、熟悉Oracle、Mysql等数据库及SQL开发; 4、了解分布式大数据处理工作及数据挖掘; 5、具有良好的沟通交流能力、合作精神及主动学习精神,能够接受全国范围内的出差。
当前职位已下线
为你揭秘各职业的工作内容|薪资水平…
负责一个大数据平台的底层架构的搭建和开发的人员。