岗位职责:
1.负责hadoop、flink、spark等集群日常维护、资源管理、监控与优化;
2.了解hadoop及周边生态性能指标,深入源码内核改进优化项目
3.根据业务需求,开发建设数据中台相关产品、数据调度、元数据、数据质量等
4.使用hive、spark、flink、mapreduce进行数据处理,对相关服务进行调优
任职要求:
1、计算机或数学相关专业、本科及以上学历,985/211优先
2、了解Hadoop、spark、flink任一框架
3、熟悉Java语言、熟悉分布式系统设计、开发
4、对大数据行业相关技术有持续学习的热情,了解行业最新技术动态,开源社区参与者和贡献者优先;
6、思维敏捷,严谨、有较强的钻研学习能力;较好的沟通能力、团队合作