岗位职责:
1. 负责Hadoop平台搭建,管理,故障处理; 2. 大数据环境下(Hadoop)分布式数据分析处理; 3. 负责Spark程序的开发、Hbase程序开发,Hive脚本编写; 4. 能对平台的Hadoop,Hbase,Kafka,Hive进行优化; 5. 数据库方面:熟练编写SQL脚本,能够编写较复杂的SQL; 6. 参与大规模数据快速查询系统的架构设计和开发; 7. 有较强的书面与口头沟通表达能力,独立分析、解决问题的能力。 8. 参加项目文档的编写,负责项目运维工作; 9. 大规模数据挖掘和机器学习算法的实现;
任职资格:
1、熟练Java、Scala、python语言,统招本科以上学历,对分布式有深刻理解 2、熟悉linux、Unix等主流操作系统环境开发,应用部署等操作 3、能够使用Java、Scala或python语言编写Mapreduce、Spark、Storm等应用程序,以及相关的性能优化方式 4、熟练掌握各种主流关系型数据库及NoSQL数据库 5、熟练掌握hadoop生态技术,如MapReduce、Spark、Storm、Hbase、Hive、Zookeeper、Sqoop 、Kafka等的原理特性及试用场景,并独立完成组建部署及调优
当前职位已下线
为你揭秘各职业的工作内容|薪资水平…
设计、构建和维护分布式计算基础设施,评估数据解决方案的大数据工程师。