岗位职责:
1. 参与大数据平台的设计与开发,解决海量数据面临的挑战
2. 管理、优化并维护Hadoop、Spark等集群,保证集群规模持续、稳定
3. 负责HDFS/hive/HBase的功能、性能和扩展,解决并实现业务需求
4. 负责数据仓库建设以及数据多维分析产品建设
任职要求:
1. 国家统招本科及以上学历,计算机类相关专业
2. 熟悉大型数据仓库架构,精通ETL开发 .精通数据治理方法,包括数据标准化、数据质量、主题数据模型、元数据管理等
3. 熟悉开源大数据软件栈 (hadoop、hbase、sqoop、kylin、palo等)
4. 较强的自我驱动能力,结果导向并极具责任感
5. 良好沟通能力和团队协作精神
当前职位已下线