岗位职责:
1.在云端或者本地集群上构建可扩展的实时数据处理流水线,收集、转换、加载并管理各类数据源;
2.构建可扩展的分布式数据存储;
3.确保所构建的数据处理管道具有高质量并可审计;
4.开发相关工具以优化数据的提取、分析及可视化效率;
5.评估数据工程领域的新技术,并开发原型,以持续改善工作。
岗位要求:
1.全日制985/211硕士及以上学历,计算机相关专业,CET6;
2.具备大数据相关技术例如Spark, Kafka, Hadoop, HBase, Hive等的实习经验为加分项;
3.具备Java、Scala、Python相关实习经验,MySQL, Redshift等SQL相关实习经验优先;
4.良好的书面/口头沟通技巧;
5.具备机器学习算法方面实习经验者优先。
当前职位已下线
为你揭秘各职业的工作内容|薪资水平…
负责一个大数据平台的底层架构的搭建和开发的人员。