工作职责
1.负责用户增长相关的数据仓库建设
2.参与用户增长离线(使用Hadoop/Spark)和实时数据流(使用Flink)的建设
3.负责数据指标、常用数据报表的建设和分析
4.参与用户增长计算治理、数据治理平台化建设和数据通路性能分析和优化
任职资格
基本录用条件:
双一流硕士及以上学历,计算机相关专业,2026年毕业
熟悉数据结构、计算机网络、算法等基础知识
熟练使用SQL,熟悉Python/Java/Scala其中的至少一种
了解Hadoop/Spark/Flink/ClickHouse等大数据技术栈中的一种或几种
有良好的编程习惯,代码结构清晰,命名规范
追求卓越,踏实好学,关注业内动态,团队意识强
优先录用条件:
对分布式架构和并行计算有较深刻理解
了解Hadoop/Spark/Flink/ClickHouse等大数据技术栈的工作原理并有实际开发经验
对于Hudi/Iceberg/Delta Lake开源数据湖框架有兴趣或有自己的理解
喜欢debug源码,对于解决有挑战的问题充满热情