工作内容: 1、负责公司大数据平台的部署、管理、优化、监控报警。持续对大数据平台进行优化; 2、负责大数据平台日常运维管理、服务监控、故障处理、集群性能和资源利用率优化,集群常见问题能迅速定位,为开发人员提供技术支持; 3、负责大数据平台服务器配置选型、集群网络优化等相关工作; 4、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长; 5、开发大数据自动化运维、监控报警、故障处理相关脚本和工具。
任职资格: 1、本科及以上学历,计算机等相关专业; 2、熟悉Linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务。熟练使用Linux 命令和常用的ssh、ftp、git、maven等开发工具; 3、熟悉Haoop、Odeon、Hbase等相关技术; 4、熟悉Hadoop大数据生态圈,包括但不限于CDH/HDFS/YARN/Hive/Hbase/Kafka/zookeeper/Spark/Flume/Impala/Hue/Sqoop/Elasticsearch/MySQL/Oracle等; 5、熟练掌握Hadoop组件的安装部署、升级扩容、性能监控以及配置调优;有大数据生态圈运维践经验优先考虑; 6、有运维自动化、监控系统、发布系统、云计算、大数据运维工作等开发经验优先考虑; 7、具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力; 8、有大数据开发经验和阅读源码能力者优先。