工作地点:北京海淀黄庄
简历投递邮箱zhaobo@tuijian1688.com
岗位职责:
1、负责Hadoop/Hive/HBase/Spark/Kafka等组件的搭建、升级和运维工作,保证其稳定和高可用;
2、设计与实现大数据集群的运维、监控和管理平台,提升运维管理效率;
3、负责集群容量规划、扩容及集群性能优化;
4、持续的跟进了解开源hadoop等组件新特性,并能应用于公司大数据集群;
5、深入研究大数据相关的运维技术,优化改进集群架构,探索新的大数据运维技术及发展方向;
6、对数据分析等团队提供基础运维支持。
任职要求:
1、具有3年以上hadoop集群的运维经验,本科以上学历;
2、掌握linux操作系统的配置、管理及优化,能够独立排查及解决操作系统层的各类问题;
3、熟悉大数据周边相关的数据库系统,如mysql/redis;
4、掌握python/shell/java中至少1种开发语言;
5、具备hadoop/Flume/storm/hbase/hive/zookeeper/spark等50台以上规模集群运维经验者优先;
6、有较好的沟通交流能力,善于主动思考和行动,乐于解决具有挑战性的问题。