工作职责:
1. 负责内部hadoop集群/spark集群系统运维(部署、扩容、监控、优化、故障处理等);
2. 负责相关HPC集群/hadoop集群/spark集群运维大数据挖掘工作;
3. 参与数据平台的相关工具开发(自动化运维、监控、ETL等)。
4.熟练掌握 hadoop 生态圈的相关技术,如 flume,kafka,zookeeper,hive,hbae,spark ,elasticsearch等;
任职资格:
1. 本科及以上学历,具有2年以上工作经验;
2. 熟悉Linux系统运维,有Linux系统运维/调优等相关工作经验;
3. 熟悉Hadoop集群、Spark集群、Elasticsearch运维,有Hadoop/Spark/ES集群运维相关工作经验,有用Hadoop/Spark/ES进行大数据分析的经验;
4.了解腾讯云EMR/ES产品售后技术支持优先
5了解腾讯私有云TBDS大数据平台优先
6. 了解Grafana、Prometheus、Ganglia、Ansible、Gitlab等系统;
7. 能熟练使用Python、Bash Shell进行编程,有一定开发经验;
职位福利:五险一金、绩效奖金、加班补助