岗位职责:
1、负责大数据平台(Hadoop,HBase,Spark、MPP等)集群环境的性能调优和日常维护;
2、负责数据架构设计和优化,数据的开发与维护,确保数据存储和处理的稳定和效率;
3、熟悉数据仓库建模、ETL设计开发,有数据质量与数据治理相关经验;
4、理解业务需求并提供相应的数据解决方案。
任职要求:
1、本科及以上学历,计算机科学、信息技术或相关领域专业;
2、至少3年以上大数据开发经验,并具备一定的运维经验;
3、熟练掌握Linux操作系统,熟练掌握Java,并熟悉Shell,Python等一种以上的脚本语言,并灵活运用到实际工作中及解决技术问题;
4、熟练使用SQL,熟练掌握数仓建模,掌握常用的数据建模方法,有实时flink相关开发经验优先;
5、熟练掌握flume、DataX或者flink,kafka,hdfs等技术,能够独立完成实时、离线数据接入工作;
6、熟练掌握Hadoop,Spark,Hbase, Hive, Flink、 ZK、Kafka、Flume、DataX等一种以上的大数据处理工具和技术,有实际大数据处理经验;
7、有大规模数据处理项目的成功经验者优先;
8、有良好的团队精神和沟通能力,积极主动、热爱技术并善于钻研,责任心强、能够承受一定工作压力。