大数据运维工程师工作的岗位职责

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

大数据运维工程师工作的岗位职责

大数据运维工程师需要明确工作范围,定期与客户沟通工作量,并获取客户回执,及时归档。以下是小编整理的大数据运维工程师工作的岗位职责。

大数据运维工程师工作的岗位职责1

职责:

1、负责公司大数据集群的构建,任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;

2、负责集群容量规划、扩容、集群性能优化及日常巡检和应急值守,参与大数据基础环境的架构设计与改进;

3、深入研究大数据业务相关自动化运维技术,持续优化集群服务架构,探索新的大数据运维技术及发展方向;

任职要求:

1、熟悉Linux系统及基础命令操作,能够独立编写Shell或Python脚本,开展日常服务器的运维工作;

2、熟悉并不限于大数据生态圈Hadoop、Strom、Spark、HDFS、Kafka、Zookeeper、Hbase、Redis、ElasticSearch、fastdfs 等相关基础组件的框架知识和运行原理;

3、熟悉软硬件设备,网络原理,有丰富的大数据平台(CDH、HDP)部署、集群运维和性能优化等经验;

4、具备一定的系统自动化运维理论体系和实际经验,能够利用各种开源监控工具、运维工具,HA、负载均衡软件完成工作任务;

5、具备较强的学习能力、抗压能力、动手能力和分析解决问题的能力;

6、熟悉JVM虚拟机调优;

7、熟悉jenkins持续集成;

8、有一定的文档编写能力;

9、能适应短期出差,有公安视频图像侦查业务方向经验者优先;

大数据运维工程师工作的岗位职责2

职责:

1.负责公司大数据平台的运维保障;

2.负责大数据平台的架构审核、业务监控、持续交付、应急响应、容量规划等;

3.为线上服务高效稳定运行负责,支撑业务和数据量的快速扩张;

4.负责生产及测试集群诸如故障定位恢复、系统安全、性能优化等;

任职要求:

1.计算机相关专业本科及以上学历,3年以上相关工作经验

2.精通Hadoop大数据生态圈,熟悉Hadoop各组件的原理,并有实际部署维护经验;包括但不限于HDFS、YARN、Kafka、Spark、HBase、Kerberos、Hive、Kudu、Zookeeper等;

3.具备很强故障排查能力,有很好的技术敏感度和风险识别能力,良好的服务意识,善于团队协作,项目管理,主动思考,自我驱动力强;

4.有相关动态编排容器技术和虚拟化技术工作经验者优先;

5.深入理解Hadoop各组件的原理和实现,有阅读源码能力者优先;

6.具备很强的ownership,故障排查能力,有很好的技术敏感度和风险识别能力。

大数据运维工程师工作的岗位职责3

1、负责建设大数据平台的规划、架构设计和技术选型;

2、开发和使用Hadoop大数据自动化运维与监控工具;

3、基于大数据应用需求,负责优化平台的性能,消除性能瓶颈,解决业务的疑难问题;

4、熟悉Hadoop、Hive、Hbase、Storm、Spark等技术框架; 熟悉java、scala、sqllite等相关技术;具备软件设计、编码开发测试、文档编写的能力;

5、积极了解业界发展、互联网相关新技术及趋势,参与规划公司大数据产品未来技术架构方向;

6、负责大数据平台内部所涉及到的各类数据库、数据存储的搭建、备份、日常维护、性能调优;以及大数据平台系统运维、监控和故障分析与处理;

7、能够很好的和其它团队的同事沟通协作;

8、负责文档的书写和完善,保证文档的及时更新;

9、有大型开源系统维护经验优先。

大数据运维工程师工作的岗位职责4

职责

相关文档
最新文档