大数据运维工程师岗位的主要职责

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

大数据运维工程师岗位的主要职责

大数据运维工程师需要及时反馈技术处理过程中的异常情况,及时向上级反馈告警,同时主动协调资源推动问题解决。以下是小编整理的大数据运维工程师岗位的主要职责。

大数据运维工程师岗位的主要职责1

1) 承担团队的日常管理,如值班安排、工作分配、日常考评等;

2) 组织制订、完善与本部门相关的管理制度、标准操作手册SOP、维护操作MOP和应急预案等;

3) 组织制定中心基础设施保养计划,做好相关计划的实现、控制及优化工作;

4) 审核、报批、组织实施各类变更申请、事件报告工作,做好相关应急工作的指挥与处理;

5) 组织开展数据中心基础设施运行维护相关培训、训练与演练;

6) 协助商务部与外包服务商洽谈相关维护服务合同,监督服务实施并要求进行审核与考评,确保相关基础设施的稳定运行;

7) 负责数据中心基础设施资源统计、容量预警工作,做好每月用水用电统计、PUE统计与分析;

8) 配合数据中心进驻客户的场地选址、平面布局、改造实施、进驻管理等支持协调工作;

9) 基础设施月报、环境报告的编写和提交;

10) 数据中心基础设施的持续优化和改善;

11) 负责上级主管领导交办的其它工作。

大数据运维工程师岗位的主要职责2

职责:

根据产品需求,完成产品功能的设计、编码、测试和发布;

现场项目支持工作,对现场反馈工单问题进行分析、定位和解决;

对现场项目提出的新需求进行分析、设计并完成;

根据产品和技术发展要求,完成平台的设计、开发和支持维护工作。

职位要求:

本科及以上学历,计算机、软件工程相关专业,3年以上相关工作经验;

精通sql、greenplum/postgresql、impala、oracle、mysql至少1种技术、可融汇贯通灵活转换使用;

熟悉hadoop平台zookeeper、hdfs、spark、MR及hbase等常用组件的运行原理;

基于linux/unix平台进行shell、python的常用脚本开发。

大数据运维工程师岗位的主要职责3

职责:

1、负责公司大数据平台自动化运维开发、监控和优化工作,保障数据平台服务的稳定性和可用性;

2、负责公司Hadoop核心技术组件日常运维工作;

3、负责公司大数据平台现场故障处理和排查工作;

4、研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;

任职要求:

1、本科或以上学历,计算机、软件工程等相关专业,3年以上相关从业经验

2、精通Linux运维命令,熟悉Linux的维护和管理,熟悉Shell/Python脚本开发,掌握Scala/JAVA优先;

3、熟悉大数据项目实施:包括不限于Kafka、Hadoop、Hive、Hbase、Spark等大数据生态的平台搭建,监控和调优;

4、良好团队精神服务意识,沟通协调能力;

大数据运维工程师岗位的主要职责4

职责:

1、负责Hadoop、HBase、Hive、Spark等大数据平台规划、部署、监控、系统优化等,确保高可用;

2、负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化;

3、处理公司大数据平台各类异常和故障,确保系统平台的稳定运行;

4、设计实现大规模分布式集群的运维、监控和管理平台;

5、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向。

相关文档
最新文档