大数据运维工程师岗位的主要职责
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
大数据运维工程师岗位的主要职责
大数据运维工程师需要及时反馈技术处理过程中的异常情况,及时向上级反馈告警,同时主动协调资源推动问题解决。以下是小编整理的大数据运维工程师岗位的主要职责。
大数据运维工程师岗位的主要职责1
1) 承担团队的日常管理,如值班安排、工作分配、日常考评等;
2) 组织制订、完善与本部门相关的管理制度、标准操作手册SOP、维护操作MOP和应急预案等;
3) 组织制定中心基础设施保养计划,做好相关计划的实现、控制及优化工作;
4) 审核、报批、组织实施各类变更申请、事件报告工作,做好相关应急工作的指挥与处理;
5) 组织开展数据中心基础设施运行维护相关培训、训练与演练;
6) 协助商务部与外包服务商洽谈相关维护服务合同,监督服务实施并要求进行审核与考评,确保相关基础设施的稳定运行;
7) 负责数据中心基础设施资源统计、容量预警工作,做好每月用水用电统计、PUE统计与分析;
8) 配合数据中心进驻客户的场地选址、平面布局、改造实施、进驻管理等支持协调工作;
9) 基础设施月报、环境报告的编写和提交;
10) 数据中心基础设施的持续优化和改善;
11) 负责上级主管领导交办的其它工作。
大数据运维工程师岗位的主要职责2
职责:
根据产品需求,完成产品功能的设计、编码、测试和发布;
现场项目支持工作,对现场反馈工单问题进行分析、定位和解决;
对现场项目提出的新需求进行分析、设计并完成;
根据产品和技术发展要求,完成平台的设计、开发和支持维护工作。
职位要求:
本科及以上学历,计算机、软件工程相关专业,3年以上相关工作经验;
精通sql、greenplum/postgresql、impala、oracle、mysql至少1种技术、可融汇贯通灵活转换使用;
熟悉hadoop平台zookeeper、hdfs、spark、MR及hbase等常用组件的运行原理;
基于linux/unix平台进行shell、python的常用脚本开发。
大数据运维工程师岗位的主要职责3
职责:
1、负责公司大数据平台自动化运维开发、监控和优化工作,保障数据平台服务的稳定性和可用性;
2、负责公司Hadoop核心技术组件日常运维工作;
3、负责公司大数据平台现场故障处理和排查工作;
4、研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;
任职要求:
1、本科或以上学历,计算机、软件工程等相关专业,3年以上相关从业经验
2、精通Linux运维命令,熟悉Linux的维护和管理,熟悉Shell/Python脚本开发,掌握Scala/JAVA优先;
3、熟悉大数据项目实施:包括不限于Kafka、Hadoop、Hive、Hbase、Spark等大数据生态的平台搭建,监控和调优;
4、良好团队精神服务意识,沟通协调能力;
大数据运维工程师岗位的主要职责4
职责:
1、负责Hadoop、HBase、Hive、Spark等大数据平台规划、部署、监控、系统优化等,确保高可用;
2、负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化;
3、处理公司大数据平台各类异常和故障,确保系统平台的稳定运行;
4、设计实现大规模分布式集群的运维、监控和管理平台;
5、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向。