大数据工程平台实验操作手册3

合集下载

普开大数据实验管理平台系统用户手册

普开大数据实验管理平台系统用户手册

普开大数据实验管理平台系统用户手册普开大数据实验管理平台系统用户手册 (1)1 老师端 (2)1.1 教师登录 (2)1.2 个人中心 (2)1.3 创建课程 (4)1.4 管理课程 (8)1.5 课程安排 (12)1.6 我的班级 (13)1.7 实验报告 (15)1.8 成绩管理 (16)1.9 视频库 (16)1.10 实验库 (17)1.11 试题库 (18)1.12 选课 (21)1.13 课程 (22)1.14 消息 (22)1.15 设置 (22)2 学生端 (24)2.1 学生登录 (24)2.2 学生首页 (24)2.3 个人中心 (25)2.4 个人设置 (26)2.5 消息 (27)2.6 我的课程 (28)2.7 选课 (30)3 管理员 (31)3.1 个人中心 (31)3.2 虚机管理 (32)3.3 日志记录 (32)3.4 组织结构模块 (33)3.5 班级管理 (35)3.6 用户管理 (37)3.7 课程设置 (39)3.8 公告发布 (40)3.9 实验室设置 (41)大数据实验室是采用B/S结构,可以让学生在任何时间和地点做实验,不受环境和时间的限制。

老师也可以在任何时间和地点进行实验课程的相关工作。

1老师端1.1教师登录老师在浏览器打开登陆界面,输入用户名和密码进行登录。

登陆界面如下:登录界面可以进行本系统的使用手册进行下载!1.2个人中心老师登录进入系统后,老师端首页界面。

界面如下图所示:课程安排可以看到自己最近一周的课程排课情况,具体的课程安排下文会有详细的解释。

学生的登录情况是最近一周内学生的登录以及注册人数的详情,以折线图的形式展示出来,鼠标放上会有详细的人数。

1.3创建课程在上教师首页的导航栏中,有创建课程、管理课程、课程安排、我的班级、实验报告、成绩管理、视频库、实验库、试题库、试卷库、课程、选课、消息、设置和退出几项功能。

●点击创建课程,进入创建课程的页面。

大数据分析平台的建设与配置手册

大数据分析平台的建设与配置手册

大数据分析平台的建设与配置手册摘要:本文旨在为搭建和配置大数据分析平台的用户提供一份详尽的手册。

大数据分析平台作为一个结合了各种技术和工具的完整系统,可以实现对大量数据的采集、存储、处理和分析。

本手册将涵盖平台的搭建、配置、操作以及一些最佳实践等方面的内容,帮助用户有效地部署和管理大数据分析平台,从而提高数据分析的效率与准确性。

一、引言大数据分析平台的建设和配置是一个复杂的任务,需要进行适当的规划和设计。

本文将详细介绍大数据分析平台的搭建和配置步骤,包括硬件和软件环境准备,数据存储与处理工具选择,以及配置和管理等方面的内容。

二、环境准备1. 硬件环境准备在开始搭建大数据分析平台之前,您需要确保有足够的硬件资源来支持您的需求。

一般来说,大数据分析平台需要一台或多台具有较高计算能力和存储容量的服务器,以及稳定的网络连接。

2. 软件环境准备在选择软件环境时,您需要考虑到您的分析需求以及所选工具的兼容性和扩展性。

常用的大数据分析平台软件包括Hadoop、Spark、Hive和Pig等。

您需要确保所选平台与您的数据源兼容,并具备足够的处理能力。

三、数据存储与处理工具选择在搭建大数据分析平台时,选择适合的数据存储与处理工具非常重要。

以下是一些常用的工具及其特点:1. Hadoop:Hadoop是一个开源的分布式计算框架,适用于大规模数据存储和处理。

它主要由HDFS(Hadoop分布式文件系统)和MapReduce构成。

2. Spark:Spark是一个通用的大数据处理引擎,相比于Hadoop,它具备更好的性能和灵活性。

Spark支持多种数据处理模式,包括批处理、交互式查询和流式处理等。

3. Hive:Hive是一个基于Hadoop的数据仓库解决方案,它允许用户使用类似于SQL的查询语言进行数据分析。

Hive将SQL查询翻译成MapReduce任务来执行。

4. Pig:Pig是一个用于分析大型数据集的高级平台,它以脚本语言为基础,允许用户进行数据提取、转换和加载等操作。

大数据运维管理平台说明书

大数据运维管理平台说明书

碧茂大数据运维管理平台说明书版本控制目录简介 (3)功能详细介绍 (3)配置管理 (6)集群监控 (11)告警系统 (17)巡检 (20)知识库 (24)简介碧茂运维管理平台是针对大数据分布式集群系统设计的自动化运维管理平台,核心功能包括集群资产管理,监控系统,告警系统,系统巡检和运维知识库系统等。

详细如下:一、资产管理提供可视化界面实现对主机和集群资源的统一配置和管理,对各项监控管理任务进行调度配置、监控和管理。

方便运维人员能随时掌握系统全貌,集群服务角色分布情况,硬件资源分配情况,能根据管理需求进行定制化定时任务调度。

二、监控系统1、主机的健康性能的监控2、集群服务的端口、健康性能指标的监控3、集群参数的监控,并自动给出调优建议4、集群日志的监控预警,自动化收集汇总集群进程和应用日志,并对错误日志进行预警三、告警系统1、选择任意监控的指标和阈值,进行邮件告警四、系统巡检(特色功能)对系统和集群进行健康和性能检查,自动化生成巡检报告。

分为基础巡检和深度巡检。

基础巡检指的是根据需求可以灵活选择需要巡检的服务、指标、参数,自动化生成巡检报告。

深度巡检指的是对不同服务的结构对象进行深入分析诊断。

五、知识库系统(特色功能)一套高质量的集群管理运维相关的知识管理系统,包括运维工具箱、最佳实践和解决方案。

知识库系统中的方案可以一键执行来实现复杂运维流程的自动化处理,包括:⚫日常集群操作需求,包括服务启停、参数修改、备份恢复、集群扩容迁移、安全配置和升级⚫自动化故障处理功能详细介绍登录界面用户首先需要获取license,激活产品后才能正常使用,提示如下:点击激活,会自动生成机器码,请联系厂商获取激活码激活后,会提示到期日,产品可以正常进行登录了首页是向导页,以路线图的方式引导你进行集群配置和集群监控配置管理全局配置用于配置全局参数和服务,包括数据保留配置、告警服务、告警配置和数据库配置等修改全局参数数据库配置用于配置关系型数据库,支持Mysql和PostgreSQL等,通常是CM、Hive、Hue、Oozie等元数据库,方便管理和查询。

先电大数据平台操作手册

先电大数据平台操作手册

先电大数据平台用户手册版本:先电发布日期:2017年02月21日南京第五十五所技术开发有限公司版本修订说明目录1 概述...................................................... 错误!未定义书签。

大数据简介........................................ 错误!未定义书签。

先电大数据平台简介................................ 错误!未定义书签。

2 基本环境配置.............................................. 错误!未定义书签。

配置主机名........................................ 错误!未定义书签。

修改hosts文件.................................... 错误!未定义书签。

修改yum源........................................ 错误!未定义书签。

配置ntp .......................................... 错误!未定义书签。

配置SSH .......................................... 错误!未定义书签。

禁用Transparent Huge Pages ........................ 错误!未定义书签。

安装配置JDK....................................... 错误!未定义书签。

3 配置ambari-server ........................................ 错误!未定义书签。

安装MariaDB数据库................................ 错误!未定义书签。

实验1 熟悉大数据分析平台的Linux操作命令

实验1 熟悉大数据分析平台的Linux操作命令

[test@fsmanager ~]$ pwd /home/user/test [test@fsmanager ~]$ cd /tmp [test@fsmanager tmp]$ pwd /tmp [test@fsmanager ~]$ cd /mnt [test@fsmanager mnt]$ lsdata1 data10 data11 data12 data2 data3 data4 data5 data6 data7 data8 data9 samba usb usb1 [test@fsmanager ~]$ touch a [test@fsmanager ~]$ ls a1、Linux 远程连接软件2、Linux 的基本操作命令湖南商学院大数据分析服务器集群均使用Linux 操作系统。

Linux 是一套免费使用和自由传播的类Unix 操作系统,是一个基于POSIX 和UNIX 的多用户、多任务、支持多线程和多CPU 的操作系统。

它能运行主要的UNIX 工具软件、应用程序和网络协议。

它支持32位和64位硬件。

Linux 继承了Unix 以网络为核心的设计思想,是一个性能稳定的多用户网络操作系统。

Linux 操作系统诞生于1991年10月5日(这是第一次正式向外公布时间)。

Linux 存在着许多不同的版(一) 实验目的1.掌握大数据分析平台中Linux 远程连接软件的使用方法;2.熟悉大数据分析平台的Linux 基本操作命令;3.掌握大数据分析平台中Vim 、Gedit 编辑器的使用方法。

(三) 实验环境1.在大数据分析平台中安装Linux 远程连接软件,如MobaXterm 、secureCRT 、putty 等;2.在大数据分析平台中使用Linux 命令操作文件系统;3.使用Vim 、Gedit 等编辑器编辑文件。

(四) 实验步骤(二) 实验要求1.Linux 远程连接软件;2.Linux 的基本操作命令;3.Vim 、Gedit 编辑器的使用。

新点大数据平台软件操作手册

新点大数据平台软件操作手册

新点大数据平台软件操作手册一、第一章、平台建设背景当今世界,信息技术与经济社会的交会融合引发数据迅猛增长,数据已成为国家基础性战略资源。

大数据的发展和应用正日益对全球生产、流通、分配、消费活动以及经济运行机制、社会生活方式和政府治理能力产生重要影响。

2014年,“大数据”被首次写入政府工作报告以来,中央主要领导对大数据中心的建设及大数据技术的应用高度重视,国务院及有关部门也陆续发布了一系列的文件。

2015年,《关于运用大数据加强对市场主体服务和监管的若干意见》、《关于积极推进“互联网+”行动的指导意见》和《促进大数据发展行动纲要》陆续颁布,2016年,《政务信息资源共享管理暂行办法》,明确规范政务部门间政务信息资源共享工作,2017年,《政务信息系统整合共享实施方案》,建立全国政务信息资源目录体系,政务信息系统整合共享取得显著成效,重要政务信息系统实现互联互通。

这几份重磅文件密集出台,标志着我国政府大数据战略部署和顶层设计正式确立,大数据的开发应用必将使政府治理“如虎添翼”。

二、第二章、建设原则建设大数据平台可以划分为四个阶段:信息资源规划、数据共享、数据开放、融合应用。

2.1、信息资源规划信息资源规划是政府管理、资源共享、电子政务建设的基础。

信息资源规划是以摸清政府部门信息资源底数为基础,以较为明确的需求如人口、法人、电子证照、地理信息为导向,通过信息资源规划IRP理论体系,按照三定方案或职责清单对政府业务进行分析,划分职能、梳理职能事项,并识别事项运行所发生的信息资源,详细描述信息资源的基础属性、采集属性、共享属性、开放属性等各类属性。

2.2、数据共享政务大数据平台建设第二阶段的主要任务就是先把政府部门之间的数据共享做起来,以数据应用为导向,综合考虑管理难度和技术难度,通过统一规划,逐步推进的策略,形成“条线内部门共享”、“平级跨部门共享”、“跨层级和跨区域共享”的信息资源共享共用的新格局。

大数据分析平台的搭建与使用教程

大数据分析平台的搭建与使用教程

大数据分析平台的搭建与使用教程随着互联网的全面普及和信息技术的快速发展,大数据分析已成为企业决策和业务优化的重要手段。

为了充分利用海量数据中蕴含的商机和价值,许多企业开始搭建大数据分析平台,并通过数据分析来指导决策和业务发展。

本文将介绍大数据分析平台的搭建与使用教程,帮助读者了解如何构建一个高效可靠的大数据分析平台。

一、搭建大数据分析平台的基本步骤1.需求分析:在搭建大数据分析平台之前,首先要明确自己的需求和目标。

确定需要分析的数据类型、数据源、分析指标等等,并根据这些需求来选择合适的技术和工具。

2.选取适合的大数据技术:大数据技术包括分布式存储、分布式计算和分布式文件系统等。

常用的大数据技术有Hadoop、Spark等。

根据需求和预算,选择合适的技术来构建大数据分析平台。

3.搭建分布式存储系统:分布式存储系统是大数据分析平台的基础,用于存储海量的数据。

常用的分布式存储系统有HDFS、Amazon S3等。

根据选取的大数据技术,搭建相应的分布式存储系统。

4.搭建分布式计算平台:分布式计算平台用于对存储在分布式存储系统中的数据进行计算和分析。

常用的分布式计算平台有MapReduce和Spark。

根据选取的大数据技术,搭建相应的分布式计算平台。

5.建立数据采集系统:数据采集系统用于从各种数据源中获取数据,并存储到分布式存储系统中。

常用的数据采集工具有Flume、Kafka等。

根据需求和数据源类型,选择合适的数据采集工具。

6.构建数据分析模型:根据需求和目标,构建合适的数据分析模型,并使用分布式计算平台进行计算和分析。

常用的数据分析工具有Hive、Pig、R、Python等。

7.可视化和报表展示:将分析结果以可视化和报表的形式展示,便于理解和决策。

常用的可视化工具有Tableau、Power BI等。

二、大数据分析平台的使用教程1.数据采集:首先,通过数据采集系统采集各种数据源中的数据,并存储到分布式存储系统中。

大数据交易平台操作手册

大数据交易平台操作手册

大数据交易平台操作手册V1.0目录第1章平台简介 (4)第2章大数据交易平台操作说明 (4)2.1用户注册 (4)2.1.1个人用户注册 (4)2.1.2企业用户注册 (5)2.2数据资产 (6)2.2.1数据源 (6)2.2.2数据模型 (6)2.2.3可视化引擎工具 (7)2.2.4应用场景 (7)2.2.5采集爬取工具 (8)2.2.6清洗脱敏工具 (8)2.2.7数据分析平台 (9)2.2.8数据开发平台 (9)2.2.9数据管理平台 (10)2.2.10数据安全组件 (10)2.3项目试用 (11)2.4项目结算 (11)2.4.1创客用户支付结算 (11)2.4.2企业用户支付结算 (11)2.5个性定制 (11)2.5.1个性定制 (12)2.5.2我的定制 (12)2.6个人中心 (12)2.6.1用户信息管理 (12)2.6.2我的关注 (12)2.6.3我的项目 (12)第3章数据融合平台简介 (13)3.1平台简介 (13)3.2整体构架 (13)第4章融合平台使用说明 (14)4.1我的账户 (15)4.1.1账户管理 (15)4.1.2我的资产 (15)4.2数据源 (16)4.2.1自有数据源 (17)4.2.2平台数据源 (18)4.3数据模型 (18)4.3.1模型查看 (18)4.3.2模型上传 (18)4.4数据加工 (19)4.4.1项目管理 (20)4.4.2工作流管理 (21)4.4.3流程配置 (21)4.4.4节点参数设置 (22)4.4.5工作流保存 (25)4.4.6运行工作流 (26)4.4.7状态和结果 (26)4.5数据仓库 (26)4.6可视化引擎 (27)4.7大数据应用集成 (28)4.8发布管理 (28)4.9采集爬取工具 (28)4.10清洗脱敏工具 (28)4.11数据分析平台 (29)4.12数据开发平台 (29)4.13数据管理平台 (29)4.14数据安全组件 (29)4.15个人数据银行 (29)4.16控制面板 (29)4.16.1用户管理 (30)4.16.2权限管理 (31)4.16.3管控中心 (32)4.16.4监控中心 (33)第1章平台简介大数据交易平台通过构建公有云平台系统,实现数据源、数据模型、可视化引擎工具、应用场景、采集爬虫工具、清洗脱敏工具、数据分析平台、数据开发平台、数据管理平台、数据安全组件等大数据资产的分类展示、检索和使用。

华傲数据政务大数据融合平台 系统使用手册说明书

华傲数据政务大数据融合平台 系统使用手册说明书

华傲数据政务大数据融合平台系统使用手册审核:胡云编写时间:2019-05-271.目录1.目录......................................................................................... 错误!未定义书签。

2.名词释义 (3)3.界面操作步骤 (4)3.1.整体流程图 (4)3.2.平台配置管理 (5)3.2.1.用户管理 (5)3.2.2.权限管理 (6)3.2.3.数据源管理 (7)3.3.系统配置管理 (7)3.3.1.归集库初始化 (7)3.3.2.GLDM初始化 (7)3.4.数据模型管理 (8)3.4.1.资源库管理 (8)3.4.2.资源目录管理 (8)3.4.3.GLDM模型管理 (12)3.4.4.归集库管理 (13)3.5.清洗规则管理 (14)3.5.1.标准代码管理 (14)3.5.2.自定义代码管理 (14)3.5.3.表达式规则 (15)3.5.4.编码规则 (15)3.5.5.函数规则 (15)3.6.数据集成管理 (16)3.6.1.数据集成配置 (16)3.7.数据集成监控 (24)3.7.1.流程调度监控 (24)3.7.2.调度监控警告 (25)2.名词释义GLDM模型:政务逻辑数据模型,结合了5年以来国内大数据城市建设成果突出的深圳、沈阳、贵阳等12个省区市不同层级政府的政务数据模型的设计和实施经验凝练形成的。

国内首个指导区域数据资源化,实现跨地域、跨部门、跨业务的数据资源共享、整合、集中、开放建设的大规模数据处理的知识型产品。

基础库:指包含人口库,法人库,房屋库,地址库,车辆库六大库在内基础库,也是一个城市中最核心的库。

主题库:指包含证照库、信用库、社会关系库、视频库和事件库五大扩展库。

将来可能随着客户需求增加会有新的主题库产生。

ETL:用来描述将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程归集库:归集库存储所有的源数据,是源数据的一个备份。

大数据haoop基础实验指导书

大数据haoop基础实验指导书

实验环境说明 (9)1、登录系统 (9)2、控制台证书导入 (12)初始化环境和一键部署 (17)1、初始化环境环境的目的 (17)1.1 查看3台hadoop节点的ip地址 (17)1.2 开始初始化 (19)1.3 验证是否初始化完成 (23)2、一键部署脚本的使用 (25)Hadoop3.1.0集群环境部署实验 (28)1、基础环境准备 (29)1.1 集群规划 (29)1.2 检查环境是否已经初始化 (31)2、安装hadoop3.1.0 (33)2.1 首先进入软件包目录 (33)2.2将hadoop安装包(hadoop-3.1.0.tar.gz)解压到/opt目录下 (33)2.3修改core-site.xml配置文件 (35)2.4修改hdfs-site.xml配置文件 (36)2.5修改workers配置文件 (38)2.6修改mapred-site.xml配置文件 (39)2.7修改yarn-site.xml配置文件 (40)2.8修改hadoop-env.sh配置文件 (42)2.9取消打印警告信息 (43)2.10修改start-dfs.sh和stop-dfs.sh配置文件 (44)2.11修改start-yarn.sh和stop-yarn.sh配置文件 (47)2.12同步hadoop1主节点的配置到hadoop2和hadoop3上 (50)2.13 格式化HDFS文件系统 (51)3、启动集群 (52)3.1 启动集群 (52)3.2 通过浏览器访问hadoop集群 (54)HDFS文件系统常用操作命令实验 (56)1、检查环境hadop集群环境 (57)2、HDFS基础命令 (58)2.1 -ls命令 (58)2.2 -mkdir命令 (59)2.3 -rm命令 (60)2.4 -mv命令 (60)2.5 -cp命令 (62)2.6 -get命令 (63)2.7 -put命令 (64)2.8 -df 命令 (64)2.9 -du命令 (65)2.10 -help查看帮助命令 (66)2.11 文件权限管理 (67)2.12 查看具体文件 (68)MapReduce单词统计实验 (69)1、检查环境hadoop集群环境 (70)2、Wordcount程序 (72)2.1我们在hadoop1主节点上进入hadoop安装目录下的bin目录 (72)2.2测试jar包都有哪些工具 (72)2.3查看Wordcount需要提供哪些参数 (73)2.4我们在HDFS文件系统上创建一个名为input的文件夹,并查看创建好的文件夹 (74)2.5将/root文件夹下的anaconda-ks.cfg文件复制到HDFS文件系统中的input文件夹中,并查看input中是否有该文件 (75)2.6执行单词统计程序 (75)2.7查看单词统计结果,单词统计的结果已经输出到/output文件夹中 (76)编写MapReduce单词统计实验 (77)1、检查环境hadoop集群环境 (78)2、创建项目 (80)2.1创建java maven项目 (80)2.2 配置pom.xml文件加载jar包 (87)2.3 创建WordCount类 (92)3、打包项目 (97)3.1 将java打包成jar (97)4、运行打包好的jar文件 (101)4.1检查在HDFS上面是否有input文件夹 (101)4.2将/root/anaconda-ks.cfg复制一份名为wordcount.txt并将wordcount.txt文件上传到HDFS文件系统的input文件夹中 (102)4.3执行程序 (103)4.4 查看运行结果 (104)MapReduce 二次排序实验 (105)1、检查环境hadoop集群环境 (106)2、创建项目 (108)2.1创建java maven项目 (108)2.2 配置pom.xml文件加载jar包 (114)2.3创建相关的类文件 (121)3、打包项目 (132)4、运行打包好的jar文件 (138)4.1 创建目录 (138)4.2上传测试数据 (138)4.3运行程序 (139)4.4查看运行结果 (141)MapReduce 计数器实验 (143)1、检查环境hadoop集群环境 (144)2、创建项目 (146)2.1创建java maven项目 (146)2.2 配置pom.xml文件加载jar包 (153)2.3创建Counters类 (160)3、打包项目 (166)4、运行打包好的jar文件 (170)4.1 创建目录 (170)4.2上传测试数据 (171)4.3运行程序 (171)4.4查看运行结果 (173)MapReduce Join操作实验 (175)1、检查环境hadoop集群环境 (176)2、实验介绍 (178)3、创建项目 (179)3.1创建java maven项目 (180)3.2 配置pom.xml文件加载jar包 (187)3.3创建TextPair类 (194)3.4创建MRJoin类 (199)4、打包项目 (204)5、运行打包好的jar文件 (209)5.1 创建目录 (209)5.2上传测试数据 (210)5.3运行程序 (210)4.4查看运行结果 (212)Zookeeper集群环境部署实验 (214)1、检查环境hadoop集群环境 (215)2、安装Zookeeper集群 (217)2.1 进入软件包的目录 (217)2.2 解压安装压缩包将zookeeper安装包解压缩到/opt目录下 (217)2.3进入zookeeper配置文件目录: (218)2.4将zoo_sample.cfg配置文件复制一份并重命名为zoo.cfg (218)2.5创建存放数据的文件夹 (218)2.6创建myid文件,并加入数字1 (hadoop1主节点为1、hadoop2从节点为2、hadoop3从节点为3) (219)2.7修改zoo.cfg配置文件 (220)2.8同步配置文件到hadoop2和hadoop3上 (221)2.9修改hadoop2和hadoop3上的myid (223)3、启动zookeeper集群并测试 (225)3.1分别启动hadoop1、hadoop2、hadoop3节点的zookeeper集群命 (225)3.2查看启动成功命令 (226)Zookeeper常用操作命令实验 (227)1、检查环境hadoop集群环境 (227)2、检查环境zookeeper集群环境 (229)3、Zookeeper常见命令 (230)3.1 打开客户端 (230)3.2 创建Zookeeper节点 (231)3.3 读取节点 (232)3.4 更新节点 (233)3.5 删除节点 (234)3.6 退出客户端 (234)编写Zookeeper进程协作实验 (236)1、检查环境hadoop集群环境 (236)2、检查环境zookeeper集群环境 (238)3、创建项目 (239)3.1创建java maven项目 (240)3.2 配置pom.xml文件 (247)3.3创建zookeeper类 (254)4、打包项目 (259)5、运行打包好的jar文件 (264)5.1 运行程序 (264)Hbase集群环境部署实验 (266)1、检查环境hadoop集群环境 (266)2、安装Hbase集群 (268)2.1 进入软件包的目录 (268)2.2 解压安装压缩包将hbase安装包解压缩到/opt目录下 (268)2.3进入/opt目录下 (269)2.4重命名hbase (269)2.5进入conf目录 (270)2.6修改hbase-site.xml 配置文件 (270)2.7修改regionservers (271)2.8修改hbase-env.sh (272)2.9将在配置文件同步到hadoop2和hadoop3上 (273)3、启动hbase集群 (274)Hbase常用操作命令实验 (277)1、检查hadoop集群环境 (278)2、检查Hbase集群环境 (279)3、Hbase基本操作 (280)3.1 Hbase Shell 命令 (281)3.2显示HBase Shell 帮助文档 (281)3.3 查看Hbase状态 (282)3.4 退出HBase Shell (283)4、hbase数据定义(DDL)操作 (284)4.1 创建新表 (284)4.2 列举表信息 (284)4.3 获取表描述 (285)4.4 检查表是否存在 (286)4.5 删除表 (287)5、数据管理(DML)操作 (288)5.1 在上述步骤3中删除了user表,重新创建一张user表 (288)5.2 向表中插入数据 (289)5.3 一次性扫描全表数据 (290)5.4 获取一个行数据 (291)5.5 禁用一个表 (292)5.6 删除数据 (293)通过API对Hbase增删改查实验 (297)1、检查hadoop集群环境 (298)2、检查Hbase集群环境 (299)3、创建项目 (300)3.1创建java maven项目 (301)3.2更改JDK版本 (305)3.3配置pom.xml文件 (308)3.4创建HbaseMr类 (315)Hive安装部署实验 (321)1、检查环境hadoop集群环境 (322)2、安装hive (323)2.1 进入软件包的目录 (323)2.2 解压安装压缩包将hive安装包解压缩到/opt目录下 (323)2.3进入/opt目录下 (324)2.4重命名hbase (324)2.5进入到hive的配置文件目录 (324)2.6将hive-env.sh.template配置文件复制一份并重命名为hive-env.sh (325)2.7修改hive-env.sh配置文件 (325)2.8新建一个hive-site.xml的配置文件 (326)2.9 将mysql驱动放到hive安装路径的lib目录下 (328)2.10 hive在启动前到进行元数据初始化 (328)3、检查环境hadoop集群环境 (332)2、启动Hive (333)2.1 创建表 (334)2.2 显示表 (335)2.3 显示表列 (336)2.4 更改表 (336)2.5 删除表(或列) (338)4、检查环境hadoop集群环境 (341)2、Hive分区实验 (342)2.1启动Hive (342)2.2 通过HQL语句进行实验 (343)HiveDDL操作实验 (346)1、检查环境hadoop集群环境 (347)2、DDL 操作实验 (348)2.1启动Hive (348)2.2创建数据库 (349)2.3创建表 (349)2.4导入数据 (350)2.5查看数据 (350)2.6插入数据 (350)2.7清空表数据 (352)2.8删除表 (352)2.9分区表 (352)Flume安装部署实验 (354)1、检查环境hadoop集群环境 (354)2、安装Flume (356)2.1 进入软件包的目录 (356)2.2解压安装压缩包将flume安装包解压缩到/opt目录下 (356)2.3进入/opt目录下 (357)2.4重命名flume (357)2.5进入到flume的配置文件目录 (358)2.6将flume-env.sh.template配置文件复制一份并重命名为flume-env.sh (358)2.7将flume-conf.properties.template配置文件复制一份并重命名flume-conf.properties (358)2.8修改flume-env.sh文件 (358)2.9修改flume-conf.properties配置文件 (359)3、测试Flume (361)3.1进入到flume的安装目录 (361)3.2启动flume (362)3.2测试flume (363)4、检查环境hadoop集群环境 (367)2.1进入到flume的配置文件目录 (368)2.2在conf目录下新建tail-hdfs.conf文件并添加以下配置内容 (368)2.3启动Flume 进入到flume的安装目录下 (370)2.4新打开一个终端 (371)2.4在新的终端上创建Flume监听的数据目录 (372)2.5在新的终端执行如下脚本命令会一直写数据到/home/hadoop/log/test.log中 (372)1.6 查看实验结果 (373)5、检查环境hadoop集群环境 (375)2、Flume数据采集实验 (376)2.1进入到flume的配置文件目录 (376)2.2在conf目录下新建test-flume-into-hbase.conf文件并添加以下配置内容 (376)2.3在Linux上创建Flume监听的数据目录 (377)2.4启动Flume 进入到flume的安装目录下 (378)1.5 打开另一终端执行如下命令会写数据到 (379)/home/hadoop/log/nginx.log中 (379)1.6 查看实验结果 (379)Sqoop安装部署实验 (380)1、检查环境hadoop集群环境 (381)2、安装sqoop (382)2.1 进入软件包的目录 (382)2.2 解压安装压缩包将sqoop安装包解压缩到/opt目录下 (382)2.3进入/opt目录下 (383)2.4重命名sqoop (383)2.5进入sqoop配置目录 (384)2.6将sqoop-env-template.sh配置文件复制一份并重命名为sqoop-env.sh (384)2.7修改sqoop-env.sh配置文件,在顶部加入下面代码 (384)2.8将mysql驱动放到sqoop安装路径的lib目录下 (385)2.9验证安装结果 (385)Sqoop常用命令操作实验 (387)1、检查环境hadoop集群环境 (388)2、sqoop常用命令 (389)2.1 Sqoop工具import和export使用详解 (389)Mysql数据导入HDFS实验 (394)1、检查环境hadoop集群环境 (395)2、sqoop Mysql导入HDFS (396)2.1登陆mysql (396)2.2设置test库为当前库 (397)2.3创建emp表并插入数据 (398)2.4查看emp表的结构 (399)2.5退出mysql数据库 (400)2.6使用import工具将mysql的emp表导入到HDFS中 (400)Sqoop Mysql导入HDFS (401)1.Mysql导入hdfs (402)1.1配置mysql的驱动将mysql驱动放到sqoop安装路径的lib目录下 (402)1.2执行sqoop help查看帮助,进行验证安装结果 (402)1.3数据操作先在本地mysql数据库中创建emp表并插入数据 (402)1.4导入关系表到hive (本质是先导入到hdfs上在导入到hive中) (404)Mysql数据导入HDFS实验 (406)1、检查环境hadoop集群环境 (407)2、sqoop Mysql导入HDFS (408)2.1登陆mysql (408)2.2设置test库为当前库 (409)2.3创建emp表并插入数据 (410)2.4查看emp表的结构 (411)2.5退出mysql数据库 (412)2.6使用import工具将mysql的emp表导入到HDFS中 (412)Sqoop Mysql导入Hdfs (413)1.Mysql导入hdfs (414)1.1配置mysql的驱动将mysql驱动放到sqoop安装路径的lib目录下 (414)1.2执行sqoop help查看帮助,进行验证安装结果 (414)1.3数据操作先在本地mysql数据库中创建emp表并插入数据 (414)1.4导入关系表到hive (本质是先导入到hdfs上在导入到hive中) (416)实验环境说明我们进入实验环境后可以看到这样的3台hadoop节点,分别为hadoop1-xxx、hadoop2-xxx、hadoop3-xxx,这里的hadoop1为主节点,hadoop2和hadoop3为从节点。

大数据技术服务平台开发流程手册

大数据技术服务平台开发流程手册

大数据技术服务平台开发流程手册第1章项目立项与规划 (5)1.1 项目背景与目标 (5)1.2 市场调研与分析 (5)1.3 项目团队与资源配置 (5)1.4 项目时间表与里程碑 (5)第2章需求分析 (5)2.1 业务需求调研 (5)2.2 用户需求分析 (5)2.3 功能需求定义 (5)2.4 非功能需求定义 (5)第3章技术选型与架构设计 (5)3.1 技术栈选型 (5)3.2 系统架构设计 (5)3.3 数据架构设计 (5)3.4 技术风险分析 (5)第4章数据源接入与管理 (5)4.1 数据源识别与接入 (5)4.2 数据采集与清洗 (5)4.3 数据存储与管理 (5)4.4 数据质量管理 (5)第5章数据处理与分析 (5)5.1 数据预处理 (5)5.2 数据挖掘与算法应用 (5)5.3 数据分析模型构建 (6)5.4 数据可视化展示 (6)第6章大数据平台开发 (6)6.1 分布式计算与存储技术 (6)6.2 大数据组件集成 (6)6.3 数据仓库建设 (6)6.4 数据湖技术应用 (6)第7章系统开发与实现 (6)7.1 前端开发技术选型与实现 (6)7.2 后端开发技术选型与实现 (6)7.3 微服务架构设计与实现 (6)7.4 系统测试与调优 (6)第8章安全与隐私保护 (6)8.1 数据安全策略制定 (6)8.2 访问控制与身份认证 (6)8.3 数据加密与脱敏 (6)8.4 隐私保护与合规性 (6)第9章系统部署与运维 (6)9.2 持续集成与持续部署 (6)9.3 系统监控与告警 (6)9.4 系统优化与升级 (6)第10章用户培训与支持 (6)10.1 用户手册与操作指南 (6)10.2 培训计划与实施 (6)10.3 用户支持与问题解决 (6)10.4 用户反馈与需求跟进 (6)第11章项目验收与交付 (6)11.1 项目验收标准与流程 (6)11.2 项目交付物与文档 (7)11.3 项目总结与经验分享 (7)11.4 项目后续服务与维护 (7)第12章项目评估与改进 (7)12.1 项目效果评估 (7)12.2 项目问题与挑战 (7)12.3 改进措施与优化方向 (7)12.4 项目可持续发展策略 (7)第1章项目立项与规划 (7)1.1 项目背景与目标 (7)1.1.1 项目背景 (7)1.1.2 项目目标 (7)1.2 市场调研与分析 (7)1.2.1 市场调研 (7)1.2.2 市场分析 (8)1.3 项目团队与资源配置 (8)1.3.1 项目团队 (8)1.3.2 资源配置 (8)1.4 项目时间表与里程碑 (8)1.4.1 项目时间表 (8)1.4.2 里程碑 (9)第2章需求分析 (9)2.1 业务需求调研 (9)2.2 用户需求分析 (9)2.3 功能需求定义 (9)2.4 非功能需求定义 (10)第3章技术选型与架构设计 (10)3.1 技术栈选型 (10)3.1.1 后端技术栈 (10)3.1.2 前端技术栈 (11)3.1.3 移动端技术栈 (11)3.2 系统架构设计 (11)3.2.1 系统架构概述 (11)3.3 数据架构设计 (12)3.3.1 数据库设计 (12)3.3.2 缓存设计 (12)3.3.3 消息队列设计 (12)3.4 技术风险分析 (12)第4章数据源接入与管理 (12)4.1 数据源识别与接入 (12)4.1.1 数据源识别 (13)4.1.2 数据接入 (13)4.2 数据采集与清洗 (13)4.2.1 数据采集 (13)4.2.2 数据清洗 (13)4.3 数据存储与管理 (14)4.3.1 数据存储 (14)4.3.2 数据管理 (14)4.4 数据质量管理 (14)4.4.1 数据质量评估 (14)4.4.2 数据质量改进 (15)第5章数据处理与分析 (15)5.1 数据预处理 (15)5.2 数据挖掘与算法应用 (15)5.3 数据分析模型构建 (15)5.4 数据可视化展示 (16)第6章大数据平台开发 (16)6.1 分布式计算与存储技术 (16)6.1.1 分布式计算技术 (16)6.1.2 分布式存储技术 (16)6.2 大数据组件集成 (17)6.2.1 常见大数据组件 (17)6.2.2 组件集成方法 (17)6.3 数据仓库建设 (17)6.3.1 数据仓库架构 (17)6.3.2 数据建模方法 (18)6.4 数据湖技术应用 (18)6.4.1 数据湖概念 (18)6.4.2 数据湖关键技术 (18)第7章系统开发与实现 (18)7.1 前端开发技术选型与实现 (18)7.2 后端开发技术选型与实现 (19)7.3 微服务架构设计与实现 (19)7.4 系统测试与调优 (20)第8章安全与隐私保护 (20)8.1 数据安全策略制定 (20)8.1.2 分析数据安全风险 (21)8.1.3 制定数据安全策略 (21)8.1.4 数据安全策略的实施与监督 (21)8.2 访问控制与身份认证 (21)8.2.1 访问控制策略 (21)8.2.2 身份认证技术 (21)8.2.3 访问控制模型的建立 (21)8.2.4 访问控制策略的实施与优化 (21)8.3 数据加密与脱敏 (21)8.3.1 数据加密技术 (21)8.3.2 数据脱敏技术 (21)8.3.3 数据加密与脱敏策略的制定 (22)8.3.4 数据加密与脱敏技术的应用与实践 (22)8.4 隐私保护与合规性 (22)8.4.1 隐私保护原则 (22)8.4.2 隐私保护法律法规 (22)8.4.3 隐私保护措施 (22)8.4.4 合规性评估与监督 (22)第9章系统部署与运维 (22)9.1 系统部署策略与实施 (22)9.1.1 部署策略 (22)9.1.2 部署实施步骤 (23)9.2 持续集成与持续部署 (23)9.2.1 持续集成 (23)9.2.2 持续部署 (23)9.3 系统监控与告警 (23)9.3.1 监控指标 (23)9.3.2 告警机制 (24)9.4 系统优化与升级 (24)9.4.1 优化方向 (24)9.4.2 升级策略 (24)第10章用户培训与支持 (24)10.1 用户手册与操作指南 (24)10.2 培训计划与实施 (24)10.3 用户支持与问题解决 (25)10.4 用户反馈与需求跟进 (25)第11章项目验收与交付 (25)11.1 项目验收标准与流程 (25)11.1.1 验收标准 (25)11.1.2 验收流程 (26)11.2 项目交付物与文档 (26)11.2.1 项目交付物 (26)11.2.2 项目文档 (26)11.4 项目后续服务与维护 (27)第12章项目评估与改进 (27)12.1 项目效果评估 (27)12.2 项目问题与挑战 (27)12.3 改进措施与优化方向 (28)12.4 项目可持续发展策略 (28)第1章项目立项与规划1.1 项目背景与目标1.2 市场调研与分析1.3 项目团队与资源配置1.4 项目时间表与里程碑第2章需求分析2.1 业务需求调研2.2 用户需求分析2.3 功能需求定义2.4 非功能需求定义第3章技术选型与架构设计3.1 技术栈选型3.2 系统架构设计3.3 数据架构设计3.4 技术风险分析第4章数据源接入与管理4.1 数据源识别与接入4.2 数据采集与清洗4.3 数据存储与管理4.4 数据质量管理第5章数据处理与分析5.1 数据预处理5.2 数据挖掘与算法应用5.3 数据分析模型构建5.4 数据可视化展示第6章大数据平台开发6.1 分布式计算与存储技术6.2 大数据组件集成6.3 数据仓库建设6.4 数据湖技术应用第7章系统开发与实现7.1 前端开发技术选型与实现7.2 后端开发技术选型与实现7.3 微服务架构设计与实现7.4 系统测试与调优第8章安全与隐私保护8.1 数据安全策略制定8.2 访问控制与身份认证8.3 数据加密与脱敏8.4 隐私保护与合规性第9章系统部署与运维9.1 系统部署策略与实施9.2 持续集成与持续部署9.3 系统监控与告警9.4 系统优化与升级第10章用户培训与支持10.1 用户手册与操作指南10.2 培训计划与实施10.3 用户支持与问题解决10.4 用户反馈与需求跟进第11章项目验收与交付11.1 项目验收标准与流程11.2 项目交付物与文档11.3 项目总结与经验分享11.4 项目后续服务与维护第12章项目评估与改进12.1 项目效果评估12.2 项目问题与挑战12.3 改进措施与优化方向12.4 项目可持续发展策略第1章项目立项与规划1.1 项目背景与目标1.1.1 项目背景我国经济的快速发展和科技的不断进步,各行各业对高效、智能的解决方案需求日益增长。

大数据-大数据平台环境搭建CDH5131傻瓜式说明书32页 精品

大数据-大数据平台环境搭建CDH5131傻瓜式说明书32页 精品

Cloudera大数据平台环境搭建(CDH5.13.1版)目录Cloudera大数据平台环境搭建 (1)(CDH5.13.1版) (1)1.基础环境 (4)1.1.软件环境 (4)1.2.配置规划 (4)1.3.所需要的软件资源 (4)1.4.修改机器名(所有节点) (5)1.5.设置防火墙(所有节点) (6)1.6.配置免密码登录SSH (6)1.7.关闭SELINUX(所有节点) (8)1.8.修改Linux内核参数(所有节点) (8)1.9.其他安装与配置(所有节点) (10)1.10.配置NTP服务 (10)1.11.安装oracle JDK1.8 (所有节点) (12)1.12.Mysql安装(主节点) (13)2.安装CM (15)2.1.传包,解包 (15)2.2.创建数据库 (15)2.3.创建用户 (16)2.4.制作本地YUM源 (16)2.5.拷贝jar包 (17)2.6.修改cloudera-scm-agent配置 (17)2.7.启动CM Server和Agent (18)2.8.访问CM (18)3.安装CDH (18)3.1.登录后界面 (18)3.2.选择CM版本 (19)3.3.指定主机 (20)3.4.选择CDH版本 (21)3.4.1.出现“主机运行状态不良”错误 (22)3.5.检查主机正确性 (23)3.6.选择安装的服务 (23)3.7.角色分配 (24)3.8.数据库设置 (24)3.8.1.测试连接报错: (25)3.9.群集设置 (26)3.10.开始安装 (28)3.11.安装完成 (29)3.11.1.警告信息: (29)4.常见错误 (31)4.1.初始化数据库错误: (31)4.2.未能连接到Host Monitor (32)1.基础环境1.1.软件环境本文将介绍Centos7.4 离线安装CDH和Cloudera Manager过程,软件版本如下:1.2.配置规划本次安装共5台服务器,服务器配置及用途如下:1.3.所需要的软件资源1)JDK环境:JDK版本:1.8.0_151jdk-8u151-linux-x64.rpm下载地址:http://.oracle./technetwork/java/javase/downloads/jdk8-downloads-2133151.html2)CM包:CM版本:5.13.1cloudera-manager-centos7-cm5.13.1_x86_64.tar.gz下载地址:http://archive-primary.cloudera./cm5/cm/5/cloudera-manager-centos7-cm5.13.1_x86_64.tar.gz3)CDH包CDH版本:5.13.1,CDH-5.13.1-1.cdh5.13.1.p0.2-el7.parcel;CDH-5.13.1-1.cdh5.13.1.p0.2-el7.parcel.sha1;manifest.json下载地址:http://archive-primary.cloudera./cdh5/parcels/5.13.1/manifest.jsonhttp://archive-primary.cloudera./cdh5/parcels/5.13.1/CDH-5.13.1-1.cdh5.13.1.p0.2-el7.parcel.sha1 http://archive-primary.cloudera./cdh5/parcels/5.13.1/CDH-5.13.1-1.cdh5.13.1.p0.2-el7.parcel4)JDBC连接jar包:jar包版本:5.1.43,mysql-connector-java-5.1.43.jar下载地址:/maven2/mysql/mysql-connector-java/5.1.43/mysql-connector-java-5.1.43.jar 1.4.修改机器名(所有节点)1)修改机器名称这种方式,在Centos7中可以永久性改变主机名称。

大数据技术Spark基础实验指导书

大数据技术Spark基础实验指导书

实验一Scala部署及基本语法 (5)1. 安装Scala (6)1.1 进入安装目录 (6)2. Scala基础 (7)2.1 基础语法 (7)2.2 控制结构 (11)实验二Scala数据结构 (13)3. Scala数据结构 (14)3.1 列表 (14)3.2 集合 (14)3.3 映射(Map) (15)3.4 迭代器 (17)实验三Scala类和对象 (20)4. 类 (21)4.1 简单的类 (21)5. 对象 (24)5.1 单例对象 (25)5.2 伴生对象 (25)5.3 应用程序对象 (26)实验四Scala函数式编程WordCount (27)6. 实验操作 (29)6.1 创建需要统计的目录 (29)实验五spark安装部署 (31)1、检查环境hadoop集群环境 (31)2、Spark部署 (32)1实验六Spark RDD编程 (45)1.RDD编程 (46)实验七Spark单词统计实验 (47)2、检查hadoop集群环境 (49)2、创建项目 (50)2.1创建java maven项目 (51)2.2更改JDK版本 (54)2.3配置pom.xml文件 (58)2.4创建SparkWordCount类 (64)4、打包项目 (70)5、运行打包好的jar程序 (76)5.1 运行程序 (76)实验八Spark Hbase读写实验 (77)1、检查hadoop集群环境 (79)2、Hbase创建studen表 (80)2.1 进入hbase环境 (80)2.2 查看表是否存在 (80)2.3 创建student表 (81)2.4 往表里插入数据 (81)2.5 使用scan命令查看表结构 (82)3、创建项目 (83)3.1创建java maven项目 (84)3.2更改JDK版本 (87)3.3配置pom.xml文件 (91)15、Spark运行打包好的jar文件 (101)6、java代码和配置文件(附) (104)实验九Spark stream实验 (109)1.实验准备 (110)2. 创建Scala jar包 (111)2.1 创建Scala项目 (111)2.2 把scala项目Maven管理 (111)3. Spark运行打包好的jar文件 (114)4. java代码和配置文件(附) (116)4.1 Stream类 (116)实验十Spark SQL实验 (119)1.实验准备 (120)5. 创建Scala jar包 (121)5.1 创建Scala项目 (121)5.2 把scala项目Maven管理 (121)6. Spark运行打包好的jar文件 (124)7. java代码和配置文件(附) (126)7.1 SQL类 (126)1旗开得胜实验一Scala部署及基本语法【实验名称】Scala基本语法【实验目的】1.熟悉Scala的安装和基础语法学习12.掌握Scala基本数据类型和操作3.熟悉使用Scala控制语句【实验要求】要求实验结束后,每位学生都能够自行安装Scala,并且能熟悉应用Scala的基础语法和基本数据类型,能在Scala成功编写程序。

大数据采集实训步骤与内容

大数据采集实训步骤与内容

大数据采集实训步骤与内容大数据采集是指从多种数据源中收集和提取大量的数据,并将其保存到数据库或数据仓库中,以便进行后续的分析和处理。

大数据采集实训是指在实际操作中学习和掌握大数据采集的技术和方法。

下面将介绍大数据采集实训的步骤和内容。

一、准备工作1. 确定采集目标和需求:明确需要采集的数据类型、数据源、数据量以及采集的目的,为后续的采集工作提供指导。

2. 确定采集方式:根据采集目标和需求,选择合适的采集方式,如爬虫、API接口、日志文件等。

3. 确定采集工具:根据采集方式选择合适的采集工具,如Python 的Scrapy框架、Java的Jsoup库等。

二、数据源分析1. 确定数据源:根据采集目标和需求,确定数据源,如网站、数据库、日志文件等。

2. 分析数据结构:了解数据源的结构和组织方式,包括数据字段、表关系、数据格式等。

3. 分析数据质量:对数据源的质量进行评估,包括数据完整性、准确性、一致性等。

三、采集规则制定1. 制定采集规则:根据数据源的结构和组织方式,制定采集规则,包括采集的起始点、采集的步长、采集的深度等。

2. 制定数据清洗规则:对采集的数据进行清洗和过滤,去除无效数据、重复数据、错误数据等。

四、数据采集1. 配置采集环境:根据采集工具的要求,配置采集环境,包括安装依赖库、配置代理等。

2. 编写采集代码:根据采集规则和数据清洗规则,使用采集工具编写采集代码,实现数据的抓取和清洗。

3. 执行采集任务:运行采集代码,执行采集任务,将数据从数据源中抓取下来。

五、数据存储与处理1. 数据存储:将采集到的数据存储到数据库或数据仓库中,如MySQL、Hadoop等。

2. 数据处理:对采集到的数据进行处理和分析,如数据清洗、数据聚合、数据挖掘等。

六、数据可视化与展示1. 数据可视化:使用数据可视化工具,将处理后的数据进行可视化展示,如图表、地图、仪表盘等。

2. 数据展示:将可视化的数据展示在网页、移动应用等平台上,方便用户查看和分析。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

lab6:云化ETL系统平台配置
以组为单位,通过阅读数据集成服务系统操作文档,理解ETL概念,了解数据集成服务系统功能及其应用。

ETL:Extraction-Transformation-Loading的缩写,中文名称为数据提取、转换和加载。

ETL 负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。

数据集成服务系统:一个提供企业级数据集成项目所必须的工具与服务的ETL 系统存储库:以元数据形式存储源和目标,存储映射、转换器、任务节点、数据流和工作流等的存储平台;
数据流:实际数据处理的流程,由映射连接物理数据,生成数据流;
映射:数据处理的流程设计;
迁移映射:数据只做迁移的映射
转换:数据流中的一个数据转换器;
工作流:任务执行流程;
组件:一个任务容器,设置后是工作流中的一个任务节点;
任务节点:工作流下的一个任务
并发管理:任务执行并发控制管理
实验简明流程:
1.创建数据流,建立相应映射,建立源数据和目标数据的关联关系
2.创建工作流
3.目标数据入库
实验具体操作步骤:
登陆客户端,选择数据流登陆进入数据流编辑器,用户名:administrator 密码:bonc
点击创建映射,本例共创建两个映射。

编辑映射,根据不同组对映射命名,如第一组命名为:上网数据预处理01。

点击确定创建完成,此时事实表下映射目录下出现创建的映射。

进入创建的映射进行编辑,将“事实表-源-XD_GN”,“事实表-目标-XD_GN_HOST”和“表达式转换”拖入工作区,如图。

“表达式转换”工具位置在工具栏中如图:
右击“表达式转换”进行编辑。

添加三个端口,主要信息见下表:
长度表达式


A1 50 A1
A20 1000 A20
A36 2000 SUBSTRING(A36,INDEXOF(A36,'/',1,2)+1,INDEXOF(A36,'/',1,3)-(INDEXOF(A36,'/',1,2)+1))
“汇总器“工具位置在工具栏中如图:
端口长度表达式
A1 50 A1
A20 1000 SUM(A20)
A36 2000 A36
如图连线
完成后点击“版本控制-保存”
2 上网数据汇总
源表:XD_GN_HOST , DIM_HOST
目标表:XD_GN_HOST_TOTAL
连接器转换:
端口
端口名称数据类型长度M(是否主表字段)USER_ID 字符串50 是
HOST 字符串4000 是
FLOW 整数22 是
HOST#1 字符串1000 否
HOST_NAME 字符串1000 否
HOST_TYPE 字符串1000 否
条件
主运算符详细信息
HOST = HOST#1
汇总器转换:
端口
端口名称数据类型长度表达式分组
HOST_NAME 字符串1000 HOST_NAME是
HOST_TYPE 字符串1000 HOST_TYPE是
FLOW 整数22 SUM(FLOW) 否
USER_NUMB 整数18 COUNT(HOST_NAME) 否配置完成后,左侧目录下依此出现两个映射。

进入元数据平台进行工作流的操作:
在菜单栏上点击数据集成,单击工作流右键,如图所示点击添加子目录;
如图所示:
其中名称(按照自己的组号)以及顺序自己拟定,是否为叶子节点选择“是”,点击确定;
在新建的子目录下,单击右键选择添加工作流;
名称(按照自己的组号)自己拟定,点击保存;
保存新建的工作流后,出现如下界面:
单击左键将数据流拖拽出来,点击映射,选中自己已经建立好的映射,点击确定,如下图所示:
出现如下图所示界面,点击确定即可;
点击左侧连线,之后将数据流连接起来,点击签入即可;
在保存工作流后,单击已建好的工作流右键出现如下图所示界面:
点击“是”,即可启动工作流;
点击所建立的工作流右侧的运行实例出现如下图所示,其中红色框上表示刷新,可查看最新进程;
点击工作流右侧的历史实例,能够观察到历史运行记录,如下图表示流程运行成功;
工作流执行成功后,整个数据加工过程结束,目标表中已被灌入目标数据,可在BI-MARKET上进行各种形式的分析报表展示。

相关文档
最新文档