ETL 设计实现

合集下载

专用ETL模式设计与实现

专用ETL模式设计与实现

Ke r s y wo d :We p n T r e Ad pe cs nma ig S p o tS s m( AD S ; t xrci , rn fr a o n o d g a o — a t a t De i o — kn u p r y t WT S ) Da E t t n T a so t n a d L a i g d i e a a o m i n
1 概 述
传 统 的信 息系统 是一个 由不兼 容数 据源 、 数据 库 与应 用 所 共 同构 成 的复 杂 数据 集 合 , 各部 分 问 不能 彼 此 交流 。而 DS ( cs nm kn u p r S s m) 目的就 是要 通过 数 S Dei o — a ig S p o yt 的 i t e
tm i e he i z t m e a a a xta ton t d t e r c i of ETL a r d e nd e uc de l pm e t y l sD aa r ns r a in whih veo n c c e . t ta f m to o c ba e on sd do an m i kn ow 1 . e e n i t r ci dg a d n e a tve. x e sbl e vion e i a va a e t a n r a e f ce y f r a a rns o m a in nd e lz c e t n i e n r m ntbrngs d nt g s,h t i c e s ef inc i o d t ta f r to a r ai e om . plc td rns o ai n lgi t n t al v e e e e f r he D SS o o tu t h i o n i ae ta f r to m o c.he j c r gi e r fr nc s o ot r t c nsr c t er w ETL s ba s m b y u se l.

ETL技术设计规范方案(通用)

ETL技术设计规范方案(通用)

ETL技术规第1章.ETL设计规ETL设计规主要应用于ETL编码的前期工作。

由于ETL全过程是面向数据的,主要工作为数据的抽取(Extract )、转换(Transform )、装载(Loading),正确界定所涉及到的数据围和应当应用的转换逻辑对于后续的编码工作非常重要,这些数据关系的确定,我们称之为Mapping (数据映射)。

正确定义数据映射关系是ETL成功实施的前提,一个完善的Mapping应该包含以下几个部分:1.1源数据集属性此部分应该详细描述数据源的相关属性,包括:实体名称一一含数据来源名称(DSN、所有者等信息;字段名称--- 英文名称;字段简述--- 中文名称,如为参数信息应该有相关取值解释,如性别字段(1: 男;2:女;0:不详)类型一一字段类型,含长度和精度信息;非空属性一一字段是否可以为空;1.2目标数据集属性此部分应该详细描述目标数据集的相关属性,包括:实体名称一一含数据来源名称(DSN、所有者等信息;字段名称英文名称,建议根据字段含义来命名,而不是简单用拼音来定义字段(此部分由负责设计数据集的人员控制);字段简述中文名称,对于保留字段应该给出默认值;类型一一字段类型,含长度和精度信息;非空属性一一字段是否可以为空;1.3 ETL规则主要描述ETL各个环节的转换规则,包括:数据源过滤规则——描述从源数据集获取数据过程中过滤掉记录的规则;关联规则——当源数据集为多个时,描述相互之间的关联关系;列转换规则一一描述源数据集到目标数据集的字段间的转换规则;此规则非常重要,要清晰描述字段间的逻辑关系,包括业务逻辑;目标数据集更新规则一一描述目标数据集的更新策略,包括更新机制和更新频度,如“每日全量更新”、“每周增量更新”等;ETL作业列表一一由于ETL所开发的作业之间包含一定的业务逻辑和编码逻辑,所以调度过程中应遵循一定的逻辑顺序,此部分主要用来明确调度的顺序,包括:作业名称实现Mapping的作业名称,包括该作业功能描述;调度顺序一一用序号或者是流程图模式描述作业的调度顺序,需要综合考虑业务逻辑、编码逻辑以及系统资源等多方面情况,在保证业务逻辑和编码逻辑的基础上,通过控制调度,最大限度地合理利用系统资源;参数列表——列举每个作业中所使用的参数,不同作业中的相同参数最好使用相同的名称,便于调度时进行控制。

数据仓库的ETL设计与实现

数据仓库的ETL设计与实现

数据仓库的ETL设计与实现随着数据管理和处理技术的不断发展,数据仓库的应用越来越广泛。

数据仓库是一个面向主题的、集成的、稳定的、历史数据导向的数据集合,它可以为企业决策提供支持和参考。

而ETL (Extract-Transform-Load)是数据仓库建设中至关重要的一环,本文将从ETL的定义、设计和实现三个方面讨论数据仓库ETL的相关内容。

一、ETL的定义ETL是数据仓库中的三个核心过程之一,其作用是将来源系统的数据提取出来、进行清洗和转换、最终加载到数据仓库中。

该过程包括了多个环节,例如数据抽取、转换、质量验证等。

数据抽取主要是从数据源系统中提取需要的数据,转换则是对数据进行处理,如合并、拆分、计算、汇总等操作。

而在数据转换的过程中,也需要对数据的质量进行验证,包括数据完整性、准确性、一致性等多方面的要求。

最后通过数据加载的过程,将清洗后的数据存储到数据仓库中,以供后续的查询和分析使用。

二、ETL的设计1. 数据源分析在进行ETL设计之前,需要对数据源进行充分、全面的分析。

这个过程可以帮助我们了解源数据的组织方式、数据格式以及数据量,进而为后续的数据抽取和转换设计提供有力的支持。

此外,还需要考虑数据源的连接方式和可靠性。

2. 抽取和清洗在数据抽取方面,需要针对不同来源系统选择不同的抽取方式。

例如,可以使用增量抽取方式来避免对全部数据的重复抽取;也可以选择周期性全量抽取的方式,提高数据抽取的准确性和及时性。

而在数据清洗方面,则需要对数据进行结构化、规整、控制数据质量,如去除重复记录、删除无效数据、纠正数据错误等操作。

清洗之后的数据能够满足数据仓库的要求,保证后续数据处理的有效性。

3. 转换和装载在数据转换方面,主要采用ETL工具对数据进行处理。

ETL工具能够提供大量的内置函数、命令和工具,帮助我们完成加工数据的过程,如对数据进行汇总、拆分、格式转换等操作,让数据达到更好的可用性和易读性。

而在数据装载方面,主要考虑数据的加载方式和处理速度。

ETL流程调度设计

ETL流程调度设计

1.1 E‎T L流程及‎调度设计(‎E TL S‎c hedu‎l e)(P‎S P)‎ETL调‎度的目标‎快速见效系‎统要抽取3‎9家分行四‎个系统的数‎据进行加工‎处理,数据‎从下传文件‎到ODS库‎,ODS库‎到LDM,‎再计算PI‎值和汇总P‎I,整个E‎T L处理过‎程需按一定‎步骤和满足‎某些条件进‎行,某些关‎键的文件如‎汇率数据、‎机构表等都‎会影响整个‎E TL 的处‎理,因此,‎快速见效的‎E TL处理‎流程将是一‎个比较复杂‎的过程。

‎考虑到将来‎E TL处理‎的多样性和‎复杂性,引‎入了Job‎的概念,将‎E TL处理‎过程分为一‎个一个的J‎o b,Jo‎b可能是清‎洗\加载\‎转换,也可‎能是PI加‎工。

为了对‎复杂的ET‎L处理过程‎更好的调度‎和监控,专‎门设计一个‎E TL调度‎系统。

通过‎E TL调度‎系统的开发‎使用,将清‎晰、高效地‎通过Job‎调度的方式‎处理快速见‎效的ETL‎过程。

.‎ETL调‎度功能说明‎调度维‎护1) ‎调度系统参‎数维护,对‎调度系统的‎公共参数:‎期数、进程‎数、数据日‎期、本期开‎始日期和本‎期结束日期‎进行设置和‎修改。

2‎)下传文‎件信息维护‎,维护所有‎区域的下传‎文件名称、‎文件状态、‎文件数据日‎期和对应区‎域的归属关‎系。

3)‎作业步定‎义与维护,‎定义作业对‎应的实际E‎T L处理过‎程,生成作‎业编号,定‎义作业类型‎和作业的驱‎动关系,作‎业的运行所‎需要的条件‎。

4) ‎调度异常处‎理,对调度‎过程中出现‎的异常情况‎进行处理,‎提供错误查‎找、出错重‎跑功能。

‎日志管理‎1) 调‎度过程日志‎,管理记录‎调度中的主‎要过程和异‎常信息,如‎调度开始、‎调度完成、‎数据库操作‎异常和读写‎文件异常的‎日志。

2‎) Job‎执行日志,‎管理记录J‎o b执行信‎息的日志,‎提供该日志‎的查询、删‎除和执行状‎态重置功能‎。

面向工业大数据的分布式etl系统的设计与实现

面向工业大数据的分布式etl系统的设计与实现

面向工业大数据的分布式etl系统的设计与实现随着工业生产数据的快速增长,如何高效地处理和分析这些数据成为一个重要的问题。

为了解决这个问题,面向工业大数据的分布式ETL(Extract, Transform, Load)系统应运而生。

分布式ETL系统是一种用于从各种数据源中提取、转换和加载数据的系统。

它的设计和实现旨在处理大规模的数据,能够并行地执行数据提取、转换和加载任务,以实现高效的数据处理。

该系统的设计和实现需要考虑以下几个关键因素:1.数据提取:系统可以从各种数据源中提取数据,包括传感器、设备、日志文件等。

为了实现高效的数据提取,可以使用多个提取节点并行地从不同的数据源中提取数据。

2.数据转换:提取的原始数据需要进行转换以满足进一步分析的需求。

这些转换可以包括数据清洗、数据过滤、数据聚合等。

为了实现高效的数据转换,可以使用多个转换节点并行地对数据进行转换。

3.数据加载:转换后的数据需要加载到目标数据存储中,如数据库、数据仓库等。

为了实现高效的数据加载,可以使用多个加载节点并行地将数据加载到目标数据存储中。

这些加载节点需要具备高可用性,以确保数据的可靠性和一致性。

4.可扩展性:面向工业大数据的ETL系统需要具备良好的可扩展性,能够根据数据负载的增加灵活地扩展资源。

这可以通过使用云计算技术、容器技术等来实现。

5.容错性:由于数据处理过程中可能出现各种故障,如节点故障、网络故障等,因此系统需要具备良好的容错性。

可以使用数据备份、故障恢复、自动重启等机制来实现。

6.监控与管理:为了确保系统的健康运行,ETL系统需要具备良好的监控和管理功能。

可以使用监控工具、日志分析工具等对系统进行实时监测和分析,及时发现和解决问题。

在实际的实现中,可以选择合适的技术框架和工具来支持工业大数据的分布式ETL系统。

例如,使用Hadoop作为数据处理框架,使用Apache Spark作为数据处理引擎,使用Kafka作为消息队列来支持数据交换等。

高校数据集成系统的ETL设计与实现

高校数据集成系统的ETL设计与实现
o v n t n o mai n ilnd re e he i f r to sa .Th s a e s ro sy ha p r d t e u i e st n o a i n c n tu t n T e d t n e r t n t c n l g e e h v e i u l m e e h n v ri i f r t o sr c o . h aa i tg a o e h o o y y m o i i
图 2 E L模 块 任 务 结 构 图 T
数据抽 取组件 从异 构数 据源 ( 如数 据库 、 ML文 X
件、 文本文件等 ) 中定时抽取 数据 , 数据抽 取组件 执行 结束后 , 调用 C ceA I ah P 将数据存人 C ce ah 组件 ,ah C ce 组件将二进制和大 文本存人 文件 , 根据数据 抽取 组件
3 hn agA r utrl nvr t S e yn 112, h a .S eyn gi l a U esy, hn a g10 1 C i ) c u i i n
Ab ta t Di i lc mpu o sr c o i l mp r n a k f rt e h g e d u t ni f r t n d v l p n .Du t t e d fe e td t - sr c : gt a a s c n tu t n s ali o t tts o h i h re c i i a o n o ma o e e o me t i e o h i r n aa
b s d o ETL c n s leti o lm .Ta i heu iest n g ae dgtlc p splto stebakgo n ae n a ov h sprbe kngt nv ri yit rtd i i a u e a m afr a h m c r u d.tec n tu t n po h o sr c o i r-

ETL架构设计说明书V04

ETL架构设计说明书V04

密级:ETL架构设计说明书XXXXXXXX公司目录1前言 (1)背景 (1)目的 (1)内容提要 (1)读者 (1)2ETL设计的目标和原则 (1)系统目标 (1)数据目标 (1)功能目标 (2)设计原则 (2)3ETL开发流程设计 (3)数据分析 (3)分析方法 (3)分析内容 (3)开发流程 (4)测试流程 (5)上线流程 (6)4DATASTAGE元数据管理 (6)元数据定义 (6)DATASTAGE元数据管理 (7)数据库元数据导入 (8)文件元数据导入 (8)5ETL架构 (9)ETL总体结构 (9)ETL关键任务设计 (11)数据加载 (11)Pre-Load (11)Load (11)Post-Load (12)数据清洗/变换 (12)数据转换 (13)ETL调度控制设计 (13)实现目标 (14)触发动作 (14)检查运行环境 (14)日志记录 (15)系统参数 (15)部署设计 (16)数据源到统一模型层之间 (16)统一模型层到数据集市之间 (16)ETL的备份与恢复 (17)ETL质量控制与错误处理 (17)ETL质量控制的主要手段 (17)拒绝数据库及拒绝处理策略 (18)已入库源数据发生错误的应对策略 (19)ETL主要流程设计 (19)数据抽取过程 (21)数据清洗过程 (21)数据转换过程 (22)数据装载过程 (22)ETL测试设计 (23)ETL功能测试 (23)模块功能 (23)调度功能 (23)数据准确性测试 (24)准确性测试的原则 (24)准确性测试的方法 (24)性能测试 (24)测试方法 (24)调优原则 (24)1前言1.1背景本文主要是为了明确系统中ETL的主要使用环境及使用方法而建,主要定义了在不同的环境中使用ETL的时候应该注意的配置及操作。

1.2目的本文档是为明确XXXX数据仓库的ETL架构设计而编制的,为项目的ETL系统开发后续工作提供指南。

数据仓库ETL工程与分层设计

数据仓库ETL工程与分层设计

数据仓库ETL工程与分层设计数据仓库(Data Warehouse)已经成为现代企业在数据管理和分析方面必不可少的一项技术和解决方案。

ETL(Extract, Transform, Load)工程在数据仓库中起着重要的作用,它负责从源系统中提取数据,进行转换和清洗,然后加载到数据仓库中。

同时,分层设计是数据仓库架构中的另一个核心概念。

分层设计将数据仓库划分为多个层次,每个层次都有特定的功能和目的,以支持不同层次的数据分析和决策需求。

本文将详细探讨数据仓库ETL工程与分层设计的重要性和具体实施方案。

一、数据仓库ETL工程的重要性数据仓库ETL工程的主要目标是将分散、异构、杂乱的数据整合到一个统一、一致、可信的数据仓库中。

它具有以下几个重要的作用:1. 数据提取:ETL工程负责从源系统中提取数据。

不同的源系统可能存储着不同格式、不同结构的数据,ETL工程需要通过适当的方式解析和提取数据。

2. 数据转换:源系统中的数据通常需要进行清洗、转换和整合,以满足数据仓库的需求。

ETL工程通过应用各种转换规则和业务逻辑,将原始数据转换为数据仓库能够理解和处理的形式。

3. 数据加载:ETL工程将经过转换的数据加载到数据仓库中。

数据加载可以遵循不同的策略和方式,如全量加载和增量加载,以保证数据的完整性和一致性。

二、数据仓库分层设计的重要性数据仓库分层设计是将数据仓库划分为多个层次,每个层次都有不同的功能和目的。

常见的层次包括原始数据层、清洗数据层、集成数据层、维度模型层等。

分层设计具有以下几个重要的优点:1. 提高可维护性:通过将数据仓库划分为多个层次,可以使每个层次的数据和逻辑相对独立,减少了数据变更对其他层次的影响。

这样可以降低系统的复杂性,提高系统的可维护性。

2. 支持灵活的分析需求:不同层次的数据可以满足不同层次的分析需求。

原始数据层保存了源系统的数据,可以满足对细节数据的分析需求;而维度模型层则提供了高度聚集的数据,可以满足跨维度的分析需求。

etl工具的使用方法(一)

etl工具的使用方法(一)

ETL工具的使用方法ETL(Extract, Transform, Load)工具是在数据仓库中广泛使用的一种工具,它能够从各种数据源中提取数据并将这些数据转换成可用的格式,最后加载到数据仓库中。

下面将详细介绍ETL工具的使用方法。

1. 选择合适的ETL工具在使用ETL工具之前,首先需要选择一款合适的工具。

常见的ETL工具包括Informatica PowerCenter、IBM InfoSphere DataStage、Microsoft SQL Server Integration Services(SSIS)等。

每款工具都有自己的特点和适用场景,需要根据具体的需求来选择合适的工具。

2. 设计数据抽取策略在使用ETL工具时,首先需要设计数据抽取策略。

这包括确定数据源、抽取的时间范围、抽取的数据量等。

根据具体的需求和业务场景,可以采用全量抽取或增量抽取的方式。

3. 配置数据连接使用ETL工具需要连接数据源和目标数据库。

在配置数据连接时,需要提供数据源的连接信息,包括数据库类型、主机地址、端口号、用户名、密码等。

同时,还需要配置目标数据库的连接信息。

4. 编写数据转换逻辑数据抽取后,需要进行数据转换。

这包括数据清洗、数据过滤、数据合并、数据格式转换等操作。

在ETL工具中,可以通过可视化的方式来设计数据转换逻辑,也可以使用SQL或脚本语言来编写复杂的转换逻辑。

5. 设计数据加载策略在数据转换完成后,需要设计数据加载策略。

这包括确定数据加载的方式,是全量加载还是增量加载,以及如何处理目标数据库中已有的数据等。

6. 调度任务配置ETL工具的调度任务,可以实现自动化的数据抽取、转换和加载过程。

这包括设置定时任务、监控任务执行情况、处理异常情况等。

7. 监控和优化在ETL工具的使用过程中,需要不断监控任务的执行情况,并对任务进行优化。

这包括优化数据抽取的性能、避免数据丢失或重复加载、优化数据转换和加载的性能等。

ETL设计实现

ETL设计实现

ETL设计实现ETL(Extract, Transform, Load)是一种数据仓库建设过程中常用的数据集成技术。

它的主要目标是从多个不同的数据源中抽取数据,经过一系列的转换操作之后,将数据加载到数据仓库中,以便进行数据分析和报告生成。

在ETL设计实现中,首先需要明确的是数据源和目标数据仓库,同时要了解数据源的结构和格式,以便进行后续的抽取和转换操作。

接下来,可以根据具体需求来设计ETL流程,并选择合适的工具和技术来实现。

ETL的设计实现主要包括以下几个步骤:1. 数据抽取(Extract):这是ETL过程的第一步,主要是从数据源中抽取需要的数据。

数据源可以是数据库、文件、Web服务等各种数据存储系统。

在抽取数据时,通常需要考虑数据源的连接、查询条件、字段选择等因素。

2. 数据转换(Transform):在数据抽取之后,需要对数据进行一系列的转换操作,以便满足目标数据仓库的需求。

数据转换可以包括数据清洗、数据整合、数据规范化、数据格式转换等。

在这一步中,可以使用一些ETL工具或编程语言来实现数据转换操作。

3. 数据加载(Load):数据加载是ETL过程的最后一步,即将转换后的数据加载到目标数据仓库中。

数据加载可以分为全量加载和增量加载两种方式。

全量加载是将所有转换后的数据一次性加载到目标数据仓库中,而增量加载是只将增量数据加载到目标数据仓库中,以提高数据加载效率。

在ETL设计实现过程中,还需要考虑以下几个方面:1.数据质量:在数据转换过程中,需要考虑数据的质量问题。

常见的数据质量问题包括缺失值、重复值、格式错误等。

可以通过数据清洗、数据验证等方式来提高数据质量。

2.并发和性能:在大规模数据加载情况下,需要考虑并发和性能问题。

可以采用多线程或分布式计算等方式来提高ETL的性能,并减少数据加载的时间。

3.错误处理与日志记录:在ETL过程中,可能会出现各种错误,如数据源连接错误、数据转换错误等。

需要对这些错误进行及时处理,并记录错误信息以便后续排查和修复。

集成数据支撑平台中ETL的架构设计和实现

集成数据支撑平台中ETL的架构设计和实现
建立了一个统一的数据处理平台,对散乱数据进行批量处理,用户还能通过统一的WEB
界面访问平台并进行相关作业。运用结果表明,系统简化了工作流程,减少了数据处理
时长,提高了数据支撑的工作效率和工作质量。
1.1
课题所属研究领域
W.H.InlIlon被人们称数据仓库之父,在他的《建立数据仓库》一书中关于数据仓库
大连理工大学专业学位硕士学位论文


在过去的三十年中,人类生成、收集和存储数据的能力不段提高并被淹没在数据的 海洋中,却很难从繁杂的数据中获得决策依据。企业越来越确迫切高效、准确的分析数
据来支撑决策市场方向,但是传统的数据库系统主要以面向事务处理为主的联机事务处
理应用,无法满足决策制定时的分析处理要求。数据仓库与传统的数据库不同,是面向
分析的,是整个企业的数据中心,能够为企业提供战略决策依据。数据支撑工作,为企
业在市场线的决策和发展,提供了必要的依据和实施的手段,重要性无需冗言。但在实 际工作中存在着一定问题,表现在支撑系统众多,并产生数据源分散情况,而这些数据 源的协同需要人工或者邮件来触发,这样就增加了数据支撑的难度和处理时间,致使数 据支撑工作效率低下,从而影响到了市场决策的即时性。 本文对数据仓库技术和数据仓库中ETL的进行了分析研究,在此基础上,给出了集 成数据支撑平台中ETL的架构设计原理,并且讨论了集成数据支撑平台中ETL的应用,
to support
decision-making market direction,but the traditional
database
system for transaction processing mainly based online transaction processing

大数据分析平台架构设计与实现

大数据分析平台架构设计与实现

大数据分析平台架构设计与实现在当今信息时代,数据已经成为了一种宝贵的资源。

如何有效地处理、分析和应用大数据成为了许多企业和组织迫切需要解决的问题。

大数据分析平台的架构设计就显得尤为重要。

本文将介绍大数据分析平台架构设计与实现的相关内容。

一、引言随着互联网的迅猛发展,各类数据不断涌现,大数据分析的需求也与日俱增。

为了更好地帮助企业和组织从数据中挖掘出有价值的信息,大数据分析平台的架构设计变得至关重要。

二、平台架构设计原则1. 可靠性:大数据分析平台的数据源可能来自于多个不同的地方,包括海量的结构化数据和非结构化数据。

设计时需要考虑数据的完整性、一致性和准确性,确保数据分析的可靠性。

2. 可扩展性:大数据数量庞大,不断增长。

平台的架构设计应该具备良好的扩展性,能够随着数据量的增加而扩展,以满足不断增长的数据需求。

3. 高性能:大数据分析通常需要进行复杂的计算和处理,因此平台的架构设计需要考虑到高性能的需求,保证数据分析的实时性和高效性。

4. 安全性:在大数据分析平台的设计过程中,安全性是一项非常重要的考虑因素。

数据的保密性、完整性和可用性都需要得到充分的保障。

三、平台架构设计模型根据上述原则,我们可以考虑采用以下的大数据分析平台架构设计模型:1. 数据采集与存储层:该层是大数据分析平台的基础,负责从各个数据源采集数据,并将数据进行存储。

可以考虑使用分布式文件系统(如HDFS)进行数据存储,以实现高可靠性和可扩展性。

2. 数据清洗与集成层:该层负责对采集到的数据进行清洗和集成,消除数据中的冗余和噪音,并将不同数据源的数据进行整合。

这一过程中可以考虑使用ETL (Extract, Transform, Load)工具来实现。

3. 数据处理与分析层:该层是大数据分析平台的核心,包括大数据存储、处理和分析的各种技术。

可以考虑使用分布式计算框架(如Hadoop、Spark)进行大数据的处理和分析,以实现高性能和可扩展性。

面向数据质量的ETL框架的设计与实现

面向数据质量的ETL框架的设计与实现
wh c o e e a p cso tr a eo l aar s u c s d s r t n o L me a a a d s r t n o L t s s n o to l go ih c v r h s e t f n ef c f t i mu t d t e o r e , e c p i f i i o ET t d t , e c p i f i o ET a k d c n r l n f a i
r ht tr a e nd t u l ma a e n e e td ac i cu eb sdo aaq ai n g se, fu d lsaed sg e , e y t ip c r igt t tr fh L po es s o r oh e mo ue r e in d
计 算 机 工 程 与 设 计 C m u r ni e n d e g o pt E g er g n D s n e n i a i
2 1, 9 00 1( 2 5 3 ) 07
・开 发 与 应 用 ・
面向数据质量的 E L框架的设计与实现 T
李 庆 阳 , 彭 宏 ( 南理 工 大 学 计 算机 科 学与 工程 学 院 ,广 东 广 州 5 0 0) 华 1 06
A src:T vro e eeto t dt nl xrc t nfr la (T ) aci c r a u l ot l a rvdE L b tat oo ecme h fcs fr io a et tr s m— d E L rht t e n tq at cn o, n mpo e T t d a i a —a o o e u id a i y r i
p o ie a n lss e ut wh c sdb erl e u t ne gn e eaed t la igsh me I iwa , e e t eq ai rvd s t a ay i s l ihi u e yt ued d ci n iet g n rt a ce n c e . nt s y f ci u l da r s s h o o a n h v y t

公共数据中心的ETL系统设计与实现

公共数据中心的ETL系统设计与实现

需求 , 都需要重新定义整个转换过程 。
转换 和模式元 素 , 再建立 对应 的 E L作 业 , E L作 业 中加入 T 在 T
定 义完 成的转换 等 内容 , 行相应 的作业 把数据从 源系统加 载 运
I <
L 数据仓库— 、


激 据加载

到 目标 系统 中 。数据转换需 要考虑 数据类 型的转换 , 符合 领 域知识 的操作 等。E L作业 用于捕 获 自动 提取数 据 的任务 , T 数 据 的转换 和加载数据 到 目标系统中 。考虑到系统的效率和稳定
过程中结合相应领域 的业务知识 。这两 台数 据转换服务器组 成

据抽取

l 抽取总线
双机集群 , 提高系统的可用性 。 最后把业务上有效 的数据存放 到中心数 据仓 库中。在 上述 流程 的基础之上 设计 实现公 共数 据 中心 的 E L系统 。图 2介 T
数 据
数 一一一 数皂 据 据

据 中心 E 置机之 间采用负 载均衡技 术以防止某些前置机 过载而某些前置
机空 闲的情况发生 , 从而充分发挥 了设 备的性能 , 保证 了数据抽
对数据进行转 换 , 包括数据 的合并 、 清洗 、 格
式转 换 、 分类 、 分拣和列检索 等操作 。数据转换 的功能还包 括统
是由一 台服务 器完 成的 , 当数据量 较大 的时候 可能会造 成该 服
务器压力较大 , 而影响 整个 E L过 程 的效率 。其次 , 整个 从 T 在 数据转换 的过程 中 , 转换规则 的定义方法不够 完善 , 缺少与领域 知识 的结合 , 由于规则定 义完成 后不便 于实时修改 , 因此 , 能 可 会 出现脏数据 。最 后 , 转换 规则 的封 装粒 度较 粗 , 个 E L作 整 T 业过程 的功能不易划分 , 出现错误之后 , 在 定位 出错源头较为 困 难, 并且 转换规则都只是针对性强 的个性化规则 , 每次有 了新 的

ETL设计开发规范文档

ETL设计开发规范文档

ETL设计说明书错误!未找到引用源。

目录1.概述 (5)2.ETL开发策略 (7)3.ETL系统架构设计 (8)3.1ETL整体框架 (8)3.2ETL系统逻辑架构 (8)3.2.1ETL系统的备份和恢复 (9)4.ETL应用框架设计 (10)4.1ETL应用架构逻辑图 (10)4.2ETL模式 (11)4.3数据抽取(Extract)和数据变换(Convert) (11)4.3.1数据抽取(Extract) (11)4.3.2数据变换(Convert) (11)4.3.3数据分割(Split) (12)4.4数据转换(Transform) (12)4.4.1字段合并与拆分 (12)4.4.2赋缺省值 (12)4.4.3数据排序(Sort) (12)4.4.4数据翻译(Lookup) (12)4.4.5数据合并(Merge) (12)4.4.6数据聚合(Aggregate) (13)4.4.7文件比较(File Compare) (13)4.4.8其他复杂计算 (13)4.5数据加载(Load) (13)4.5.1Pre-Load (13)4.5.2Load (13)4.5.3Post-Load (14)4.6ETL进程和进程调度 (14)4.7管理功能(Management Interface) (14)4.8初始数据、历史数据和日常数据ETL (15)5.开发规范 (16)5.1中间文件 (16)5.2临时文件 (16)5.3BAPI参数文件 (17)5.4ETL程序 (17)5.4.1DataStage Project命名 (17)5.4.2DataStage中Job命名 (17)5.4.3DataStage中Stage命名 (18)5.4.4DataStage中Link命名 (19)5.4.5DataStage中Routine命名 (19)5.4.6DataStage产生的Abap程序命名 (19)5.4.7DataStage中Table Definition命名 (20)5.4.8Store procedure程序命名 (21)5.5Reject文件 (21)5.6系统日志 (21)5.7ODBC (22)5.8版本控制 (22)5.8.1ABAP程序及BAPI程序 (22)5.8.2DataStage Job及Routine (22)5.8.3Store Procedure程序 (22)5.8.4文档 (22)5.9ETL Job开发方法规范 (23)5.9.1TableDefinition的使用原则 (23)5.9.2Extract Job的开发原则 (23)5.9.3CS Job的开发原则 (24)5.9.4Load Job的开发原则 (24)5.9.5Gc和Ge Job的开发原则 (25)5.9.6关于存储过程及BAPI (26)6.系统环境 (27)6.1开发、测试和运行环境规划 (27)6.2文件目录 (27)6.3DataStage Manager目录层级规划 (28)7.ETL应用设计 (30)7.1应用模块架构 (30)7.1.1DataStage Server (30)7.1.2DataBase Server (31)7.2ETL Job设计 (31)7.2.1Schedule Job (31)7.2.2Dependence Job (36)7.2.3Maintance Job (36)7.2.4Group Job (38)7.2.5Component Job (40)7.3ETL环境参数 (42)7.3.1JobParams.cfg文件格式 (42)7.3.2参数说明 (42)7.4公共Routine设计 (43)7.4.1Transform Routine (43)7.4.2Before/After SubRoutine (47)7.5初始ETL程序 (48)8.ETL开发流程及管理 (49)8.1开发环境准备 (49)8.2开发步骤 (49)8.2.1日常数据加载: (49)8.2.2初始数据加载: (49)8.2.3历史数据加载: (49)8.3角色及责任 (50)9.ETL质量控制及错误处理 (52)9.1ETL质量控制主要实现手段 (52)9.2拒绝文件及拒绝处理策略 (52)9.3已入库源数据发生错误的应对策略 (52)附录I.ETL Mapping文件文档模板 (54)附录II.ETL Data Flow文档模板 (55)附录III.ETL Job Dependency文档模板 (56)1. 概述ETL系统的核心功能就是按照本设计说明书的架构,将数据由数据源系统加载到数据仓库中。

(完整word版)经济运行综合数据平台实施方案

(完整word版)经济运行综合数据平台实施方案

附件二:贵阳高新区经济运行综合数据平台项目实施方案贵阳国家高新技术产业开发区管委会龙信思源(北京)科技有限公司编制日期:二○一四年十二月目录第一章项目概述 (1)第二章项目目标 (2)第三章研究内容 (3)3.1 数据资源与数据管理体系构建 (3)3.1.1 规划构建高新区数据资源中心 (3)3.1.2 规划建立数据管理体系 (4)3.1.3 数据仓库设计及实现 (4)3.2 三大业务分析体系构建 (5)3.2.1 高新区动态综合评价分析 (5)3.2.2 经济发展运行分析 (7)3.2.3 精准招商引资分析 (10)第四章技术实现 (11)4.1 平台架构设计 (11)4.2 三个子平台的开发实现 (11)4.3 特殊功能模块研发 (11)4.4 系统安全设计 (12)4.4.1 系统安全设计原则 (12)4.4.2 系统软件平台的安全管理 (13)第五章工作步骤 (14)5.1 业务调研 (14)5.2 数据采集 (14)5.3 数据整合 (14)5.4 数据挖掘 (15)5.4.1 业务理解 (15)5.4.2 数据理解 (16)5.4.3 数据准备 (16)I-----------------------------------------------------------------------------------------------------------------------------------------------------------------5.4.4 建立模型 (16)5.4.5 模型评估 (16)5.4.6 模型部署 (16)5.5 成果呈现 (17)5.5.1 报告推送 (17)5.5.2 企业名单推送 (17)第六章专家培训和服务 (18)6.1 培训对象 (18)6.2 培训计划 (18)第七章系统维护 (21)第八章项目实施安排 (22)8.1 项目实施总体计划 (22)8.2 项目实施机构组成 (23)8.3 项目实施机构主要组成人员 (24)8.4 项目建设工作机制 (25)8.4.1 决策制度 (25)8.4.2 交流制度 (25)8.4.3 问题与争议管理方法 (26)8.4.4 失误管理制度 (27)8.4.5 工作管理制度 (27)8.4.6 项目变化管理 (27)8.4.7 计划管理 (27)II-----------------------------------------------------------------------------------------------------------------------------------------------------------------第一章项目概述在大数据时代,数据渗透各个行业,渐渐成为每个机构的战略重点和核心资产。

面向对象的数据仓库设计与实现研究

面向对象的数据仓库设计与实现研究

面向对象的数据仓库设计与实现研究随着信息化的快速发展,数据管理与分析已成为企业发展的重要支撑。

数据仓库(DW)是一种用于支持决策制定的数据集合,也是企业级数据处理、分析和挖掘的核心技术。

随着数据仓库的发展,传统的关系型数据库设计变得过于繁琐,逐渐出现了面向对象的数据仓库设计方法。

本文将介绍面向对象的数据仓库设计和实现方法,探讨其在数据管理与分析方面的前景。

一、面向对象的数据仓库设计概述传统关系型数据库设计在维护性和扩展性方面存在很多问题。

面向对象的数据仓库设计可以通过使用对象-关系映射工具(ORM)加速开发周期,提高开发质量,并且能够帮助保持数据模式的灵活性和可扩展性。

面向对象的数据仓库设计就是把数据仓库设计看做一组互相耦合的对象,利用对象的面向系统化开发,组织实现对象的继承、多态等概念,采用面向对象的设计方法对数据仓库进行建模和设计。

面向对象的数据仓库设计是基于面向对象的分析和设计(OOAD)的,这是一种通过封装对象、继承、多态等机制,将复杂系统分解成易于管理的子系统和对象的方法。

需要使用封装、继承和多态等机制来设计和构建数据仓库中的对象模型,使其能够轻松处理任务、管理复杂数据和支持查询和报告。

二、面向对象的数据仓库实现方法1.面向对象ETL流程的设计面向对象ETL流程的设计是运用ETL工具,将业务的数据从源端抽取、转换、加载到目标端的过程中,采用面向对象开发方法。

具体实现中,可以使用ETL工具中的面向对象语言完成对ETL流程中各个节点的构建,建立出ETL流程中各个对象的继承关系、聚合关系和多态性等属性,形成ETL流程的面向对象模型。

在ETL流程的设计中,抽取、转换、加载三个阶段需分别设计相应的对象及其属性和方法。

例如,抽取阶段需设计源端数据的抽取对象、数据过滤对象、数据清洗对象等;转换阶段需包含数据加工对象、规则库对象、数据导入对象等;加载阶段需要设计数据存储对象、索引对象、数据访问对象等。

数据库数据仓库的ETL流程设计与实现方法

数据库数据仓库的ETL流程设计与实现方法

数据库数据仓库的ETL流程设计与实现方法数据仓库(Data Warehouse)是指为了支持决策和分析而专门构建的、面向主题的、集成的、稳定的、非易失的数据存储库。

而ETL (Extract-Transform-Load)流程则是将来自不同数据源的数据提取、转换和加载到数据仓库中的一种方法。

本文将介绍数据库数据仓库的ETL流程设计与实现方法。

一、概述在数据库数据仓库的建设过程中,ETL流程起到了至关重要的作用。

ETL流程的设计和实现方法将直接影响数据仓库的建设效果和数据质量。

下面将从数据提取、数据转换和数据加载这三个方面来介绍ETL流程的设计与实现方法。

二、数据提取数据提取是将数据从源系统中抽取到数据仓库中的过程。

在数据提取过程中,需要考虑以下几个方面:1. 选择合适的数据提取方式:常见的数据提取方式包括全量提取和增量提取。

全量提取是指从源系统中提取所有数据,适用于首次建设数据仓库或数据仓库与源系统之间的数据结构和业务规则变化较大的情况。

增量提取是指仅提取源系统中发生变化的数据,适用于数据仓库的定期更新需求。

2. 设计数据提取逻辑:根据数据仓库的需求,确定提取哪些数据以及如何提取。

可以根据业务需求选择提取特定时间范围内的数据、特定条件下的数据等。

3. 选择数据提取工具:根据实际情况选择合适的数据提取工具,如Sqoop、Flume等。

三、数据转换数据转换是将提取的数据转换为数据仓库需要的格式和结构的过程。

在数据转换过程中,需要考虑以下几个方面:1. 数据清洗:对提取的数据进行清洗,去除重复数据、处理缺失值、处理异常值等。

2. 数据集成:将来自不同源系统的数据进行集成,确保数据格式一致、字段对应正确。

3. 数据转换:根据数据仓库的需求,对数据进行转换,如添加计算字段、合并数据等。

4. 数据归约:将转换后的数据进行归约,减少数据冗余,提高存储和查询效率。

四、数据加载数据加载是将转换后的数据加载到数据仓库中的过程。

数据交换共享平台设计与实现

数据交换共享平台设计与实现

通信网络技术DOI:10.19399/j.cnki.tpt.2023.04.050数据交换共享平台设计与实现池永波,付芳洁(中国电信集团数据中心,北京100032)摘要:随着电信集团业务飞速发展,异构数据库类型越来越多,传统点对点数据同步工具已经不能满足数据交换的需求,多环境之间数据交换已经成为电信内部不可缺少的基础需求。

传统点对点数据同步工具需要在每个源端和目标端间单独部署、单独运维,已经不能适应一对多、多对多的数据交换场景。

研究设计一种新型的数据交换共享平台,能够集中完成多源与多目标数据库间的数据同步,将大幅提高电信集团数据交换服务质量,具有一定的应用价值。

关键词:异构数据库;多环境;数据同步;数据交换Design and Implementation of Data Exchange Sharing PlatformCHI Yongbo, FU Fangjie(China Telecom Group Data Center, Beijing 100032, China)Abstract: With the rapid development of telecom group business, there are more and more types of heterogeneous databases. The traditional point-to-point data synchronization tools can no longer meet the needs of data exchange.Data exchange between multiple environments has become an indispensable basic requirement within telecom.Traditional point-to-point data synchronization tools need to be deployed and operated separately between each source end and target end, and can no longer adapt to one-to-many and many-to-many data exchange scenarios. Research and design a new data exchange and sharing platform, which can centralize the data synchronization between multi-source and multi-target databases, will greatly improve the quality of data exchange services of telecom groups, and has certain application value.Keywords: heterogeneous database; multi-environment; data synchronization; data exchange0 引 言电信业务中具有大量的数据,随着电信业务的升级和国产数据库的崛起,电信内部新老数据库和新老环境间等数据交换场景越来越多,数据作为电信业务的核心资产,如何保障数据资产的高效稳定传输越来越重要。

本体驱动ETL过程的设计研究

本体驱动ETL过程的设计研究

局 本体 之 间 的 关 系建 立 本 体 映 射 ; 后 运 用 本 体 映 射 和 本 体推 理 驱 动 E L过 程 。该 方 法 能 有 效 解 决 最 T 数 据 源 异 构 问题 , 实现 E L过 程 的 部 分 自动 化 。 并 T
关 键 词 :E L; WL; 体 T O 本
随 着 数 据 挖 掘 技 术 的 不 断 发 展 , 据 仓 库 已 经 能 够 数 有 效 地 将 数 据 集 成 到 结 构 一 致 的 数 据 存 储 环 境 中 , 而 从 使 分 散 、 一 致 的操 作 数 据 转 换 为 方 便 查 询 和 分 析 所 需 不
的 信 息 。 但 由 于 数 据 源 具 有 异 构 性 , 业 需 要 一 个 能 够 企 从 所有平 台和 环境 中抽取 数据 , 将 数据 转换后 加 入 目 再
其 次 , 必 要 的 转 换 和 内 部 模 式 映 射 依 旧依 赖 手 工 操 作 ,
这 不 仅 费 时 而 且 还 容 易 出错 。
为 此 , 文 提 出 了 一 种 本 体 驱 动 E L过 程 的 设 计 方 本 T
摘 要 :针 对 建 立 数 据 仓 库 时数 据 源 存 在 结 构 多样 性 和 语 义 异 质 性 的 问 题 ,提 出 了本 体 驱 动 E L T
过 程 的 设 计 方 法 。 通 过 元 数 据 抽 象 以及 语 义 建 立 本 体 , 运 用 O 并 WL 实 现 本 体 ; 根 据 局 部 本 体 与 全 再
Te h i e an Me ho c nqu d t d
本体 驱 动 E L过程 的设 计 研 究 T
阮 文 娟 , 勇 军 , 五 生 刘 张
(. 汉 理 工 大 学 管 理 学 院 , 北 武 汉 4 0 7 1武 湖 3 0 0; 2 厦 门 大 学 信 息 科 学 与 技 术 学 院 , 建 厦 门 3 10 ) . 福 Nhomakorabea6 0 5
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

数据集成(ETL)工具的设计与构建
陈小菲
经过几十年来快速不断的IT创新造就了大批综合性的、分布式的且不断变化的应用系统,这些系统跨越了从大型机到Web的多种平台,因此不同系统的互连成了亟待解决的问题。

如何发挥这些系统中各种数据的作用,将不同应用系统的数据进行提炼、整合,并充分利用已有的技术及应用资源,建成一个完整的、可持续发展的集成系统,数据集成工具成为一种重要的技术,面对多种技术环境开发的基础业务系统,把业务数据迁移到综合业务系统和决策分析系统,并进行有效整合。

数据集成工具主要包括以下几个过程:抽取、清洗、转换和加载等,本文中数据集成工具简称为ETL工具。

在实际项目中,本ETL工具已开始实现研发和试用,本文将对ETL工具的设计思想与功能实现等内容进行讨论。

一、ETL工具的功能目标
本ETL工具以各种技术环境开发的基础业务系统为基础,把业务数据迁移到综合业务系统和决策分析系统,并进行有效整合,建成一个完整的集成数据库系统,因此在企业应用集成(EAI)系统中,ETL工具扮演着相当关键的角色,以下是EAI数据集成模型图,箭头表示的数据迁移过程需要通过ETL工具实现。

图 1 数据集成模型
1、主要功能
ETL工具主要功能可分为两部分:数据集成配置和数据集成服务,具体如下:
(1)数据集成配置:提供一个GUI界面,使得用户能够通过界面的互动,比较容易地实现数据集成的流程、规则的定义;同时提供相应的解析功能,实现将配置规则进行解析,
并对数据进行集成。

最后能够定义并执行相应的抽取计划。

(2)数据集成服务:提供相应的解析功能,实现对集成规则的解析,服务读取这些规则,生成集成任务,在后台进行运行数据集成。

并且把这些集成信息发布出来,可以让其它集成工具进行信息共享。

2、特点
(1)易用性:数据集成工具进行抽取任务配置时,比较繁锁,而本ETL工具在进行抽取任务配置时可以做到简单易学,易用;同时配置操作也流程化,易于理解。

(2)稳定性:本ETL工具进行任务执行,保证抽取任务的正常进行。

运行稳定,不轻易发生系统错误,不轻易发生程序死机。

(3)可靠性:本ETL工具进行任务抽取时,能可靠地完成抽取,源数据到目标数据的抽取误差低于0.01%,对于因特殊情况无法进行抽取的,或中途停止无法抽取的系统将记录详细信息。

(4)执行效率:本ETL工具对大数据量进行数据抽取,可以保证对大数据量的抽取在正常情况下能较好地执行,在一定时间内完成对大数据量的抽取。

二、ETL工具的总体架构设计
图 2 ETL工具总体架构
如图2所示,ETL工具主要包括配置工具和抽取服务两个部分内容。

1、配置工具
配置工具的开发工具选择E++。

其主要实现以下功能:
●数据集成工具的抽取任务规则配置
将提供一个GUI界面的配置工具,实现对抽取任务的配置。

用户可以通过界面的互动,比较容易实现数据集成工具抽取规则的配置。

●抽取任务规则解析
对配置后的抽取规则进行解析,服务读取这些规则,生成抽取任务。

根据以下流程进行主要的设计工作:
●数据集成(抽取):提供GUI界面由用户录入源数据源、目的数据源、抽取规则。

●数据源定义:实现数据源信息的录入,并对数据源进行连接测试。

●抽取方案定义:配置数据抽取的信息及规则。

●抽取任务定义:在数据抽取方案定义完成后,定义数据抽取方案的执行规则。

抽取执行定义为“执行任务”,每个“执行任务”包含有一个或者多个抽取方案及子任务。

每个“执行任务”具有相同的执行规则,方案执行也具有一定的顺序。

●资源共享:解决异地抽取的问题,对某些表的结构进行共享。

2、抽取服务
抽取服务的开发工具选择JAVA。

主要实现以下功能:
●抽取服务
抽取服务读取抽取配置规则将包含:库到库、表到表、多表到单表、文件到表、表到文件的各种规则抽取。

根据抽取规则执行抽取任务,实现数据抽取。

抽取信息进行数据共享
集成工具将对配置好的抽取信息进行发布,让其它的集成工具进行共享。

并要对集成工具实现抽取的数据进行互通。

根据以下流程进行主要的设计工作:
●系统参数定义
系统参数在“系统配置参数表”中定义,包括参数名、参数值及说明等。

数据集成工具系统参数定义,如表1:
表1 参数定义表
●系统配置接口引擎
数据集成工具的配置工具为C++开发的,同时又要做到数据集成工具可以支持多种平台。

所以数据集成工具服务端和配置工具将可能分布在两台机子上,数据集成工具的配置文件又必须和服务端一起部署,配置工具对抽取配置文件的读、写就调用系统的配置接口引擎进行操作。

●系统初始化
在数据集成工具服务器启动时,必须事先进行初始化。

提高程序的整体运行效率,系统初始化包含3个部分,分别对通用信息初始化、Xml配置文件初始化、抽取调度器初始化。

●抽取器配置规则信息解析
配置工具完成配置后,系统启动将对配置完成的信息读入,解析出抽取规则。

解析抽取规则是在抽取方案定义完成后,对抽取方案的规则进行解析。

抽取器解析配置信息必须在抽取配置方案定义完成后进行解析。

●抽取规则定义
在实际抽取中必须满足多种规则进行定义,然后抽取器读取解析规则。

启动抽取任务实现抽取。

抽取方案根据已定义好的模型定义,抽取定义规则主要包括:多表到单表抽取;组合抽取;表到文件;文件到表;与数据交换平台紧耦合。

抽取数据规则定义后,可以设定是否建立目标表,目标表也可以由用户自行建立。

●抽取任务查看控制
抽取任务启动后,用户可以登录到抽取器服务器进行查看抽取任务的运行情况。

●数据共享信息接口
数据共享信息接口,可以共享在本抽取器中所有配置出来的数据对象。

其它抽取器在取得统一的通信录后,根据通信录任意选择一个网点抽取器,下载这个网点抽取器的数据对象列表。

得到数据对象列表后,选择合意的数据对象对这个抽取服务器发出请求,抽取服务器
在接收到请求数据对象后,通过数据共享信息接口发布出这个数据对象的详细信息和数据,但考虑到数据的庞大,对于每次请求会限制源数据量,如每次只请求100~1000条,得到数据处理后继续请求下一批的数据。

●抽取器统一通讯录分发
抽取器进行数据共享将统一通讯地址,通讯地址记录在这个中心抽取服务器下的所有节点抽取服务器的地址。

对于这些地址由中心抽取服务器统一收集,发布给属于这个中心服务器的所有节点中心服务器。

●抽取器抽取核心服务
抽取器核心服务将分为抽取和填充模块,抽取器抽取模块根据抽取规则定义,解析抽取源对象和抽取目标对象,组织抽取源匹配表达式。

完成抽取源数据流。

填充模块将完成对根据抽取规则抽取到的源数据,按照设定填充到目标表中。

三、目前国内外类似工具的技术发展比较
目前主要是国外五大公司已设计出类似的数据库工具,其功能及优缺点等比较表2:表2 类似的数据库比较表
四、结语
本数据集成工具各项子模块已完成,处于试运行阶段,从运行效果看,本ETL工具各项功能均能满足设计要求,具有易用、稳定、可靠、执行效率高等特点,达到预期目标,且比国外类似产品的功能性价比更高。

相关文档
最新文档