hadoop基本命令_建表-删除-导数据

合集下载

hdfs 常用命令

hdfs 常用命令

hdfs 常用命令

HDFS(Hadoop分布式文件系统)是ApacheHadoop项目的一部分,是一种分布式文件系统,它为应用程序提供高可用性,稳定性和可扩展性。HDFS中的文件可以以分布式方式存储在不同的节点服务器上,从而允许存储容量更大的文件,因此可以更有效地处理海量数据。

HDFS也支持由命令行控制的文件和数据操作。本文将介绍HDFS 的常用命令,以便在HDFS系统中更有效地管理文件和数据。

一、管理文件

1. hadoop fsls

hadoop fsls命令用于查看HDFS文件,可以获得文件的元数据信息,包括文件名,权限,访问时间,文件大小等。

例如:hadoop fsls /user/hadoop/word.txt,可以查看用户hadoop下word.txt文件的基本信息。

2. hadoop fsmkdir

hadoop fsmkdir命令用于创建HDFS目录,一次只能创建一级子目录,例如:hadoop fsmkdir /user/hadoop/test,可以创建用户hadoop下test目录。

3. hadoop fsput

hadoop fsput命令用于将本地文件上传到HDFS上,例如:hadoop fsput /home/user/Desktop/word.txt /user/hadoop/word.txt,可以将本地的word.txt文件上传到用户hadoop的根目录下。

4. hadoop fsget

hadoop fsget命令用于从HDFS上下载文件到本地,例如:hadoop fsget /user/hadoop/test/test.txt /home/user/Desktop/test.txt,可以将用户hadoop下test目录下的test.txt文件下载到本地桌面。

hadoop建表语句

hadoop建表语句

hadoop建表语句

Hadoop是目前最流行的分布式数据处理平台之一,可以处理非常大规模的数据集。在Hadoop中建表是非常常见的操作,下面是Hadoop建表语句的相关内容:

1. 创建表

创建表的语法如下:

CREATE TABLE table_name (

column1 datatype1,

column2 datatype2,

column3 datatype3,

...

);

其中,table_name是要创建的表的名称,column是表的列名,datatype是列的数据类型。

2. 删除表

删除表的语法如下:

DROP TABLE table_name;

其中,table_name是要删除的表的名称。

3. 添加列

添加列的语法如下:

ALTER TABLE table_name ADD COLUMN column_name datatype;

其中,table_name是要添加列的表的名称,column_name是要添

加的列名,datatype是列的数据类型。

4. 删除列

删除列的语法如下:

ALTER TABLE table_name DROP COLUMN column_name;

其中,table_name是要删除列的表的名称,column_name是要删除的列名。

5. 修改列

修改列的语法如下:

ALTER TABLE table_name CHANGE COLUMN old_column_name new_column_name datatype;

其中,table_name是要修改列的表的名称,old_column_name是要修改的旧列名,new_column_name是要修改的新列名,datatype是列的数据类型。

hdfs常用命令操作笔记

hdfs常用命令操作笔记

hdfs常用命令操作笔记

HDFS(Hadoop Distributed File System)是Hadoop生态系统中的核心组件,用于存储大规模数据。以下是HDFS的一些常用命令操作:

1. 查看目录信息:

```bash

hdfs dfs -ls <path>

```

2. 创建目录:

```bash

hdfs dfs -mkdir <path>

```

3. 从本地剪切到HDFS目录:

```bash

```

4. 追加文件到已存在的文件末尾:

```bash

hdfs dfs -appendToFile <local_path> <hdfs_path>

```

5. 显示文件内容:

```bash

hdfs dfs -cat <path>

```

6. 修改文件所属权限(`-chgrp`、`-chmod`、`-chown`):

这些命令类似于Linux文件系统中的用法,用于修改文件所属的组、权限和所有者。

7. 从本地路径复制文件到HDFS:

```bash

```

8. 从HDFS复制文件到本地:

```bash

hdfs dfs -copyToLocal <hdfs_path> <local_path> ```

9. 在HDFS中复制文件到另一个路径:

```bash

hdfs dfs -cp <src_path> <dest_path>

```

10. 在HDFS中移动文件:

```bash

hdfs dfs -mv <src_path> <dest_path>

hadoop学习笔记(十):hdfs在命令行的基本操作命令(包括文件的上传和下载和hdfs。。。

hadoop学习笔记(十):hdfs在命令行的基本操作命令(包括文件的上传和下载和hdfs。。。

hadoop学习笔记(⼗):hdfs在命令⾏的基本操作命令(包括⽂件的上传和下载和

hdfs。。。

hdfs命令⾏

(1)查看帮助

hdfs dfs -help

(2)查看当前⽬录信息

hdfs dfs -ls /

(3)上传⽂件

hdfs dfs -put /本地路径 /hdfs路径

(4)剪切⽂件

hdfs dfs -moveFromLocal a.txt /aa.txt

(5)下载⽂件到本地

hdfs dfs -get /hdfs路径 /本地路径

(6)合并下载

hdfs dfs -getmerge /hdfs路径⽂件夹 /合并后的⽂件

(7)创建⽂件夹

hdfs dfs -mkdir /hello

(8)创建多级⽂件夹

hdfs dfs -mkdir -p /hello/world

(9)移动hdfs⽂件

hdfs dfs -mv /hdfs路径 /hdfs路径

(10)复制hdfs⽂件

hdfs dfs -cp /hdfs路径 /hdfs路径

(11)删除hdfs⽂件

hdfs dfs -rm /aa.txt

(12)删除hdfs⽂件夹

hdfs dfs -rm -r /hello

(13)查看hdfs中的⽂件

hdfs dfs -cat /⽂件

hdfs dfs -tail -f /⽂件

(14)查看⽂件夹中有多少个⽂件

hdfs dfs -count /⽂件夹

(15)查看hdfs的总空间

hdfs dfs -df /

hdfs dfs -df -h /

(16)修改副本数

hdfs dfs -setrep 1 /a.txt

hbase基础命令

hbase基础命令

hbase基础命令

HBase是一个高可靠性、高性能的分布式列式数据库,它在Hadoop上构建,提供了在大规模数据集上进行随机实时读写的能力。在进行HBase开发和管理时,我们需要了解一些基础命令来操作HBase表格的创建、修改、查询等操作。以下是一些常用的HBase基础命令和相关参考内容。

1. 创建和删除表

- create 表名, 列族列表:创建表,列族用逗号分隔。

- disable '表名':禁用表。

- drop '表名':删除表。

2. 修改表结构

- alter '表名', {NAME => '列族名', VERSIONS => 版本数}:修改表的列族和版本数。

- delete '表名', '行键', '列名', 时间戳:删除指定行的指定列。- deleteall '表名', '行键':删除指定行的所有列。

3. 数据插入、查询和删除

- put '表名', '行键', '列族:列名', '值':插入或更新数据。

- get '表名', '行键':获取指定行的数据。

- scan '表名':遍历表中的所有数据。

- delete '表名', '行键', '列族:列名', 时间戳:删除指定行的指定列。

4. 列族和列管理

- describe '表名':查看表的描述信息。

- alter '表名', {NAME => '列族名', METHOD => 'delete'}:删除

指定列族。

- alter '表名', '列族名', '新列族名':修改列族的名称。

- alter '表名', {NAME => '列族名', VERSIONS => 版本数}:修

hdp 常用命令

hdp 常用命令

hdp 常用命令

(原创版)

目录

1.概述

2.hdp 常用命令分类

3.具体命令介绍

3.1 环境变量设置

3.2 创建与删除目录

3.3 文件操作

3.4 系统管理

3.5 网络管理

4.命令使用示例

5.总结

正文

1.概述

Hadoop 是一种大数据处理框架,它提供了一种分布式计算的方式来处理海量数据。在 Hadoop 中,用户可以通过执行一些命令来管理和操作Hadoop 分布式文件系统 (HDFS) 上的数据。本文将为您介绍一些常用的Hadoop 命令,帮助您更好地了解 Hadoop 的命令行操作。

2.hdp 常用命令分类

Hadoop 的命令主要分为以下几类:

- 环境变量设置:用于设置 Hadoop 的配置参数。

- 创建与删除目录:用于在 HDFS 上创建和删除目录。

- 文件操作:用于在 HDFS 上执行文件的读写操作。

- 系统管理:用于管理 Hadoop 集群的节点和任务。

- 网络管理:用于管理 Hadoop 集群的网络设置。

3.具体命令介绍

3.1 环境变量设置

Hadoop 提供了一些命令来设置环境变量,例如:

- `hadoop config set`:设置 Hadoop 配置参数。

- `hadoop config get`:查看 Hadoop 配置参数。

- `hadoop env`:查看当前 Hadoop 环境变量设置。

3.2 创建与删除目录

在 HDFS 上创建和删除目录可以使用以下命令:

- `hadoop fs -mkdir`:在 HDFS 上创建目录。

- `hadoop fs -rm`:在 HDFS 上删除目录。

hdfs基本操作

hdfs基本操作

hdfs基本操作

HDFS(Hadoop Distributed File System)是Apache Hadoop生态系统中的分布式文件系统,用于存储和处理大规模数据集。下面是HDFS的一些基本操作:

1. 文件和目录操作:

- 创建目录:`hadoop fs -mkdir <目录路径>`

- 查看目录内容:`hadoop fs -ls <目录路径>`

- 创建空文件:`hadoop fs -touchz <文件路径>` - 复制文件或目录到HDFS:`hadoop fs -put <本地路径> <HDFS路径>`

- 复制文件或目录到本地:`hadoop fs -get <HDFS 路径> <本地路径>`

- 删除文件或目录:`hadoop fs -rm [-r] <文件或目录路径>`

2. 文件操作:

- 查看文件内容:`hadoop fs -cat <文件路径>` - 移动文件:`hadoop fs -mv <源文件路径> <目标文件路径>`

- 修改文件副本数:`hadoop fs -setrep [-R] <副本数> <文件路径>`

- 修改文件权限:`hadoop fs -chmod [-R] <权限> <文件路径>`

- 修改文件所有者:`hadoop fs -chown [-R] <所有者> <文件路径>`

hdfs常用的shell命令

hdfs常用的shell命令

hdfs常用的shell命令

HDFS是Hadoop的分布式文件系统,它是在大规模集群上存储大数据的最佳选择。像任何其他文件系统一样,HDFS也提供用于管理文件和目录的shell命令。在这篇文章中,我们将确切地看到一些常用的HDFS shell命令以及它们应如何使用。

1. 创建目录

在HDFS中创建目录是一个非常简单的过程。为此,您需要使用`mkdir`命令,其语法如下:

```

hdfs dfs -mkdir <directory path>

```

在上述命令中,“-mkdir”指定创建目录的命令,“directory path”是带有一个HDFS路径的目录的名称。例如,如果要在HDFS中创建一个名为“newdir”的新目录,则运行以下命令:

```

hdfs dfs -mkdir /newdir

```

2. 上传文件

上传本地文件到HDFS非常容易。为此,您需要使用`put`命令,其语法如下:

```

hdfs dfs -put <local file> <directory path>

```

在上述命令中,“-put”指定上传文件的命令,“local file”是本地文件的名称和位置,“directory path”是目标HDFS目录的名称和路径。例如,要将本地文件“localfile.txt”上传到HDFS目录“/remotedir”,请运行以下命令:

```

hdfs dfs -put localfile.txt /remotedir

```

3. 下载文件

从HDFS下载文件也很容易。为此,您需要使用`get`命令,其语法如下:

hadoop的基本操作命令

hadoop的基本操作命令

hadoop的基本操作命令

Hadoop是目前最流行的分布式计算框架之一,其强大的数据处理能力

和可扩展性使其成为企业级应用的首选。在使用Hadoop时,熟悉一些

基本操作命令是必不可少的。以下是Hadoop的基本操作命令:

1. 文件系统命令

Hadoop的文件系统命令与Linux系统类似,可以用于管理Hadoop的文件系统。以下是一些常用的文件系统命令:

- hdfs dfs -ls:列出文件系统中的文件和目录。

- hdfs dfs -mkdir:创建一个新目录。

- hdfs dfs -put:将本地文件上传到Hadoop文件系统中。

- hdfs dfs -get:将Hadoop文件系统中的文件下载到本地。

- hdfs dfs -rm:删除文件系统中的文件或目录。

- hdfs dfs -du:显示文件或目录的大小。

- hdfs dfs -chmod:更改文件或目录的权限。

2. MapReduce命令

MapReduce是Hadoop的核心计算框架,用于处理大规模数据集。以下

是一些常用的MapReduce命令:

- hadoop jar:运行MapReduce作业。

- hadoop job -list:列出所有正在运行的作业。

- hadoop job -kill:终止正在运行的作业。

- hadoop fs -copyFromLocal:将本地文件复制到Hadoop文件系统中。- hadoop fs -copyToLocal:将Hadoop文件系统中的文件复制到本地。- hadoop fs -rmr:删除指定目录及其所有子目录和文件。

hdfs基础命令

hdfs基础命令

hdfs基础命令

HDFS基础命令

Hadoop分布式文件系统(HDFS)是Apache Hadoop的核心组件之一,用于存储和管理大数据集。HDFS提供了一组命令行工具,用于与文件系统进行交互和管理。本文将介绍HDFS的基础命令,帮助用户熟悉和使用HDFS。

1. hdfs dfs -ls命令:该命令用于列出HDFS中指定目录下的文件和子目录。例如,要列出根目录下的所有文件和目录,可以使用以下命令:

```

hdfs dfs -ls /

```

该命令将输出根目录下的所有文件和目录的详细信息,如文件大小、权限、所有者和修改时间等。

2. hdfs dfs -mkdir命令:该命令用于在HDFS中创建新目录。例如,要在根目录下创建一个名为"test"的新目录,可以使用以下命令:```

hdfs dfs -mkdir /test

```

该命令将创建一个名为"test"的新目录。

3. hdfs dfs -put命令:该命令用于将本地文件复制到HDFS中。例如,要将本地文件"localfile.txt"复制到HDFS的"/test"目录中,可以使用以下命令:

```

hdfs dfs -put localfile.txt /test

```

该命令将本地文件"localfile.txt"复制到HDFS的"/test"目录中。

4. hdfs dfs -get命令:该命令用于将HDFS中的文件复制到本地文件系统中。例如,要将HDFS中的文件"/test/hdfsfile.txt"复制到本地目录"/local"中,可以使用以下命令:

hadoop语法

hadoop语法

hadoop语法

Hadoop语法

Hadoop是一个开源的分布式计算框架,它能够处理大规模数据并实现高速数据处理和存储。在Hadoop中,我们可以使用特定的语法来操作和管理数据。本文将介绍一些常用的Hadoop语法,帮助读者更好地理解和使用Hadoop。

一、Hadoop文件系统操作

1. 创建目录

在Hadoop中,我们可以使用以下命令来创建目录:

```

hadoop fs -mkdir 目录路径

```

2. 上传文件

将本地文件上传到Hadoop文件系统中可以使用以下命令:

```

hadoop fs -put 本地文件路径 HDFS路径

```

3. 下载文件

从Hadoop文件系统中下载文件到本地可以使用以下命令:

```

hadoop fs -get HDFS文件路径本地路径

```

4. 查看文件内容

查看Hadoop文件系统中文件的内容可以使用以下命令:

```

hadoop fs -cat 文件路径

```

二、Hadoop MapReduce操作

1. 编写MapReduce程序

在Hadoop中,我们可以使用Java编写MapReduce程序来处理数据。首先,我们需要定义Mapper和Reducer类,然后实现相应的map和reduce方法。编写完成后,可以使用以下命令将程序打包成jar文件:

```

hadoop jar jar文件路径类名输入路径输出路径

```

2. 运行MapReduce程序

将编写好的jar文件提交到Hadoop集群中运行可以使用以下命令:```

hadoop jar jar文件路径类名输入路径输出路径

cdh集群常用命令

cdh集群常用命令

cdh集群常用命令

以下是CDH集群中常用的命令:

1. hdfs dfs -ls: 列出HDFS文件系统中的文件和目录。

2. hdfs dfs -mkdir: 在HDFS中创建新目录。

3. hdfs dfs -put: 将文件从本地文件系统上传到HDFS。

4. hdfs dfs -get: 将文件从HDFS下载到本地文件系统。

5. hdfs dfs -rm: 从HDFS中删除文件或目录。

6. hdfs dfs -chown: 更改文件或目录的所有者。

7. hdfs dfs -chmod: 更改文件或目录的权限。

8. hdfs dfs -cat: 查看文件的内容。

9. hdfs dfs -tail: 查看文件的末尾内容。

10. hdfs dfs -du: 估算文件或目录的大小。

11. hdfs dfs -mv: 移动文件或目录。

12. hdfs dfsadmin -report: 获取HDFS的报告,包括集群的容量、使用情况等信息。

13. yarn node -list: 列出YARN集群中的节点。

14. yarn application -list: 列出YARN集群中正在运行的应用程序。

15. yarn application -kill: 终止指定的YARN应用程序。

16. hadoop fsck: 检查HDFS中的文件完整性和一致性。

17. hadoop job -list: 列出运行中的Hadoop作业。

18. hadoop job -kill: 终止指定的Hadoop作业。

hadoop的基本操作命令

hadoop的基本操作命令

hadoop的基本操作命令

Hadoop的基本操作命令

Hadoop是一个分布式计算框架,常用于大数据处理。本文将介绍Hadoop的基本操作命令,包括文件系统操作、作业管理、信息查看等。

一、文件系统操作

1.创建目录

在Hadoop中,可以使用mkdir命令创建目录。具体用法如下:

hadoop fs -mkdir /path/to/directory

其中,/path/to/directory是要创建的目录路径。

2.上传文件

使用put命令上传本地文件到Hadoop文件系统中。用法如下:

hadoop fs -put /path/to/local/file /path/to/hdfs/directory

其中,/path/to/local/file是要上传的本地文件路径,/path/to/hdfs/directory是要上传到的Hadoop文件系统路径。

3.下载文件

使用get命令将Hadoop文件系统中的文件下载到本地。用法如下:

hadoop fs -get /path/to/hdfs/file /path/to/local/directory

其中,/path/to/hdfs/file是要下载的Hadoop文件系统文件路径,/path/to/local/directory是要下载到的本地文件夹路径。

4.列出目录内容

使用ls命令列出指定目录下的文件和子目录。用法如下:

hadoop fs -ls /path/to/directory

其中,/path/to/directory是要列出内容的目录路径。

5.删除文件或目录

HDFS操作命令

HDFS操作命令

HDFS操作命令

Hadoop Distributed File System(HDFS)是Hadoop框架中存储大数据的分布式文件系统。HDFS提供了一系列命令行工具,用于对HDFS上的文件和目录进行操作。下面是HDFS的主要操作命令及其用法,具体介绍如下:

1. hdfs dfs -ls [路径]

该命令用于列出指定路径下的文件和目录。如果不指定路径,则默认列出根目录下的内容。

2. hdfs dfs -mkdir [目录路径]

该命令用于在HDFS上创建一个新的目录。

3. hdfs dfs -put [本地文件路径] [HDFS目标路径]

该命令用于将本地文件复制到HDFS中的指定路径。

4. hdfs dfs -copyFromLocal [本地文件路径] [HDFS目标路径]

该命令与put命令功能相同,用于将本地文件复制到HDFS中的指定路径。

5. hdfs dfs -get [HDFS文件路径] [本地目标路径]

该命令用于将HDFS上的文件复制到本地文件系统中的指定路径。

6. hdfs dfs -copyToLocal [HDFS文件路径] [本地目标路径]

该命令与get命令功能相同,用于将HDFS上的文件复制到本地文件系统中的指定路径。

7. hdfs dfs -rm [路径]

该命令用于删除HDFS上的文件或目录。

8. hdfs dfs -rmdir [路径]

该命令用于删除HDFS上的空目录。

9. hdfs dfs -mv [源路径] [目标路径]

该命令用于移动文件或目录,可以用来重命名文件或目录。

hadoop基本命令_建表-删除-导数据

hadoop基本命令_建表-删除-导数据

HADOOP表操作

1、hadoop简单说明

hadoop 数据库中的数据是以文件方式存存储。一个数据表即是一个数据文件。hadoop目前仅在LINUX 的环境下面运行。使用hadoop数据库的语法即hive语法。(可百度hive语法学习)

通过s_crt连接到主机。

使用SCRT连接到主机,输入hive命令,进行hadoop数据库操作。

2、使用hive 进行HADOOP数据库操作

3、hadoop数据库几个基本命令

show datebases; 查看数据库内容; 注意:hadoop用的hive语法用“;”结束,代表一个命令输入完成。

usezb_dim;

show tables;

4、在hadoop数据库上面建表;

a1: 了解hadoop的数据类型

int 整型; bigint 整型,与int 的区别是长度在于int;

int,bigint 相当于oralce的number型,但是不带小数点。

doubble 相当于oracle的numbe型,可带小数点;

string 相当于oralce的varchar2(),但是不用带长度;

a2: 建表,由于hadoop的数据是以文件有形式存放,所以需要指定分隔符。

create table zb_dim.dim_bi_test_yu3(id bigint,test1 string,test2 string)

row format delimited fields terminated by '\t' stored as textfile; --这里指定'\t'为分隔符

hdfs的常用命令

hdfs的常用命令

HDFS(Hadoop Distributed File System)的常用命令包括:

1. 创建目录:hdfs dfs -mkdir /path/to/dir

2. 查看目录下的内容:hdfs dfs -ls /path/to/dir

3. 上传文件:hdfs dfs -put local_file /path/to/hdfs_file

4. 上传并删除源文件:hdfs dfs -put -delete local_file /path/to/hdfs_file

5. 查看文件内容:hdfs dfs -cat /path/to/hdfs_file

6. 查看文件开头内容:hdfs dfs -head /path/to/hdfs_file

7. 查看文件末尾内容:hdfs dfs -tail /path/to/hdfs_file

8. 下载文件:hdfs dfs -get /path/to/hdfs_file local_file

9. 合并下载文件:hdfs dfs -getmerge /path/to/hdfs_dir local_dir

10. 拷贝文件:hdfs dfs -cp /path/to/hdfs_file /path/to/new_hdfs_file

11. 追加数据到文件中:hdfs dfs -appendToFile local_file /path/to/hdfs_file

12. 查看磁盘空间:hdfs dfs -df /path/to/dir

13. 查看文件使用的空间:hdfs dfs -du -h /path/to/dir

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

HADOOP表操作

1、hadoop简单说明

hadoop 数据库中的数据是以文件方式存存储。一个数据表即是一个数据文件。hadoop目前仅在LINUX 的环境下面运行。使用hadoop数据库的语法即hive语法。(可百度hive语法学习)

通过s_crt连接到主机。

使用SCRT连接到主机,输入hive命令,进行hadoop数据库操作。

2、使用hive 进行HADOOP数据库操作

3、hadoop数据库几个基本命令

show datebases; 查看数据库内容; 注意:hadoop用的hive语法用“;”结束,代表一个命令输入完成。

usezb_dim;

show tables;

4、在hadoop数据库上面建表;

a1: 了解hadoop的数据类型

int 整型; bigint 整型,与int 的区别是长度在于int;

int,bigint 相当于oralce的number型,但是不带小数点。

doubble 相当于oracle的numbe型,可带小数点;

string 相当于oralce的varchar2(),但是不用带长度;

a2: 建表,由于hadoop的数据是以文件有形式存放,所以需要指定分隔符。

create table zb_dim.dim_bi_test_yu3(id bigint,test1 string,test2 string)

row format delimited fields terminated by '\t' stored as textfile; --这里指定'\t'为分隔符

a2.1 查看建表结构: describe

A2.2 往表里面插入数据。

由于hadoop的数据是以文件存在,所以插入数据要先生成一个数据文件,然后使用SFTP将数据文件导入表中。

数据文件的生成,第一步,在EXECLE中按表的顺序依次放入要需要的数据,然后复制到UE编码器中生成文件,保存格式为TXT。

注意:文件中的分隔符必须与建表时指定的分隔一致。保存文件时生成的格式。

A2.2.1: 通过4A打开SFTP 导入文件。

A2.2.2: 将数据文件写入表内。

load data local inpath'/home/mapr/yu_dim_test.txt' overwrite into table zb_dim.dim_bi_test_yu3;

A2.2.3查看导入的内容。

注意:由于hadoop是库的数据是以文件存的,与oarlce中的追加一条记录,删除一条记录不一样,只能再覆盖文件。

A2.2.4 : 将一个表的数据导入另一个表。

例:将zb_dim.dim_bi_test_yu3 表中的数据导入

zb_dim.dim_bi_yu_test_yu;

注意:源表必须有数据才能使用insert overwrite table 将源表的数据写入目标表。

insert overwrite table zb_dwa.dwa_s_m_acc_al_charge_"$v_prov"

partition(month_id='"$v_month"') SELECT

ER_ID, T.SERVICE_TYPE, '', '', SUM(T.BEF_FEE), 0, 0, SUM(T.FEE), '"$v_prov"' FROM

ZB_DWD.DWD_M_ACC_AL_CHARGE_"$v_prov" T WHERE T.MONTH_ID = '"$v_month"' GROUP BY ER_ID, T.SERVICE_TYPE(有分区)

insert overwrite table zb_dim. dim_bi_yu_test_yu SELECT id,test1,test2 FROM zb_dim.dim_bi_test_yu3

查看写入的内容:

A2.3: DROP 表

相关文档
最新文档