DB数据库导入导出

合集下载

EXPDB_IMPDB导出数据库和导入数据库操作手册

EXPDB_IMPDB导出数据库和导入数据库操作手册

EXPDB与IMPDB查找oracle的安装路径:echo $ORACLE_HOME;操作步骤:1.需要在数据库创建HEC_DUMP_DIR类似的directory(此命令需要dba权限,例如:在mastest数据库中,需要以masdemo用户身份登陆.)- -Create directory=》create or replace directory DUMP_DIR_TEST as '/u01/oracle/oracle_test';2.授权=》grant read,write on directory DUMP_DIR_TEST to HEC2DEV;3.导出(用su – oracle命令切换到oracle用户下面,执行下面的语句, schemas为当前用户)=》expdp hec2dev/hec2dev directory=DUMP_DIR_TESTdumpfile=hec2dev1102.dmp logfile=DUMP_DIR_TEST:hec2dev1102.log带版本号导出(从高版本导出,导入到低版本时需要带版本号,点击pl/sql的命令窗口或者sqlplus hec2dev/hec2dev@mastest,在最上面都会有版本号):=》expdp hec2dev/ hec2dev directory=DUMP_DIR_TESTdumpfile=autohec2test.dmp logfile=DUMP_DIR_TEST:autohec2test.logschemas=autohec2test version='10.2.0.1.0'可能出现的问题:(1)指定的Net服务名不正确。

解决方法:因为没有配置指定ORACLE_SID,可以用命令:echo $ORACLE_SID 进行查看是否指定了ORACLE_SID,若没有,可以通过命令:exportORACLE_SID=mastest(要导出数据库的sid)解决。

DB2数据导入导出及建库步骤2命令

DB2数据导入导出及建库步骤2命令

文档编号:DB2数据导入导出及建库步骤2013年3月关于本文档说明:类型-创建(C)、修改(U)、删除(D)、增加(A);目录关于本文档 (2)DB2 数据导入导出及建库步骤 (4)一、数据库数据的导出 (4)二、编辑导出的数据 (4)三、数据库的创建 (5)四、数据库数据的导入 (5)五、数据库数据的备份与还原 (5)DB2 数据导入导出及建库步骤【说明:LISG为已有数据库,LISG为想要创建的数据库。

】一、数据库数据的导出1、启动DB2服务本地:db2cmd 远程:telnet2、连接数据库db2 connect to LISG user db2inst1 using db2adm273、重启数据库,断开所有连接db2stop forcedb2start4、导出表结构及函数db2look -d LISG-a -e -x -o 20130309.sql -i db2inst1 -w db2adm275、导出基础数据(需指定文件夹目录cd /home/db2inst1/20130309 )db2move LISG export -u db2inst1 -p db2adm27二、编辑导出的数据1、基础数据打tar包命令:进入上级目录,执行“tar -tvf 20130309.tar20130309 ”;2、将导出的建表语句、基础数据放到指定路径下,编辑导出的20130307.sql文件,按照“表结构\视图\函数\存储\RISKAMNT函数”排序。

去掉所有的双引号,更换表与函数的前缀名为想要用的用户名(如“DB2INST1”),去掉开头的connect 并且把所有存在blob字段的表空间(即create语句的IN 后面的表空间)改成新建pagesize 32 K 的表空间(LISG);3、将所有的创建function语句剪切到另一个function.sql文件中去(直接创建function可能会失败);4、编辑db2move.lst文件,将双引号去掉,更换前缀名为想要用的用户名(如“DB2INST1”);三、数据库的创建1、新建数据库LISGdb2 create database LISG using codeset utf-8 territory cn2、查看库信息db2 get db cfg for LISG3、创建缓冲池(连接到LISG后为LISG创建一个pagesize 为32k的缓冲池)db2 connect to LISG user db2inst1 using db2adm27db2 create bufferpool LISGBF immediate size 1000 pagesize 32K4、创建三个表空间,使用刚才建立的缓冲池,使用D:\DB2\LISG处的容器(自动新建)常规表空间:db2 create regular tablespace LISG pagesize 32K managed by system using ('D:\DB2\ LISG) bufferpool LISGBF系统临时表空间:db2 create system temporary tablespace LISG1 pagesize 32K managed by system using ('D:\DB2\ LISG1) bufferpool LISGBF用户临时表空间:db2 create user temporary tablespace LISG2 pagesize 32K managed by system using ('D:\DB2\ LISG2) bufferpool LISGBF四、数据库数据的导入1、连接数据库db2 connect to LISG user db2inst1 using db2adm272、导入表结构db2 –tvf 20130309.sql3、导入函数db2 –tvf function.sql4、导入基础数据db2move LISG load -u db2inst1 -p db2adm27五、数据库数据的备份与还原(一)数据库数据备份1、重启数据库,断开所有连接db2stop forcedb2start2、备份数据库db2 backup database LISG to ‘指定目录’(二)数据库数据还原(备注:当在同一台主机上还原一个新的数据库时产生容器共享冲突)1、重启数据库,断开所有连接db2stop forcedb2start2、删除数据库db2 drop database LISG3、重建数据库LISGdb2 create database LISG using codeset utf-8 territory cn4、查看库信息db2 get db cfg for LISG5、创建缓冲池(连接到LISG后为LISG创建一个pagesize 为32k的缓冲池)db2 connect to LISG user db2inst1 using db2adm27db2 create bufferpool LISGBF immediate size 1000 pagesize 32K6、创建三个表空间,使用刚才建立的缓冲池,使用D:\DB2\LISG处的容器(自动新建)db2 create regular tablespace LISG pagesize 32K managed by system using (/home/db2inst1/LISG/ LISG’)bufferpool LISGBFdb2 create system temporary tablespace LISG1 pagesize 32K managed by system using ('D:\DB2\ LISG1') bufferpool LISGBFdb2 create user temporary tablespace LISG2 pagesize 32K managed by system using ('D:\DB2\ LISG2') bufferpool LISGBF7、还原数据库【说明:备份的数据库(olddb) 与要还原的数据(newdb)名不相同: db2 restore db olddb into newdb 】db2 restore database LISG into LISG(from C:\Documents and Settings\Administrator)友情提示:范文可能无法思考和涵盖全面,供参考!最好找专业人士起草或审核后使用,感谢您的下载!。

DB数据库的导入和导出详解

DB数据库的导入和导出详解

本文件为您介绍DB2数据库中表结构的导入和导出的两种常用方法,供您参考选择,希望能够对您有所帮助。

方法一在控制中心的对象视图窗口中,选择所要导出表结构的数据表,按住Ctrl或Shift可多选,单击鼠标右键,选择->生成DDL即可。

方法二◆第一步:打开DB2的命令行工具,在DB2安装目录的BIN文件夹下新建一个文件夹data,并且进入该目录。

创建该目录: mkdir data进入该目录: cd data◆第二步:导出表结构,命令行如下:db2look -d dbname -e -a -x -i username -w password -o ddlfile.sql执行成功之后,你会在刚才新建的文件夹下找到该sql文件。

◆第三步:导出数据,命令行如下:db2move databasename export -u username -p password至此,导出数据结束。

2导出表中数据export to [path(例:D:"TABLE1.ixf)] of ixf select [字段(例: * or col1,col2,col3)] from TABLE1;export to [path(例:D:"TABLE1.del)] of del select [字段(例: * or col1,col2,col3)] from TABLE1;导入表的数据import from [path(例:D:"TABLE1.ixf)] of ixf insert into TABLE1;load from [path(例:D:"TABLE1.ixf)] of ixf insert into TABLE1;load from [path(例:D:"TABLE1.ixf)] of ixf replace into TABLE1; // 装入数据前,先删除已存在记录load from [path(例:D:"TABLE1.ixf)] of ixf restart into TABLE1; // 当装入失败时,重新执行,并记录导出结果和错误信息import from [path(例:D:"TABLE1.ixf)] of ixf savecount 1000 messages [path(例:D:"msg.txt)] insert into TABLE1;// 其中,savecount表示完成每1000条操作,记录一次.存在自增长字段的数据导入:load from [path(例:D:"TABLE1.ixf)] of ixf modified by identityignore insert into TABLE1;// 加入modified by identityignore.解除装入数据时,发生的检查挂起:SET INTEGRITY FOR TABLE1 CHECK IMMEDIATE UNCHECKED;命令只对数据通过约束检查的表有效,如果执行还不能解除,有必要检查数据的完整性,是否不符合约束条件,并试图重新整理数据,再执行装入操作.另外,对load和import,字面上的区别是:装入和导入,但仍未理解两者之间的区别.只是性能上load显然优于import.(load 需要更多的权限)。

常见关系数据库的导出导入

常见关系数据库的导出导入

常见关系数据库的导出导入一般我们在诊断一些问题的时候,都需要基于用户的实际数据进行分析,有时候分析问题只需要几张表就可以了,用户的数据文件问题又比较大,所以整个DB拷贝过来是不太现实的做法,这里总结在SQLServer和Oracle中常用的导出导入指定表的方法:
1.SQLServer
[1]进入“企业管理器”,选中指定的DB,点击右键“所有任务” “导出”(图
1)
[2]点击“下一步”,进入导出的源选择界面,确认正确选择数据源(如图2)
[3]点击“下一步”,进入导出的目标选择界面,为“Excel 97-2000”,选定一个空
的Excele文件(如图3)
[4]点击“下一步”,按照默认选项“从源数据复制表和视图”
[5]点击“下一步”,进入表的选择页面,选择你需要导出的表(如图4)
[6]导入操作将第2步和第3步操作调换一下,第5步选择表的时候在每个表的选
择删除目标表数据(如图5、6)
[7]
图 1
图2
图3
图4
图5
图6
2.Oracle
导出指定的表:
exp userid=trswcm/trs owner=trswcm buffer=204800000 tables=(WCMChannel,WCMWebSite) file=/trs/MyData.dmp grants=y
导入指定的数据:
imp userid=trswcmtest/trs fromuser=trswcm touser=trswcmtest ignore=y buffer=204800000
file=/trs/MyData.dmp。

DB2导入、导出、备份及恢复数据库等操作资料

DB2导入、导出、备份及恢复数据库等操作资料
$ db2 unquiesce database
$ db2 connect reset
说明:
1, 以上指令将会把数据库testdb备份到指定目录 /home/backup下,所以请确保当前登陆用户(db2inst1)对该目录有读写的权限。
题外话,若打算使用root用户来执行备份,请先编辑文件 /etc/group,将root用户加入到与DB2相关的几个组:db2grp1, db2fgrp1, dasadm1.
$ cd /home/movedata
$ db2move mytestdb import –u db2inst1 –p thepasswd
此时屏幕上会显示有关导入数据的信息。
存在的问题:
db2move import方式只能导入“普通”的表,如果表中存在自增长的IDENTITY列,那么使用db2move import时,会出错。这是因为,如果IDENTITY列创建表的时候都是定义成always的话,那么在导入数据的时候该列数据是不能被赋值的,而是 应该由系统生成,使用db2move无法导入这样的表。对于这种含有IDENTITY列的表,只能使用db2 import指令来进行导入,相关的参数是IDENTITYIGNORE,IDENTITYMISSING。我将在下一部分给出具体的指令操作。
建立到数据库的连接:
$ db2
db2 => connect to testdb user db2inst1 using thepasswd
以DEL格式导出:
db2 => export to /home/backup/mytbl.txt of del select * from mytbl
db2 => terminate

db2 导入导出单个表的操作详解

db2 导入导出单个表的操作详解

db2 导入导出单个表的操作详解本文将详细提供db2导入导出单表数据及db2备份恢复等相关一些操作命令汇总,有需求的朋友可以参考1、导出整个数据库表结构、方法、存储过程等,执行脚本:db2look –d dbname –e –o db.sql –i username –w passworddb2 -tvf db.sql2、单表数据的导出及导入:导出:db2move dbname export -tn tablename -u db2user -p psw导入:db2move dbname import -u db2user -p psw3、数据库的备份、恢复:备份:db2 BACKUP DATABASE dbname恢复:db2 RESTORE DATABASE dbname4、使用db2move命令导出、导入数据库数据从另一数据库中导出初始化数据,首先进入导出的目录,先DB2cmd,后输入命令为:db2move dbname export –u username –p password。

注:dbname 为原数据库名,username为用户名 password为密码。

恢复命令为: db2move dbname import -u username -p password5、其它:.导出到一个文件获得sql语句db2look -d cqyancao -e -o db.sql -i db2user -w psw数据库名要出文件名用户名密码示例: db2look -d DEPARTMENT -u walid -e -o db2look.sql-- 这将生成由用户 WALID 创建的所有表和联合对象的 DDL 语句-- db2look 输出被发送到名为 db2look.sql 的文件中示例: db2look -d DEPARTMENT -z myscm1 -e -o db2look.sql-- 这将为模式名为 MYSCM1 的所有表生成 DDL 语句-- 还将生成 $USER 创建的所有联合对象的 DDL。

db2导入导出数据

db2导入导出数据

DB2数据的导入&导出DB2数据的导入(Import)导出(Export)(Load) DB2中所谓的数据移动,包括:1. 数据的导入(Import)2. 数据的导出(Export)3. 数据的装入(Load)导入和装入都是利用DB2的相关命令把某种格式的文件中的数据保存到数据库中的表中导出是指把DB2数据库的表中的数据保存到某种格式的文件当中去数据移动的作用:如果要在不同的数据库管理系统之间转移数据,数据移动通常是最实用的一种方法,因为任何一种数据库管理系统都支持常用的几种文件格式,通过这个通用的接口,就很容易实现不同系统间数据的转移。

这三个命令中,Export最简单,因为从表中向文件转移数据,通常不会出现错误,也不会有非法的数据。

在讲解命令之前,首先介绍一下文件的格式,用于DB2数据移动的文件格式有四种:1. ASC——非定界ASCII文件,是一个ASCII字符流。

数据流中的行由行定界符分隔,而行中的每一列则通过起始和结束位置来定义。

例如:10 Head Office 160 Corporate New York15 New England 50 Eastern Boston20 Mid Atlantic 10 Eastern Washington38 South Atlantic 30 Eastern Atlanta42 Great Lakes 100 Midwest Chicago51 Plains 140 Midwest Dallas66 Pacific 270 Western San Francisco84 Mountain 290 Western Denver2. DEL——定界ASCII文件,也是一个ASCII字符流。

数据流中的行由行定界符分隔,行中的列值由列定界符分隔。

文件类型修饰符可用于修改这些定界符的默认值。

例如:10,"Head Office",160,"Corporate","New York"15,"New England",50,"Eastern","Boston"20,"Mid Atlantic",10,"Eastern","Washington"38,"South Atlantic",30,"Eastern","Atlanta"42,"Great Lakes",100,"Midwest","Chicago"51,"Plains",140,"Midwest","Dallas"66,"Pacific",270,"Western","San Francisco"84,"Mountain",290,"Western","Denver"3. WSF——(work sheet format)为工作表格式,用于与Lotus系列的软件进行数据交换。

Step7下DB数据块导入导出EXCEL

Step7下DB数据块导入导出EXCEL

Step 7 5.5 下DB数据块导入导出及DB当前值存储为默认值
1、导出DB数据块
打开一个DB块
生成源文件
输入文件名DB5,确认
选中你要导出的DB块
在Source> DB5>右键>导出源文件
在“导出源文件”对话框中确定源文件导出文件类型,选择“STL source (*.awl)”作为文件类型且文件名中必须包含扩展名“.AWL ”。

2、打开AWL文件
打开excel软件,在excel软件中选择打开命令(选择所有文件)
打开后选择全文,将对齐方式选择为“右对齐”
将修改好的文件另存为“.prn”的文件(保存的文件后缀名改一下 .prn > .awl)将“.awl”的文件导入到S7源文件中,编译通过即可。

保存的文件后缀名改一下.prn > .awl
3、将excel生成后的文件导入S7
Sources >插入新对象>外部文件选择刚才重命名的awl文件双击.awl
注意DB号,每句结束的; 保存编译,
没有出错的话,就导入导出完成.。

DB数据库导入导出

DB数据库导入导出

DB数据库导⼊导出D B数据库导⼊导出⽂件排版存档编号:[UYTR-OUPT28-KBNTL98-UYNN208]D B2数据导⼊导出2012年3⽉12⽇编辑:徐彦⼀、环境操作系统:Redhat Linux AS( #1 SMP i686 i386 GNU/Linux)数据库版本:DB2 WorkGroup版 V9.7.0(数据库版本可通过连接数据库来查看,db2 connect to dbname)⼆、声明实例⽤户,默认为db2inst1Das⽤户,默认为dasusr1数据库安装⽬录($INSTHOME),默认为/opt/ibm/db2/实例安装⽬录($HOME),默认为/home/db2inst1/实例名:db2inst1数据库名:三、导出具体步骤导出对象结构建议单独创建⼀个数据导出⽬录,利于导出⽂件整理的清晰。

$ su – db2inst1# 切换⾄db2inst1⽤户$ cd /#为导出⽬录,例如/home/db2inst1/dbdmp(db2inst1要有相应的读写权限)$ db2 connect to# 连接⾄数据库$ db2look –d -e –a –l –o .sql# 导出数据库对象创建脚本例⼦:数据库名为meibof导出数据库数据(建议在⽬录下另建db2move的⽬录⽤来存放导出数据,因为db2move 命令会产⽣若⼲⽂件)db2move export(如果导出是发现有warning,在上⾯的命名后⾯加上 -aw参数)以数据库名为meibof为例:四、导⼊具体步骤建⽴新数据库$ su – db2inst1# 切换⾄db2inst1⽤户db2 create db (建议使⽤db2cc⼯具来进⾏创建数据库)创建名为meibof的数据库:执⾏.sql脚本创建数据库切换到放置.sql的⽬录db2 –tvf .sql(单次导⼊有可能丢失数据结构,建议连续执⾏3次,导⼊完成后,和开发⼈员确认数据库对象的数量,尤其是存储过程。

批量备份还原导入与导出MongoDB数据方式

批量备份还原导入与导出MongoDB数据方式

批量备份还原导⼊与导出MongoDB数据⽅式前⽂链接传送门Navicat建⽴数据库连接新建数据库导⼊JavaScript⽂件⼊数据库mongodb数据备份和还原主要分为⼆种,⼀种是针对于库的mongodump和mongorestore,⼀种是针对库中表的mongoexport和mongoimport。

mongodump备份数据库1.常⽤命令格mongodump -h IP --port 端⼝ -u ⽤户名 -p 密码 -d 数据库 -o ⽂件存在路径如果没有⽤户谁,可以去掉-u和-p。

如果导出本机的数据库,可以去掉-h。

如果是默认端⼝,可以去掉–port。

如果想导出所有数据库,可以去掉-d。

2. 导出所有数据库[root@localhost mongodb]$ mongodump -h 127.0.0.1 -o /usr/local/Cellar/mongodbconnected to: 127.0.0.1Tue Dec 3 06:15:55.448 all dbsTue Dec 3 06:15:55.449 DATABASE: test to /usr/local/Cellar/mongodb/testTue Dec 3 06:15:55.449 test.system.indexes to /home/zhangy/mongodb/test/system.indexes.bsonTue Dec 3 06:15:55.450 1 objectsTue Dec 3 06:15:55.450 test.posts to /usr/local/Cellar/mongodb/test/posts.bsonTue Dec 3 06:15:55.480 0 objects3. 导出指定数据库[root@localhost mongodb]$ mongodump -h 192.168.1.108 -d tank -o /home/zhangy/mongodb/connected to: 192.168.1.108Tue Dec 3 06:11:41.618 DATABASE: tank to /usr/local/Cellar/mongodb/tankTue Dec 3 06:11:41.623 tank.system.indexes to /usr/local/Cellar/mongodb/tank/system.indexes.bsonTue Dec 3 06:11:41.623 2 objectsTue Dec 3 06:11:41.623 tank.contact to /usr/local/Cellar/mongodb/tank/contact.bsonTue Dec 3 06:11:41.669 2 objectsTue Dec 3 06:11:41.670 Metadata for tank.contact to /usr/local/Cellar/mongodb/tank/contact.metadata.jsonTue Dec 3 06:11:41.670 ers to /usr/local/Cellar/mongodb/tank/users.bsonTue Dec 3 06:11:41.685 2 objectsTue Dec 3 06:11:41.685 Metadata for ers to /usr/local/Cellar/mongodb/tank/users.metadata.json mongorestore还原数据库1. 常⽤命令格式mongorestore -h IP --port 端⼝ -u ⽤户名 -p 密码 -d 数据库 --drop ⽂件存在路径drop的意思是,先删除所有的记录,然后恢复。

mongodb数据的导出和导入

mongodb数据的导出和导入

mongodb数据的导出和导⼊mongo导出表说明:root@827995de7c7f:/# mongoexport --helpUsage:mongoexport <options>Export data from MongoDB in CSV or JSON format.See /manual/reference/program/mongoexport/ for more information.general options:--help print usage--version print the tool version and exitverbosity options:-v, --verbose=<level> more detailed log output (include multiple times for more verbosity, e.g. -vvvvv, or specify a numeric value, e.g. --verbose=N) --quiet hide all log outputconnection options:-h, --host=<hostname> mongodb host to connect to (setname/host1,host2 for replica sets)--port=<port> server port (can also use --host hostname:port)ssl options:--ssl connect to a mongod or mongos that has ssl enabled--sslCAFile=<filename> the .pem file containing the root certificate chain from the certificate authority--sslPEMKeyFile=<filename> the .pem file containing the certificate and key--sslPEMKeyPassword=<password> the password to decrypt the sslPEMKeyFile, if necessary--sslCRLFile=<filename> the .pem file containing the certificate revocation list--sslAllowInvalidCertificates bypass the validation for server certificates--sslAllowInvalidHostnames bypass the validation for server name--sslFIPSMode use FIPS mode of the installed openssl libraryauthentication options:-u, --username=<username> username for authentication-p, --password=<password> password for authentication--authenticationDatabase=<database-name> database that holds the user's credentials--authenticationMechanism=<mechanism> authentication mechanism to usenamespace options:-d, --db=<database-name> database to use-c, --collection=<collection-name> collection to useoutput options:-f, --fields=<field>[,<field>]* comma separated list of field names (required for exporting CSV) e.g. -f "name,age"--fieldFile=<filename> file with field names - 1 per line--type=<type> the output format, either json or csv (defaults to 'json') (default: json)-o, --out=<filename> output file; if not specified, stdout is used--jsonArray output to a JSON array rather than one object per line--pretty output JSON formatted to be human-readable--noHeaderLine export CSV data without a list of field names at the first linequerying options:-q, --query=<json> query filter, as a JSON string, e.g., '{x:{$gt:1}}'--queryFile=<filename> path to a file containing a query filter (JSON)-k, --slaveOk allow secondary reads if available (default true) (default: false)--readPreference=<string>|<json> specify either a preference name or a preference json object--forceTableScan force a table scan (do not use $snapshot)--skip=<count> number of documents to skip--limit=<count> limit the number of documents to export--sort=<json> sort order, as a JSON string, e.g. '{x:1}'--assertExists if specified, export fails if the collection does not exist (default: false)⼏个常见的说明:-d :数据库名-c :表名-o :输出的⽂件名--type :输出的格式,默认为json-f :输出的字段,如果-type为csv,则需要加上-f "字段名"-q:过滤条件,json字符串举个栗⼦:mongoexport -d dbname -c tablename -o filename.csv --type csv -f "column1,column2” -q '{ filtercolumn :{$gte:1,$lte:100}}'mongo导出库说明:root@827995de7c7f:/# mongodump --helpUsage:mongodump <options>Export the content of a running server into .bson files.Specify a database with -d and a collection with -c to only dump that database or collection.See /manual/reference/program/mongodump/ for more information.general options:--help print usage--version print the tool version and exitverbosity options:-v, --verbose=<level> more detailed log output (include multiple times for more verbosity, e.g. -vvvvv, or specify a numeric value, e.g. --verbose=N)--quiet hide all log outputconnection options:-h, --host=<hostname> mongodb host to connect to (setname/host1,host2 for replica sets)--port=<port> server port (can also use --host hostname:port)ssl options:--ssl connect to a mongod or mongos that has ssl enabled--sslCAFile=<filename> the .pem file containing the root certificate chain from the certificate authority--sslPEMKeyFile=<filename> the .pem file containing the certificate and key--sslPEMKeyPassword=<password> the password to decrypt the sslPEMKeyFile, if necessary--sslCRLFile=<filename> the .pem file containing the certificate revocation list--sslAllowInvalidCertificates bypass the validation for server certificates--sslAllowInvalidHostnames bypass the validation for server name--sslFIPSMode use FIPS mode of the installed openssl libraryauthentication options:-u, --username=<username> username for authentication-p, --password=<password> password for authentication--authenticationDatabase=<database-name> database that holds the user's credentials--authenticationMechanism=<mechanism> authentication mechanism to usenamespace options:-d, --db=<database-name> database to use-c, --collection=<collection-name> collection to usequery options:-q, --query= query filter, as a JSON string, e.g., '{x:{$gt:1}}'--queryFile= path to a file containing a query filter (JSON)--readPreference=<string>|<json> specify either a preference name or a preference json object--forceTableScan force a table scanoutput options:-o, --out=<directory-path> output directory, or '-'for stdout (defaults to 'dump')--gzip compress archive our collection output with Gzip--repair try to recover documents from damaged data files (not supported by all storage engines)--oplog use oplog for taking a point-in-time snapshot--archive=<file-path> dump as an archive to the specified path. If flag is specified without a value, archive is written to stdout--dumpDbUsersAndRoles dump user and role definitions for the specified database--excludeCollection=<collection-name> collection to exclude from the dump (may be specified multiple times to exclude additional collections)--excludeCollectionsWithPrefix=<collection-prefix> exclude all collections from the dump that have the given prefix (may be specified multiple times to exclude additional prefixes) -j, --numParallelCollections= number of collections to dump in parallel (4 by default) (default: 4)--viewsAsCollections dump views as normal collections with their produced data, omitting standard collections举个栗⼦:mongodump -h 127.0.0.1 -d databasename -o dirmongo导⼊库说明:root@827995de7c7f:/# mongorestore --helpUsage:mongorestore <options> <directory or file to restore>Restore backups generated with mongodump to a running server.Specify a database with -d to restore a single database from the target directory,or use -d and -c to restore a single collection from a single .bson file.See /manual/reference/program/mongorestore/ for more information.general options:--help print usage--version print the tool version and exitverbosity options:-v, --verbose=<level> more detailed log output (include multiple times for more verbosity, e.g. -vvvvv, or specify a numeric value, e.g. --verbose=N)--quiet hide all log outputconnection options:-h, --host=<hostname> mongodb host to connect to (setname/host1,host2 for replica sets)--port=<port> server port (can also use --host hostname:port)ssl options:--ssl connect to a mongod or mongos that has ssl enabled--sslCAFile=<filename> the .pem file containing the root certificate chain from the certificate authority--sslPEMKeyFile=<filename> the .pem file containing the certificate and key--sslPEMKeyPassword=<password> the password to decrypt the sslPEMKeyFile, if necessary--sslCRLFile=<filename> the .pem file containing the certificate revocation list--sslAllowInvalidCertificates bypass the validation for server certificates--sslAllowInvalidHostnames bypass the validation for server name--sslFIPSMode use FIPS mode of the installed openssl libraryauthentication options:-u, --username=<username> username for authentication-p, --password=<password> password for authentication--authenticationDatabase=<database-name> database that holds the user's credentials--authenticationMechanism=<mechanism> authentication mechanism to usenamespace options:-d, --db=<database-name> database to use when restoring from a BSON file-c, --collection=<collection-name> collection to use when restoring from a BSON file--excludeCollection=<collection-name> DEPRECATED; collection to skip over during restore (may be specified multiple times to exclude additional collections)--excludeCollectionsWithPrefix=<collection-prefix> DEPRECATED; collections to skip over during restore that have the given prefix (may be specified multiple times to exclude additional prefixes --nsExclude=<namespace-pattern> exclude matching namespaces--nsInclude=<namespace-pattern> include matching namespaces--nsFrom=<namespace-pattern> rename matching namespaces, must have matching nsTo--nsTo=<namespace-pattern> rename matched namespaces, must have matching nsFrominput options:--objcheck validate all objects before inserting--oplogReplay replay oplog for point-in-time restore--oplogLimit=<seconds>[:ordinal] only include oplog entries before the provided Timestamp--oplogFile=<filename> oplog file to use for replay of oplog--archive=<filename> restore dump from the specified archive file. If flag is specified without a value, archive is read from stdin--restoreDbUsersAndRoles restore user and role definitions for the given database--dir=<directory-name> input directory, use '-'for stdin--gzip decompress gzipped inputrestore options:--drop drop each collection before import--dryRun view summary without importing anything. recommended with verbosity--writeConcern=<write-concern> write concern options e.g. --writeConcern majority, --writeConcern '{w: 3, wtimeout: 500, fsync: true, j: true}' (defaults to 'majority') (default: majority)--noIndexRestore don't restore indexes--noOptionsRestore don't restore collection options--keepIndexVersion don't update index version--maintainInsertionOrder preserve order of documents during restoration-j, --numParallelCollections= number of collections to restore in parallel (4 by default) (default: 4)--numInsertionWorkersPerCollection= number of insert operations to run concurrently per collection (1 by default) (default: 1)--stopOnError stop restoring if an error is encountered on insert (off by default)--bypassDocumentValidation bypass document validation举个栗⼦:mongorestore -h 127.0.0.1 -d databasename dir。

Step75.5下DB数据块导入导出及DB当前值存储为默认值报告

Step75.5下DB数据块导入导出及DB当前值存储为默认值报告

Step 7 5.5 下DB数据块导入导出及DB当前值存储为默认值
导出
打开一个DB块
生成源文件
输入文件名DB5,确认
Simatic manager
Source> DB5>右键>导出源文件
新建一个excel文件
导入外部数据
按教程操作,注意导入完成后
最后的;不能少,否则编译时候会出错.
Begain
End_data_block
之间的数据可以删除
增加减少数据到你想要的数据
另存为prn格式
保存的文件后缀名改一下.prn > .awl
Sources >插入新对象>外部文件选择刚才重命名的awl文件
注意DB号,每句结束的; 保存编译,没有出错的话,就导入导出完成.
DB块的初始值传送给CPU 作为实际值Simatic manager View >oline 打开DB块
先保存,再生成源文件
选中DB
导出到文件夹Excel导入外部数据
BEGIN END_DATA_BLOCK 之间是当前数据
复制到对应区域.
在另存为prn ,改名awl ,导入, 打开, 保存编译. 注意,数据要建立得整齐一些.否则删除多余的;吧.。

博图V17中怎样导出DB数据块

博图V17中怎样导出DB数据块

博图V17中怎样导出DB数据块博图V17中导出DB数据块的三种方法:➢生成源文件➢生成XML 文件➢直接拷贝粘贴到Excel1.导出DB 块的三种方法1)生成源文件打开博途项目树,在DB 块上点击鼠标右键,在弹出的窗口中选择“从块生成源”->“仅所选的块”。

图1 选择从块生成源然后,输入要保存的源文件名,并点击保存键。

图2 保存生成的源文件2)生成XML 文件可以使用博途的版本控制接口来生成DB 块的XML 文件。

不单是DB 块,所有的软件块(OB、FC、FB、DB、背景DB 等)都可以生成XML 文件。

在博途项目树中选择“版本控制接口”->“新增工作区”:图3 新增工作区然后在打开新增的工作区“Workspace_1”,选择组态工作区图标:图4 组态工作区在弹出的窗口中设置工作区路径,如“D:\Work\”,点击确认。

图5 设置工作区路径鼠标左键选中需要导出的DB 块,然后拖拽到工作区中。

图6 拖拽DB 块到工作区中拖拽完成后可以看到工作区中的DB 块,以及文件夹中的XML 文件。

图7 工作区中的DB 块图8 文件夹中的XML 文件3)直接拷贝粘贴到ExcelDB 块中的内容也可以直接拷贝粘贴到Excel。

打开DB 块,点击下图中红圈的位置,选中DB 块内容,然后按快捷键“Ctrl+C”,拷贝DB 块内容。

图9 选择DB 块中要拷贝的内容打开一个空的Excel 文件,按快捷键“Ctrl+V”,粘贴DB 块内容到Excel 表格内。

图10 粘贴DB 块内容到Excel 表格。

expdpimpdp数据库导入导出命令详解

expdpimpdp数据库导入导出命令详解

expdpimpdp数据库导⼊导出命令详解⼀、创建逻辑⽬录,该命令不会在操作系统创建真正的⽬录,最好以system等管理员创建。

create directory dpdata1 as 'd:\test\dump';⼆、查看管理理员⽬录(同时查看操作系统是否存在,因为Oracle并不关⼼该⽬录是否存在,如果不存在,则出错)select * from dba_directories;三、给scott⽤户赋予在指定⽬录的操作权限,最好以system等管理员赋予。

grant read,write on directory dpdata1 to scott;四、导出数据1)按⽤户导expdp scott/tiger@orcl schemas=scott dumpfile=expdp.dmp DIRECTORY=dpdata1;2)并⾏进程parallelexpdp scott/tiger@orcl directory=dpdata1 dumpfile=scott3.dmp parallel=40 job_name=scott33)按表名导expdp scott/tiger@orcl TABLES=emp,dept dumpfile=expdp.dmp DIRECTORY=dpdata1;4)按查询条件导expdp scott/tiger@orcl directory=dpdata1 dumpfile=expdp.dmp Tables=emp query='WHERE deptno=20';5)按表空间导expdp system/manager DIRECTORY=dpdata1 DUMPFILE=tablespace.dmp TABLESPACES=temp,example;6)导整个数据库expdp system/manager DIRECTORY=dpdata1 DUMPFILE=full.dmp FULL=y;五、还原数据1)导到指定⽤户下impdp scott/tiger DIRECTORY=dpdata1 DUMPFILE=expdp.dmp SCHEMAS=scott;2)改变表的ownerimpdp system/manager DIRECTORY=dpdata1 DUMPFILE=expdp.dmp TABLES=scott.dept REMAP_SCHEMA=scott:system;3)导⼊表空间impdp system/manager DIRECTORY=dpdata1 DUMPFILE=tablespace.dmp TABLESPACES=example;4)导⼊数据库impdb system/manager DIRECTORY=dump_dir DUMPFILE=full.dmp FULL=y;5)追加数据impdp system/manager DIRECTORY=dpdata1 DUMPFILE=expdp.dmp SCHEMAS=system TABLE_EXISTS_ACTION=append;----------------------------Expdp/Impdp的相关参数----------------------------EXPDP命令⾏选项1. ATTACH该选项⽤于在客户会话与已存在导出作⽤之间建⽴关联.语法如下ATTACH=[schema_name.]job_nameSchema_name⽤于指定⽅案名,job_name⽤于指定导出作业名.注意,如果使⽤ATTACH选项,在命令⾏除了连接字符串和ATTACH选项外,不能指定任何其他选项,⽰例如下:Expdp scott/tiger ATTACH=scott.export_job2. CONTENT该选项⽤于指定要导出的内容.默认值为ALLCONTENT={ALL | DATA_ONLY | METADATA_ONLY}当设置CONTENT为ALL 时,将导出对象定义及其所有数据.为DATA_ONLY时,只导出对象数据,为METADATA_ONLY时,只导出对象定义Expdp scott/tiger DIRECTORY=dump DUMPFILE=a.dumpCONTENT=METADATA_ONLY3. DIRECTORY指定转储⽂件和⽇志⽂件所在的⽬录DIRECTORY=directory_objectDirectory_object⽤于指定⽬录对象名称.需要注意,⽬录对象是使⽤CREATE DIRECTORY语句建⽴的对象,⽽不是OS ⽬录Expdp scott/tiger DIRECTORY=dump DUMPFILE=a.dump建⽴⽬录:CREATE DIRECTORY dump as ‘d:dump’;查询创建了那些⼦⽬录:SELECT * FROM dba_directories;4. DUMPFILE⽤于指定转储⽂件的名称,默认名称为expdat.dmpDUMPFILE=[directory_object:]file_name [,….]Directory_object⽤于指定⽬录对象名,file_name⽤于指定转储⽂件名.需要注意,如果不指定directory_object,导出⼯具会⾃动使⽤DIRECTORY选项指定的⽬录对象Expdp scott/tiger DIRECTORY=dump1 DUMPFILE=dump2:a.dmp5. ESTIMATE指定估算被导出表所占⽤磁盘空间分⽅法.默认值是BLOCKSEXTIMATE={BLOCKS | STATISTICS}设置为BLOCKS时,oracle会按照⽬标对象所占⽤的数据块个数乘以数据块尺⼨估算对象占⽤的空间,设置为STATISTICS时,根据最近统计值估算对象占⽤空间Expdp scott/tiger TABLES=emp ESTIMATE=STATISTICSDIRECTORY=dump DUMPFILE=a.dump6. EXTIMATE_ONLY指定是否只估算导出作业所占⽤的磁盘空间,默认值为NEXTIMATE_ONLY={Y | N}设置为Y时,导出作⽤只估算对象所占⽤的磁盘空间,⽽不会执⾏导出作业,为N时,不仅估算对象所占⽤的磁盘空间,还会执⾏导出操作. Expdp scott/tiger ESTIMATE_ONLY=y NOLOGFILE=y7. EXCLUDE该选项⽤于指定执⾏操作时释放要排除对象类型或相关对象EXCLUDE=object_type[:name_clause] [,….]Object_type⽤于指定要排除的对象类型,name_clause⽤于指定要排除的具体对象.EXCLUDE和INCLUDE不能同时使⽤Expdp scott/tiger DIRECTORY=dump DUMPFILE=a.dup EXCLUDE=VIEW8. FILESIZE指定导出⽂件的最⼤尺⼨,默认为0,(表⽰⽂件尺⼨没有限制)9. FLASHBACK_SCN指定导出特定SCN时刻的表数据FLASHBACK_SCN=scn_valueScn_value⽤于标识SCN值.FLASHBACK_SCN和FLASHBACK_TIME不能同时使⽤Expdp scott/tiger DIRECTORY=dump DUMPFILE=a.dmpFLASHBACK_SCN=35852310. FLASHBACK_TIME指定导出特定时间点的表数据FLASHBACK_TIME=”TO_TIMESTAMP(time_value)”Expdp scott/tiger DIRECTORY=dump DUMPFILE=a.dmp FLASHBACK_TIME=“TO_TIMESTAMP(’25-08-2004 14:35:00’,’DD-MM-YYYY HH24:MI:SS’)”11. FULL指定数据库模式导出,默认为NFULL={Y | N}为Y时,标识执⾏数据库导出.12. HELP指定是否显⽰EXPDP命令⾏选项的帮助信息,默认为N当设置为Y时,会显⽰导出选项的帮助信息.Expdp help=y13. INCLUDE指定导出时要包含的对象类型及相关对象INCLUDE = object_type[:name_clause] [,… ]14. JOB_NAME指定要导出作⽤的名称,默认为SYS_XXXJOB_NAME=jobname_string15. LOGFILE指定导出⽇志⽂件⽂件的名称,默认名称为export.logLOGFILE=[directory_object:]file_nameDirectory_object⽤于指定⽬录对象名称,file_name⽤于指定导出⽇志⽂件名.如果不指定directory_object.导出作⽤会⾃动使⽤DIRECTORY 的相应选项值.Expdp scott/tiger DIRECTORY=dump DUMPFILE=a.dmp logfile=a.log16. NETWORK_LINK指定数据库链名,如果要将远程数据库对象导出到本地例程的转储⽂件中,必须设置该选项.17. NOLOGFILE该选项⽤于指定禁⽌⽣成导出⽇志⽂件,默认值为N.18. PARALLEL指定执⾏导出操作的并⾏进程个数,默认值为119. PARFILE指定导出参数⽂件的名称PARFILE=[directory_path] file_name20. QUERY⽤于指定过滤导出数据的where条件QUERY=[schema.] [table_name:] query_clauseSchema ⽤于指定⽅案名,table_name⽤于指定表名,query_clause⽤于指定条件限制⼦句.QUERY选项不能与 CONNECT=METADATA_ONLY,EXTIMATE_ONLY,TRANSPORT_TABLESPACES等选项同时使⽤.Expdp scott/tiger directory=dump dumpfiel=a.dmpTables=emp query=’WHERE deptno=20’21. SCHEMAS该⽅案⽤于指定执⾏⽅案模式导出,默认为当前⽤户⽅案.22. STATUS指定显⽰导出作⽤进程的详细状态,默认值为023. TABLES指定表模式导出TABLES=[schema_name.]table_name[:partition_name][,…]Schema_name⽤于指定⽅案名,table_name⽤于指定导出的表名,partition_name⽤于指定要导出的分区名.24. TABLESPACES指定要导出表空间列表25. TRANSPORT_FULL_CHECK该选项⽤于指定被搬移表空间和未搬移表空间关联关系的检查⽅式,默认为N.当设置为Y时,导出作⽤会检查表空间直接的完整关联关系,如果表空间所在表空间或其索引所在的表空间只有⼀个表空间被搬移,将显⽰错误信息.当设置为N时, 导出作⽤只检查单端依赖,如果搬移索引所在表空间,但未搬移表所在表空间,将显⽰出错信息,如果搬移表所在表空间,未搬移索引所在表空间,则不会显⽰错误信息.26. TRANSPORT_TABLESPACES指定执⾏表空间模式导出27. VERSION指定被导出对象的数据库版本,默认值为COMPATIBLE.VERSION={COMPATIBLE | LATEST | version_string}为COMPATIBLE时,会根据初始化参数COMPATIBLE⽣成对象元数据;为LATEST时,会根据数据库的实际版本⽣成对象元数据.version_string ⽤于指定数据库版本字符串.调⽤EXPDP使⽤EXPDP⼯具时,其转储⽂件只能被存放在DIRECTORY对象对应的OS⽬录中,⽽不能直接指定转储⽂件所在的OS⽬录.因此,使⽤EXPDP⼯具时,必须⾸先建⽴DIRECTORY对象.并且需要为数据库⽤户授予使⽤DIRECTORY对象权限.-------------------------------------应⽤-------------------------------------Data Pump 反映了整个导出/导⼊过程的完全⾰新。

C#实现DB文件的导入导出功能

C#实现DB文件的导入导出功能

C#实现DB⽂件的导⼊导出功能1. DB⽂件的导出private void InsertDB(DataTable dt, string FileName){try{string userIds = string.Empty;string[] str = ccbUserName.Text.Split(',');for (int s = 0; s < str.Length; s++){userIds += GetUserId(str[s].Trim()) + "',";}userIds = userIds.Substring(0, userIds.Length - 1);if (string.IsNullOrEmpty(userIds)){return;}SqliteBaseClass sqlite = new SqliteBaseClass(FileName);try{sqlite.creatDataBase();//创建数据库sqlite.SqliteConn = new System.Data.SQLite.SQLiteConnection(sqlite.StrConntion);sqlite.SqliteConn.Open();//创建表sqlite.creatDataBaseTable("CREATE TABLE GpsInfo ([id] CHAR(32),[gpsTime] DATETIME,[Lon] DOUBLE,[Lat] DOUBLE,[speed] DOUBLE,[direction] DOUBLE,[seaLevel] DOUBLE,[uploaded] INT,[TotalLiCheng] nvarchar(50)) sqlite.creatDataBaseTable("CREATE TABLE SysParamters ([param] NVARCHAR(50) NOT NULL,[pValue] NVARCHAR(150))");sqlite.Strtablename = "SysParamters";//插⼊gps数据sqlite.Strtablename = "GpsInfo";string fields = "id,gpsTime,lon,lat,speed,direction,sealevel,TotalLiCheng";//字段列表string values = string.Empty;//数据列表uiProgressBar1.Maximum = dt.Rows.Count;for (int i = 0; i < dt.Rows.Count; i++){//把数组数据转换为,分割string[] strs = dt.Rows[i].ItemArray.Select(w => w.ToString()).ToArray<string>();//时间类型存⼊db时要转换⼀下,不然读取时报错DateTime date = Convert.ToDateTime(dt.Rows[i]["时间"]);values = "'" + strs[0] + "','" + date.ToString("s") + "','" + string.Join("','", strs, 3, 6) + "'";sqlite.insertFieldData(fields, values);//插⼊数据uiProgressBar1.Value = i;System.Windows.Forms.Application.DoEvents();}}catch (Exception ex){throw new Exception(ex.Message);}finally{if (sqlite!=null&&sqlite.SqliteConn!=null){sqlite.SqliteConn.Close();}}MsgBoxShow.ShowInformation("导出成功!");}catch (Exception ex){MsgBoxShow.ShowWarning("导出错误:" + ex.Message);}}2. DB⽂件的导⼊// 获取DB数据private void GetDBData(object sender, WaitWindowEventArgs e){try{if (e.Arguments.Count > 0){//创建sqlite操作SqliteBaseClass sqlite = new SqliteBaseClass(e.Arguments[0].ToString());sqlite.SqliteConn = new System.Data.SQLite.SQLiteConnection(sqlite.StrConntion);sqlite.SqliteConn.Open();//查询格式是否正确string strgps = "SELECT id,gpsTime,Lon,Lat,speed,direction,TotalLiCheng,seaLevel FROM GpsInfo Limit 1";string strsys = "SELECT param,pValue FROM SysParamters";DataSet gpsSet = sqlite.getDataSetQueryContSql(strgps);DataSet SysSet = sqlite.getDataSetQueryContSql(strsys);if (gpsSet == null || SysSet == null || gpsSet.Tables[0].Rows.Count <= 0){MsgBoxShow.ShowInformation("DB⽂件格式错误或者不存在数据");return;}//获取数据string strGpsInfo = "SELECT id as 巡护⼈员,gpsTime as 时间,Lon as 经度,Lat as 纬度,speed as 速度,direction as ⽅向,"+ " TotalLiCheng as 总⾥程,seaLevel as 海拔 FROM GpsInfo ORDER BY gpsTime";DataTable GpsInfoDT = sqlite.getDataSetQueryContSql(strGpsInfo).Tables[0];//计算总⾥程e.Result = CalculateTotalLiCheng(GpsInfoDT);}}catch (Exception ex){MsgBoxShow.ShowWarning("打开DB⽂件错误:" + ex.Message);}}。

Step7下DB数据块导入导出EXCEL

Step7下DB数据块导入导出EXCEL
Step75.5下DB数据块导入导出及DB当前值存储为默认值
1、导出DB数据块
打开一个DB块
生成源文件
输入文件名DB5,确认
选中你要导出的DB块
在Source>DB5>右键>导出ห้องสมุดไป่ตู้文件
在“导出源文件”对话框中确定源文件导出文件类型,选择“STLsource(*.awl)”作为文件类型且文件名中必须包含扩展名“.AWL”。
2、打开AWL文件
打开excel软件,在excel软件中选择打开命令(选择所有文件)
打开后选择全文,将对齐方式选择为“右对齐”
将修改好的文件另存为“.prn”的文件?(保存的文件后缀名改一下.prn>.awl)
将“.awl”的文件导入到S7源文件中,编译通过即可。
保存的文件后缀名改一下.prn>.awl
3、将excel生成后的文件导入S7
Sources>插入新对象>外部文件选择刚才重命名的awl文件
双击.awl
注意DB号,每句结束的;保存编译,
没有出错的话,就导入导出完成.
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

D B数据库导入导出 Revised final draft November 26, 2020D B2数据导入导出2012年3月12日编辑:徐彦一、环境操作系统:RedhatLinuxAS5.5(-128.el5PAE#1SMPi686i386GNU/Linux)数据库版本:DB2WorkGroup版V9.7.0(数据库版本可通过连接数据库来查看,db2connecttodbname)二、声明实例用户,默认为db2inst1Das用户,默认为dasusr1数据库安装目录($INSTHOME),默认为/opt/ibm/db2/V9.7实例安装目录($HOME),默认为/home/db2inst1/实例名:db2inst1数据库名:<dbname>三、导出具体步骤3.1导出对象结构建议单独创建一个数据导出目录,利于导出文件整理的清晰。

$su–db2inst1#切换至db2inst1用户$cd/<backupdir>#<backupdir>为导出目录,例如/home/db2inst1/dbdmp(db2inst1要有相应的读写权限)$db2connectto<dbname>#连接至数据库$db2look–d<dbname>-e–a–l–o<dbname>.sql#导出数据库对象创建脚本例子:数据库名为meibof3.2导出数据库数据(建议在<backupdir>目录下另建db2move的目录用来存放导出数据,因为db2move命令会产生若干文件)db2move<dbname>export(如果导出是发现有warning,在上面的命名后面加上-aw参数)以数据库名为meibof为例:四、导入具体步骤4.1建立新数据库$su–db2inst1#切换至db2inst1用户db2createdb<dbname>(建议使用db2cc工具来进行创建数据库)创建名为meibof的数据库:4.2执行<dbname>.sql脚本创建数据库切换到放置<dbname>.sql的目录db2–tvf<dbname>.sql(单次导入有可能丢失数据结构,建议连续执行3次,导入完成后,和开发人员确认数据库对象的数量,尤其是存储过程。

)4.3导入数据切换到放置db2move导出数据的目录db2move<dbname>load4.4一致性检查原理:如果发现有表存在检查挂起状态(由于检查约束的原因),则输入命令如下db2setintegrityforschema.tablenameimmediatechecked将其转换成正常状态。

首先利用sql语句得到要检查的表的执行语句主要命令:db2"select'db2setintegrityfor<dbname>.'||TABNAME||'immediatechecked'fromsyscat.tableswhereTABSCHEMA='<SCHEMA>'an dSTATUS='C'"以数据库名meibof,SCHEMA名meibof为例:查出有14张表需要转换成正常状态。

在上一条语句末加上>filename.sh把要添加的sql语句添加到脚本文件如下例:用vi文本编辑器打开脚本文件:1)在第一行加入连接数据库sql语句;2)在最后一行加入commit命令,db2commit执行完后再次检查发现没有需要更正的:说明:如果还有需要更正的表,则反复执行上述操作。

五、附录5.1db2look用法db2look版本8.2db2look:生成DDL以便重新创建在数据库中定义的对象语法:db2look-dDBname[-e][-uCreator][-zSchema][-tTname1Tname2...TnameN][-twTname][-h][-oFname][-a][-m][-c][-r][-l][-x][-xd][-f][-fd][-tdx][-noview][-iuserID][-wpassword][-vVname1Vname2...VnameN][-wrapperWrapperName][-serverServerName][-nofed]db2look-dDBname[-uCreator][-s][-g][-a][-tTname1Tname2...TnameN][-p][-oFname][-iuserID][-wpassword]db2look[-h]-d:数据库名称:这必须指定-e:抽取复制数据库所需要的DDL文件此选项将生成包含DDL语句的脚本可以对另一个数据库运行此脚本以便重新创建数据库对象此选项可以和-m选项一起使用-u:创建程序标识:若-u和-a都未指定,则将使用$USER如果指定了-a选项,则将忽略-u选项-z:模式名:如果同时指定了-z和-a,则将忽略-z联合部分的模式名被忽略-t:生成指定表的统计信息可以指定的表的数目最多为30-tw:为名称与表名的模式条件(通配符)相匹配的表生成DDL当指定了-tw选项时,-t选项会被忽略-v:只为视图生成DDL,当指定了-t时将忽略此选项-h:更详细的帮助消息-o:将输出重定向到给定的文件名如果未指定-o选项,则输出将转到stdout-a:为所有创建程序生成统计信息如果指定了此选项,则将忽略-u选项-m:在模拟方式下运行db2look实用程序此选项将生成包含SQLUPDATE语句的脚本这些SQLUPDATE语句捕获所有统计信息可以对另一个数据库运行此脚本以便复制初始的那一个当指定了-m选项时,将忽略-p、-g和-s选项-c:不要生成模拟的COMMIT语句除非指定了-m或-e,否则将忽略此选项将不生成CONNECT和CONNECTRESET语句省略了COMMIT。

在执行脚本之后,需要显式地进行落实。

-r:不要生成模拟的RUNSTATS语句缺省值为RUNSTATS。

仅当指定了-m时,此选项才有效-l:生成数据库布局:数据库分区组、缓冲池和表空间。

-x:如果指定了此选项,则db2look实用程序将生成授权DDL对于现有已授权特权,不包括对象的原始定义器-xd:如果指定了此选项,则db2look实用程序将生成授权DDL对于现有已授权特权,包括对象的原始定义器-f:抽取配置参数和环境变量如果指定此选项,将忽略-wrapper和-server选项-fd:为opt_buffpage和opt_sortheap以及其它配置和环境参数生成db2fopt语句。

-td:将x指定为语句定界符(缺省定界符为分号(;))应该与-e选项一起使用(如果触发器或者SQL例程存在的话)-p:使用明文格式-s:生成postscript文件此选项将为您生成postscript文件当设置了此选项时,将除去所有latex和tmpps文件所需的(非IBM)软件:LaTeX和dvips注意:文件psfig.tex必须在LaTeX输入路径中-g:使用图形来显示索引的页访存对必须安装Gnuplot,并且<psfig.tex>必须在您的LaTeX输入路径中还将随LaTeX文件一起生成<filename.ps>文件-i:登录到数据库驻留的服务器时所使用的用户标识-w:登录到数据库驻留的服务器时所使用的密码-noview:不要生成CREATEVIEWddl语句-wrapper:为适用于此包装器的联合对象生成DDL生成的对象可能包含下列各项:包装器、服务器、用户映射、昵称、类型映射、函数模板、函数映射和索引规范-server:为适用于此服务器的联合对象生成DDL生成的对象可能包含下列各项:包装器、服务器、用户映射、昵称、类型映射、函数模板、函数映射和索引规范-nofed:不要生成FederatedDDL如果指定此选项,将忽略-wrapper和-server选项LaTeX排版:latexfilename.tex以获得filename.dvi示例:db2look-dDEPARTMENT-uwalid-e-odb2look.sql--这将生成由用户WALID创建的所有表和联合对象的DDL语句--db2look输出被发送到名为db2look.sql的文件中示例:db2look-dDEPARTMENT-zmyscm1-e-odb2look.sql--这将为模式名为MYSCM1的所有表生成DDL语句--还将生成$USER创建的所有联合对象的DDL。

--db2look输出被发送到名为db2look.sql的文件中示例:db2look-dDEPARTMENT-uwalid-m-odb2look.sql--这将生成UPDATE语句以捕获关于用户WALID创建的表/昵称的统计信息--db2look输出被发送到名为db2look.sql 的文件中示例:db2look-dDEPARTMENT-uwalid-e-wrapperW1-odb2look.sql--这将生成由用户WALID创建的所有表的DDL语句--还将生成适用于包装器W1的用户WALID所创建所有联合对象的DDL--db2look输出被发送到名为db2look.sql的文件中示例:db2look-dDEPARTMENT-uwalid-e-serverS1-odb2look.sql--这将生成由用户WALID创建的所有表的DDL语句--还将生成适用于服务器S1的用户WALID所创建所有联合对象的DDL--db2look输出被发送到名为db2look.sql的文件中5.2db2move用法db2move<database-name><action>[<option><value>]首先,您必须指定数据库名(想要移动的表所在的数据库)和要执行的操作(export和import或load)。

然后指定一个选项来定义操作的范围。

例如,可以将一个操作限制在特定的表(-tn)、表空间(-ts)、表创建者(-tc)或模式名(-sn)范围内。

指定表、表空间或表的创建者的一个子集只对export操作有效。

如果指定多个值,就必须使用逗号将其分隔开;在值列表项之间不允许有空格。

可以指定的项最多为10个。

Export同时会导出建表命令!另外,也可以指定-tf选项,此时要使用一个文件名作为参数,其中列出了要导出的表名;在该文件中,每行只能列出一个完整的表名。

您还可以指定以下内容:-ioimport-option指定DB2的import工具可以运行的一种模式。

相关文档
最新文档