11gR2 RAC 修改IP地址
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
11gR2 RAC 修改IP地址
11gR2 RAC 修改IP地址 (1)
一修改Public和Private网络IP (2)
场景1:只有修改IP地址,网络接口,子网和子网掩码不变 (2)
场景2:IP,子网,子网掩码都改变 (2)
二修改VIP (4)
三修改SCAN VIP (5)
一修改Public和Private网络IP
场景1:只有修改IP地址,网络接口,子网和子网掩码不变
例如,从192.168.1.10改成192.168.1.20,网络接口和子网相同。
操作步骤如下
1停止所有节点的集群。
2主机层面修改IP,hosts文件、DNS修改对应信息。
3启动集群。
场景2:IP,子网,子网掩码都改变
示例环境信息如下
注意事项:在11.2版本的集群件,网络配置信息不仅存在OCR中,还会存在gpnp profile 中。
如果主机网络信息与集群中配置的信息不一致会导致CRS服务无法启动,所以修改IP 的顺序很重要。
关于Public IP和VIP的修改,下面操作过程适用于用hosts文件或DNS配置IP的环境,不适用于使用GNS环境。
1 备份集群配置信息
备份GPNP Profile
$ cd $GRID_HOME/gpnp/<hostname>/profiles/peer/
$ cp -p profile.xml profile.xml.bk
备份OCR
检查备份信息
[grid@rac1 ~]$ ocrconfig -showbackup
手动备份
[root@rac1 ~]# ocrconfig -manualbackup
2 获取OCR配置的网络信息
# oifcfg getif
eth0 192.168.56.0 global public
eth1 10.0.0.0 global cluster_interconnect
public 网络用于数据库与客户端的通信,VIP与public用相同的网络。
cluster_interconnect 网络用户RDBMS/ASM内存融合,从11gR2开始,也用于集群心跳。
3 修改cluster_interconnect信息
确保Clusterware在所有节点处于运行状态
用grid用户执行
获取当前信息
[grid@rac1 peer]$ oifcfg getif
eth0 192.168.56.0 global public
eth1 10.0.0.0 global cluster_interconnect
增加新的cluster_interconnect信息
[grid@rac1 peer]$ oifcfg setif -global eth1/10.1.1.0:cluster_interconnect
[grid@rac1 peer]$ oifcfg getif
eth0 192.168.56.0 global public
eth1 10.0.0.0 global cluster_interconnect
eth1 10.1.1.0 global cluster_interconnect
4 修改public信息,grid用户执行
[grid@rac1 peer]$ oifcfg delif -global eth0/192.168.56.0
[grid@rac1 peer]$ oifcfg getif
eth1 10.0.0.0 global cluster_interconnect
eth1 10.1.1.0 global cluster_interconnect
[grid@rac1 peer]$ oifcfg setif -global eth0/192.168.1.0:public
[grid@rac1 peer]$ oifcfg getif
eth1 10.0.0.0 global cluster_interconnect
eth1 10.1.1.0 global cluster_interconnect
eth0 192.168.1.0 global public
5 所有节点上停止集群,禁止crs在系统启动时候启动。
用root用户执行
# crsctl stop crs
# crsctl disable crs
6 修改所有节点的物理网卡地址,hosts文件,确认可用
/etc/sysconfig/network-scripts修改ifcfg-eth0、ifcfg-eth1配置文件的IP地址
配置/etc/hosts文件
重启网络服务,并检查网络配置及连通性
[root@rac1 ~]# service network restart
[root@rac1 ~]# ifconfig –a
7 启动集群
[root@rac1 ~]# crsctl enable crs
CRS-4622: Oracle High Availability Services autostart is enabled.
[root@rac1 ~]# crsctl start crs
CRS-4123: Oracle High Availability Services has been started.
8 删除没用的cluster_interconnect配置信息
[grid@rac1 ~]$ oifcfg getif
eth1 10.0.0.0 global cluster_interconnect
eth1 10.1.1.0 global cluster_interconnect
eth0 192.168.1.0 global public
[grid@rac1 ~]$ oifcfg delif -global eth1/10.0.0.0
[grid@rac1 ~]$ oifcfg getif
eth1 10.1.1.0 global cluster_interconnect
eth0 192.168.1.0 global public
二修改VIP
Grid用户执行,按照第一章步骤修改完IP启动后,vip服务将不会启动,调到第2步修改VIP。
1 停止资源
$ srvctl stop instance -d <db_name> -n <node_name> (optional)
$ srvctl stop vip -n <node_name> -f
[grid@rac1 ~]$ srvctl stop instance -d racdb -n rac1
[grid@rac1 ~]$ srvctl stop instance -d racdb -n rac2
[grid@rac1 ~]$ srvctl stop vip -n rac1 -f
[grid@rac1 ~]$ srvctl stop vip -n rac2 -f
注意:-f参数会同时停止监听资源,如果不带需要先停止监听。
2 修改VIP配置信息
root用户执行
[root@rac1 ~]# srvctl modify nodeapps -n rac1 -A rac1-vip/255.255.255.0/eth0
[root@rac1 ~]# srvctl modify nodeapps -n rac2 -A rac2-vip/255.255.255.0/eth0
[root@rac1 ~]# srvctl config nodeapps -a
Network exists: 1/192.168.1.0/255.255.255.0/eth0, type static
VIP exists: /rac1-vip/192.168.1.12/192.168.1.0/255.255.255.0/eth0, hosting node rac1
VIP exists: /rac2-vip/192.168.1.13/192.168.1.0/255.255.255.0/eth0, hosting node rac2
3 启动VIP资源
[grid@rac1 ~]$ srvctl start vip -n rac1
[grid@rac1 ~]$ srvctl start vip -n rac2
[grid@rac1 ~]$ srvctl start listener -n rac1
PRCC-1015 : LISTENER was already running on rac1
PRCR-1004 : Resource ora.LISTENER.lsnr is already running
[grid@rac1 ~]$ srvctl start instance -d racdb -n rac1
PRCC-1015 : racdb was already running on rac1
PRCR-1004 : Resource ora.racdb.db is already running
三修改SCAN VIP
1 查询原有配置信息
[root@rac2 ~]# srvctl config scan
SCAN name: rac-cluster-scan, Network: 1/192.168.1.0/255.255.255.0/eth0 SCAN VIP name: scan1, IP: /rac-cluster-scan/192.168.56.15
2 停止资源
[grid@rac2 ~]$ srvctl stop scan_listener
[grid@rac2 ~]$ srvctl stop scan
3 修改scan配置
[root@rac2 ~]# srvctl modify scan -n rac-cluster-scan
[root@rac2 ~]# srvctl config scan
SCAN name: rac-cluster-scan, Network: 1/192.168.1.0/255.255.255.0/eth0 SCAN VIP name: scan1, IP: /rac-cluster-scan/192.168.1.15
4 启动资源
[grid@rac2 ~]$ srvctl start scan
[grid@rac2 ~]$ srvctl start scan_listener
更新scan_listenser配置
[grid@rac2 ~]$ srvctl modify scan_listener –u
[grid@rac1 ~]$ srvctl config scan
SCAN name: rac-cluster-scan, Network: 1/192.168.1.0/255.255.255.0/eth0 SCAN VIP name: scan1, IP: /rac-cluster-scan/192.168.1.15
四检查集群状态
[root@rac1 ~]# crsctl stat res -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS --------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
ONLINE ONLINE rac1
ONLINE ONLINE rac2
ora.LISTENER.lsnr
ONLINE ONLINE rac1
ONLINE ONLINE rac2
ora.OCR_VOTE.dg
ONLINE ONLINE rac1
ONLINE ONLINE rac2
ora.asm
ONLINE ONLINE rac1 Started
ONLINE ONLINE rac2 Started
ora.gsd
OFFLINE OFFLINE rac1
OFFLINE OFFLINE rac2
work
ONLINE ONLINE rac1
ONLINE ONLINE rac2
ora.ons
ONLINE ONLINE rac1
ONLINE ONLINE rac2
ora.registry.acfs
ONLINE ONLINE rac1
ONLINE ONLINE rac2
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
1 ONLINE ONLINE rac2
ora.cvu
1 ONLINE ONLINE rac2
ora.oc4j
1 ONLINE ONLINE rac2
ora.rac1.vip
1 ONLINE ONLINE rac1
ora.rac2.vip
1 ONLINE ONLINE rac2
ora.racdb.db
1 ONLINE ONLINE rac
2 Open
2 ONLINE ONLINE rac1 Open ora.scan1.vip
1 ONLINE ONLINE rac2
[root@rac1 ~]#。