ホームページ  >  記事  >  データベース  >  Oracle RAC (11.2.0.4版本) For AIX 6.1安装手册

Oracle RAC (11.2.0.4版本) For AIX 6.1安装手册

WBOY
WBOYオリジナル
2016-06-07 15:20:532233ブラウズ

【部分引用别人的文档修改而成,实际经过安装验证的文档】 Oracle Rac 11GR2(11.2.0.4) For AIX6.1ASM安装手册 部分截图采用了网上别人的图片以及部分章节 2 安装环境说明 节点 节点名称 实例名称 数据库名称 处理器 RAM 操作系统 Rac1 rac1 Rac 4颗cpu*8

 【部分引用别人的文档修改而成,实际经过安装验证的文档】

Oracle Rac 11GR2(11.2.0.4)

For AIX6.1+ASM安装手册


部分截图采用了网上别人的图片以及部分章节

2 安装环境说明

 

节点

节点名称

实例名称

数据库名称

处理器

RAM

操作系统

Rac1

rac1

Rac

4颗cpu*8核*4228Mhz

32GB

AIX6.1

Rac2

rac2

4颗cpu*8核*4228Mhz

32GB

AIX6.1

网络配置

节点名称

公共 IP 地址

专用 IP 地址

虚拟 IP 地址

SCAN 名称

SCAN IP 地址

Rac1

172.1.1.204

192.168.0.204

172.1.1.206

Scan-ip

172.1.1.208

Rac2

172.1.1.205

192.168.0.205

172.1.1.207

Oracle 软件组件

软件组件

操作系统用户

主组

辅助组

主目录

Oracle 基目录/Oracle 主目录

Grid Infra

grid

oinstall

asmadmin、asmdba、asmoper、oinstall

/home/grid

/u01/app/grid

/u01/app/11.2/grid

Oracle RAC

oracle

oinstall

dba、oper、asmdba、oinstall

/home/oracle

/u01/app /oracle

/u01/app/oracle/product/11.2.0/db_1

存储组件

存储组件

文件系统

卷大小

ASM 卷组名

ASM 冗余

设备名

OCR/VOTING

ASM

50G

CRSDG

normal

/dev/rhdisk4-6

数据

ASM

600G

DATA

normal

/dev/rhdisk7-9

恢复区

ASM

100G

FRA_ARCHIVE

Normal

/dev/rhdisk10-12

 






























在Oracle RAC架构中共有四种IP,分别是Public IP,Private IP,VIP,SCAN IP。它们的作用如下:

Private IP:私有IP用于节点间同步心跳,这个对于用户层面,可以直接忽略,简单理解,这个IP是用来保证两台服务器同步数据用的。

Public IP:公有IP一般用于管理员使用,用来确保可以操作到正确的机器,也叫真实IP。

VIP:虚拟IP用于客户端应用,一般情况下VIP是飘在配置Public IP地址的网卡上的。VIP支持失效转移,通俗说就是配置该VIP的节点宕机了,另一个主机节点会自动接管该VIP,而客户端没有任何感觉。这也是为什么要使用RAC的原因之一,另一个原因,我认为是负载均衡。客户端在配置tnsnames.ora时,有些场合是要使用的vip,而有些场合又必须使用Public IP。例如,当你在定位一个数据库的死锁时,使用Public IP,可以确保连到你想处理的机器。相反此时使用VIP时,会出现不确定性,因为服务器默认是开启负载均衡的,也就是有可能你想连A机,系统却给你分配了B机。


SCAN IP:在Oracle 11gR2以前,如果数据库采用了RAC架构,在客户端的tnsnames中,需要配置多个节点的连接信息,从而实现诸如负载均衡,failover等等RAC的特性。因此,当数据库RAC集群需要添加或删除节点时,需要及时对客户端机器的tns进行更新,以免出现安全隐患。在11gR2中,为了简化该项配置工作,引入了SCAN(Single ClientAccess Name)的特性,该特性的好处在于,在数据库与客户端之间,添加了一层虚拟的服务层,就是所谓的SCAN IP以及SCAN IP Listener,在客户端仅需要配置SCAN IP的TNS信息,通过SCAN IPListener,连接后台集群数据库。这样,不论集群数据库是否有添加或者删除节点的操作,均不会对client产生影响。


两个RAC节点主机的规划:

网关:10.1.0.254

主机名称

主机别名

类型

IP地址

解析方式

rac1

rac1

Public

172.1.1.204/255.255.255.0

host

rac1-vip

rac1-vip

Virtual

172.1.1.206/255.255.255.0

host

rac1-priv

rac1-priv

Private

192.168.0.204/255.255.255.0

host

rac2

rac2

Public

172.1.1.205/255.255.255.0

host

rac2-vip

rac2-vip

Virtual

172.1.1.207/255.255.255.0

host

rac2-priv

rac2-priv

Private

192.168.0.205/255.255.255.0

host

Scan-ip

Scan-ip

Virtual

172.1.1.208/255.255.255.0

host

2.4 存储盘规划

存储盘名称

大小

用途

hdisk 4

50GB

CRSDG

hdisk 5

51GB

hdisk 6

52GB

hdisk 7

600GB

DATA

hdisk 8

601GB

hdisk 9

602GB

hdisk10

100GB

FRA_ARCHIVE

hdisk11

101GB

hdisk12

102GB

2.5 数据库安全信息

项目名称

用户名

口令或实例

操作系统用户

root

 

数据库网格安装用户

Grid

 

数据库安装用户

oracle

 

集群实例名

rac

 

ASM管理

Sys

 

数据库管理

sys/system

 

审计用户

rac_vault

 

2.6 安装目录规划

安装目录规划原则:建立/u01文件系统用来安装grid、datbase程序。程序都安装在/u01/app下面,对于grid与database分别建立不同的目录,分配不同的权限。其中grid的ORACLE_BASE和ORACLE_HOME建议安装在不同的目录下,具体规划如下:

新建70G lv:oralv  

新建文件系统,挂载点:/u01

grid base目录:/u01/app/grid     #grid用户的ORACLE_BASE

grid asm安装目录:/u01/app/11.2/grid   #grid用户的ORACLE_HOME,也即是安装时的software location

Oracle base目录:/u01/app/oracle      #oracle用户的ORACLE_BASE

注:此规划为后来总结,本次安装中与此略有出入。Grid用户的ORACLE_BASE、ORACLE_HOME都需要手工创建。Oracle用户只创建ORACLE_BASE目录即可。

3 预安装任务列表的检查配置

说明:下面所列检查配置任务,默认需要在所有RAC节点执行,有很少的操作步骤只需在一个节点执行即可,这些步骤会一一说明,在检查配置时应该注意。

3.1 检查主机硬件配置

主机硬件检查包括:可用内存,页面交换空间、可用硬盘空间、/tmp目录可用空间。

1.         使用如下命令查看主机的内存和交换空间,内存至少2.5G,交换空间应为物理可用内存的2倍。

# /usr/sbin/lsattr -HE -l sys0 -a realmem

attribute value  description                   user_settable

 

realmem  32243712 Amount of usable physical memory in Kbytes False

#/usr/sbin/lsps -a

 

2.         检查硬件架构:#/usr/bin/getconf HARDWARE_BITMODE,要求64位硬件架构。

3.         检查集群软件和数据库软件安装目录至少有6.5GB可用空间,/tmp目录至少有1GB可用空间:#df -h。

4.查看主机信息

#prtconf

System Model: IBM,8231-E1D

Machine SerialNumber:

Processor Type:PowerPC_POWER7

ProcessorImplementation Mode: POWER 7

Processor Version:PV_7_Compat

Number OfProcessors: 8

Processor ClockSpeed: 4228 MHz

CPU Type: 64-bit

Kernel Type: 64-bit

LPAR Info: 106-E80AT

Memory Size: 31488MB

Good Memory Size:31488 MB

Platform Firmwarelevel: AL770_052

Firmware Version:IBM,AL770_052

Console Login:enable

Auto Restart: true

Full Core: false

 

Network Information

        Host Name: rac1

        IP Address: 172.1.1.204

        Sub Netmask: 255.255.255.0

        Gateway: 10.1.0.254

        Name Server:

        Domain Name:

 

Paging SpaceInformation

        Total Paging Space: 9216MB

        Percent Used: 1%

 

Volume GroupsInformation

==============================================================================

Active VGs

==============================================================================

rootvg:

PV_NAME           PV STATE          TOTAL PPs   FREE PPs   FREE DISTRIBUTION

hdisk0            active            558        304         111..80..00..01..112

hdisk1           active            558         450         111..86..30..111..112

INSTALLED RESOURCELIST

 

The followingresources are installed on the machine.

+/- = Added ordeleted from Resource List.

*   = Diagnostic support not available.

       

  Model Architecture: chrp

  Model Implementation: Multiple Processor, PCIbus

       

+ sys0                                                                         System Object

+ sysplanar0                                                                    SystemPlanar

* vio0                                                                         Virtual I/O Bus

* vsa1             U78AB.001.WZSKA2R-P1-T2                                      LPARVirtual Serial Adapter

* vty1             U78AB.001.WZSKA2R-P1-T2-L0                                   AsynchronousTerminal

* vsa0             U78AB.001.WZSKA2R-P1-T1                                      LPARVirtual Serial Adapter

* vty0             U78AB.001.WZSKA2R-P1-T1-L0                                   AsynchronousTerminal

* pci8             U78AB.001.WZSKA2R-P1                                         PCIExpress Bus

+ sissas2          U78AB.001.WZSKA2R-P1-C6-T1                                   PCI Expressx8 Ext Dual-x4 3Gb SAS Adapter

* sas2             U78AB.001.WZSKA2R-P1-C6-T1                                   ControllerSAS Protocol

* sfwcomm6                                                                     SAS Storage Framework Comm

* sata2            U78AB.001.WZSKA2R-P1-C6-T1                                   ControllerSATA Protocol

* pci7             U78AB.001.WZSKA2R-P1                                         PCIExpress Bus

+ ent6             U78AB.001.WZSKA2R-P1-C5-T1                                   2-Port Gigabit Ethernet-SX PCI-ExpressAdapter (14103f03)

+ ent7             U78AB.001.WZSKA2R-P1-C5-T2                                   2-PortGigabit Ethernet-SX PCI-Express Adapter (14103f03)

* pci6             U78AB.001.WZSKA2R-P1                                         PCI Express Bus

+ ent4             U78AB.001.WZSKA2R-P1-C4-T1                                   2-PortGigabit Ethernet-SX PCI-Express Adapter (14103f03)

+ ent5             U78AB.001.WZSKA2R-P1-C4-T2                                   2-Port Gigabit Ethernet-SX PCI-ExpressAdapter (14103f03)

* pci5             U78AB.001.WZSKA2R-P1                                         PCIExpress Bus

+ fcs2             U78AB.001.WZSKA2R-P1-C3-T1                                   8Gb PCIExpress Dual Port FC Adapter (df1000f114108a03)

* fcnet2           U78AB.001.WZSKA2R-P1-C3-T1                                   FibreChannel Network Protocol Device

+ fscsi2           U78AB.001.WZSKA2R-P1-C3-T1                                   FC SCSI I/OController Protocol Device

* sfwcomm2         U78AB.001.WZSKA2R-P1-C3-T1-W0-L0                             Fibre ChannelStorage Framework Comm

+ fcs3             U78AB.001.WZSKA2R-P1-C3-T2                                   8Gb PCIExpress Dual Port FC Adapter (df1000f114108a03)

* fcnet3           U78AB.001.WZSKA2R-P1-C3-T2                                   FibreChannel Network Protocol Device

+ fscsi3           U78AB.001.WZSKA2R-P1-C3-T2                                   FC SCSI I/OController Protocol Device

* sfwcomm3         U78AB.001.WZSKA2R-P1-C3-T2-W0-L0                             Fibre ChannelStorage Framework Comm

* pci4             U78AB.001.WZSKA2R-P1                                         PCIExpress Bus

+ fcs0             U78AB.001.WZSKA2R-P1-C2-T1                                   8Gb PCI ExpressDual Port FC Adapter (df1000f114108a03)

* fcnet0           U78AB.001.WZSKA2R-P1-C2-T1                                   FibreChannel Network Protocol Device

+ fscsi0           U78AB.001.WZSKA2R-P1-C2-T1                                   FC SCSI I/OController Protocol Device

* hdisk8          U78AB.001.WZSKA2R-P1-C2-T1-W5000D3100070E30C-L5000000000000  Compellent FC SCSI Disk Drive

* hdisk9          U78AB.001.WZSKA2R-P1-C2-T1-W5000D3100070E30C-L6000000000000  Compellent FC SCSI Disk Drive

* sfwcomm0         U78AB.001.WZSKA2R-P1-C2-T1-W0-L0                             Fibre ChannelStorage Framework Comm

+ fcs1             U78AB.001.WZSKA2R-P1-C2-T2                                   8Gb PCIExpress Dual Port FC Adapter (df1000f114108a03)

* fcnet1           U78AB.001.WZSKA2R-P1-C2-T2                                   FibreChannel Network Protocol Device

+ fscsi1           U78AB.001.WZSKA2R-P1-C2-T2                                   FC SCSI I/OController Protocol Device

* hdisk4          U78AB.001.WZSKA2R-P1-C2-T2-W5000D3100070E30A-L1000000000000  Compellent FC SCSI Disk Drive

*hdisk5          U78AB.001.WZSKA2R-P1-C2-T2-W5000D3100070E30A-L2000000000000  Compellent FC SCSI Disk Drive

*hdisk6           U78AB.001.WZSKA2R-P1-C2-T2-W5000D3100070E30A-L3000000000000  Compellent FC SCSI Disk Drive

*hdisk7          U78AB.001.WZSKA2R-P1-C2-T2-W5000D3100070E30A-L4000000000000  Compellent FC SCSI Disk Drive

* sfwcomm1         U78AB.001.WZSKA2R-P1-C2-T2-W0-L0                             Fibre Channel StorageFramework Comm

* pci3             U78AB.001.WZSKA2R-P1                                         PCIExpress Bus

+ ent0             U78AB.001.WZSKA2R-P1-C7-T1                                   4-PortGigabit Ethernet PCI-Express Adapter (e414571614102004)

+ ent1             U78AB.001.WZSKA2R-P1-C7-T2                                   4-PortGigabit Ethernet PCI-Express Adapter (e414571614102004)

+ ent2             U78AB.001.WZSKA2R-P1-C7-T3                                   4-Port Gigabit Ethernet PCI-ExpressAdapter (e414571614102004)

+ ent3             U78AB.001.WZSKA2R-P1-C7-T4                                   4-PortGigabit Ethernet PCI-Express Adapter (e414571614102004)

* pci2             U78AB.001.WZSKA2R-P1                                         PCI ExpressBus

+ sissas1          U78AB.001.WZSKA2R-P1-C18-T1                                  PCIe x4Internal 3Gb SAS RAID Adapter

* sas1             U78AB.001.WZSKA2R-P1-C18-T1                                  ControllerSAS Protocol

* sfwcomm5                                                                     SAS Storage Framework Comm

+ ses0             U78AB.001.WZSKA2R-P2-Y2                                      SASEnclosure Services Device

+ ses1             U78AB.001.WZSKA2R-P2-Y1                                      SASEnclosure Services Device

* tmscsi1         U78AB.001.WZSKA2R-P1-C18-T1-LFE0000-L0                       SAS I/O ControllerInitiator Device

* sata1            U78AB.001.WZSKA2R-P1-C18-T1                                  Controller SATAProtocol

* pci1             U78AB.001.WZSKA2R-P1                                         PCIExpress Bus

* pci9             U78AB.001.WZSKA2R-P1                                         PCIBus

+ usbhc0           U78AB.001.WZSKA2R-P1                                         USBHost Controller (33103500)

+ usbhc1           U78AB.001.WZSKA2R-P1                                         USBHost Controller (33103500)

+ usbhc2           U78AB.001.WZSKA2R-P1                                         USB Enhanced HostController (3310e000)

* pci0             U78AB.001.WZSKA2R-P1                                         PCIExpress Bus

+ sissas0          U78AB.001.WZSKA2R-P1-T9                                      PCIe x4Planar 3Gb SAS RAID Adapter

* sas0             U78AB.001.WZSKA2R-P1-T9                                     Controller SAS Protocol

* sfwcomm4                                                                     SAS StorageFramework Comm

+ hdisk0           U78AB.001.WZSKA2R-P3-D1                                      SAS DiskDrive (300000 MB)

+ hdisk1          U78AB.001.WZSKA2R-P3-D2                                      SAS DiskDrive (300000 MB)

+ hdisk2          U78AB.001.WZSKA2R-P3-D3                                      SAS Disk Drive (300000 MB)

+ hdisk3          U78AB.001.WZSKA2R-P3-D4                                      SAS DiskDrive (300000 MB)

+ ses2             U78AB.001.WZSKA2R-P2-Y1                                      SASEnclosure Services Device

* tmscsi0         U78AB.001.WZSKA2R-P1-T9-LFE0000-L0                           SAS I/O ControllerInitiator Device

* sata0            U78AB.001.WZSKA2R-P1-T9                                     Controller SATA Protocol

+ cd0              U78AB.001.WZSKA2R-P3-D7                                      SATADVD-RAM Drive

+ L2cache0                                                                     L2 Cache

+ mem0                                                                         Memory

+ proc0                                                                         Processor

+ proc4                                                                        Processor

+ proc8                                                                        Processor

+ proc12                                                                       Processor

+ proc16                                                                       Processor

+ proc20                                                                       Processor

+ proc24                                                                       Processor

+ proc28                                                                       Processor

 

3.2 主机网络配置

主机网络设置检查:hosts文件系修改、网卡IP配置。

1.       编辑hosts文件,将如下内容添加到hosts文件中,指定Public IP、VIP、Private IP。

#public

172.1.1.204  rac1

172.1.1.205  rac2

 

# private

192.168.0.204     rac1-priv

192.168.0.205     rac2-priv

 

# virtual

172.1.1.206  rac1-vip

172.1.1.207  rac2-vip

 

#scan

172.1.1.208  scan-ip

2.       网卡的IP地址已经在系统安装过程中配置完成,可以使用如下命令检查IP配置情况:#ifconfig–a。

3.3 检查主机软件配置

主机软件配置检查包括:操作系统版本、系统内核版本、必须软件包安装。

1.       检查操作系统版本:#oslevel -s,最低要求6100-02-01。

2.       检查操作系统内核:#bootinfo -K,要求64位内核。

3.       检出主机SSH配置:#lssrc -ssshd。

4.       系统必须安装如下(或更高版本)软件包:

bos.adt.base

bos.adt.lib

bos.adt.libm

bos.perf.libperfstat                   6.1.2.1 or later

bos.perf.perfstat

bos.perf.proctools

xlC.aix61.rte.                           10.1.0.0 or later

xlC.rte.                              10.1.0.0or later

gpfs.base                          3.2.1.8or later(当使用GPFS共享文件系统时安装)

可以使用如下命令:

# lslpp -l bos.adt.*

# lslpp -l bos.perf.*

# lslpp -l xlC.*

# lslpp -l gpfs.*

来查看系统是否已经安装相应的软件包。如果系统中缺少上述软件包或者版本较低,请使用系统安装光盘安装相关软件包。

AIX 6.1需要安装如下软件包:

bos.adt.base

bos.adt.lib

bos.adt.libm

bos.perf.libperfstat 6.1.2.1 or later

bos.perf.perfstat

bos.perf.proctools

rsct.basic.rte

rsct.compat.clients.rte

xlC.aix61.rte 10.1.0.0 (or later)

AIX 5.3需要安装如下软件包:

bos.adt.base

bos.adt.lib

bos.adt.libm

bos.perf.libperfstat 5.3.9.0 or later

bos.perf.perfstat

bos.perf.proctools

rsct.basic.rte

rsct.compat.clients.rte

xlC.aix50.rte 10.1.0.0 (or later)

以上filesets安装与否可以用命令lslpp -l进行检查确认。默认安装是不全的,需要手工进行添加。同时系统盘的版本与上述也有差异,安装尝试。

其它单个补丁的要求如下:

AIX 6L installations All AIX 6L 6.1 installations Authorized Problem Analysis

Reports (APARs) for AIX 5L v. 5.3 ML06, and the following AIX

fixes:

IZ41855

IZ51456

IZ52319

AIX 5L installations All AIX 5L 5.3 installations Authorized Problem Analysis

Reports (APARs) for AIX 5L v. 5.3 ML06, and the following AIX

fixes:

IZ42940

IZ49516

IZ52331

验证:#/usr/sbin/instfix -i -k IZ41855

安装补丁:

由于6100-04不需要任何补丁,所以我们将系统升级到6100-04(但是安装grid的时候还是出现3个包未安装提示)

1、 从IBM官网上下载6100-04-00-0943

2、 将补丁文件上传至/tmp/tools下

3、smit update_all

选择不提交,保存被覆盖的文件,可以回滚操作,接受许可协议

COMMIT software updates?                          No

SAVE replaced files?                              yes

ACCEPT new license agreements?                    Yes

升级完后查看:

# oslevel -s

6100-04-01-0944

 

5.       检查java版本:#java-version,要求1.6版本64位。

 

3.4 创建操作系统组和用户

建立用户组,用户和目录(简易版,如果是11.2.0.4以上,rootpre.sh会要求更为细致的组,比如asmadmin等等,具体可参考文档)

创建相应的操作系统组和用户,先创建组,然后创建用户:

?  以root用户使用如下命令为网格及Oracle用户创建OS组:

#mkgroup-'A' id='501' adms='root' oinstall

#mkgroup-'A' id='502' adms='root' asmadmin

#mkgroup-'A' id='503' adms='root' asmdba

#mkgroup-'A' id='504' adms='root' asmoper

#mkgroup-'A' id='505' adms='root' dba

#mkgroup-'A' id='506' adms='root' oper

?  创建Oracle软件所有者:

#mkuser id='501' pgrp='oinstall'groups='dba,asmadmin,asmdba,asmoper' home='/home/grid' fsize=-1 cpu=-1 data=-1rss=-1 stack=-1 stack_hard=-1capabilities=CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM,CAP_PROPAGATE grid

#mkuser id='502' pgrp='oinstall'groups='dba,asmdba,oper' home='/home/oracle' fsize=-1 cpu=-1 data=-1 rss=-1stack=-1 stack_hard=-1capabilities=CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM,CAP_PROPAGATE oracle

?  检查上面创建的两个用户:

#id grid

#id oracle

?  使用passwd命令为grid(密码:grid)和oracle(密码:oracle)账户设置密码。

#passwdgrid

#passwdoracle

3.5 创建软件安装目录结构并更改权限

修改磁盘数组为grid oinstall(如果是11.2.0.4以上,根据设置的需求,可能会要求更改为 grid dba,是具体设置而定):

创建Oracle软件相应的目录结构,包括:GRID目录,RDBMS目录。

注意grid用户的BASE目录和HOME目录不能有父子关系。

?  以root用户创建“Oracle inventory 目录”,并更改权限:

#mkdir-p /u01/app/oraInventory

#chown-R grid:oinstall /u01/app/oraInventory

#chmod-R 775 /u01/app/oraInventory

?  以root用户创建“Grid Infrastructure BASE 目录”

#mkdir-p /u01/app/grid

#chowngrid:oinstall /u01/app/grid

#chmod-R 775 /u01/app/grid

?  以root用户创建“Grid Infrastructure Home 目录”

#mkdir-p /u01/app/11.2.0/grid

#chown-R grid:oinstall /u01/app/11.2.0/grid

#chmod-R 775 /u01/app/11.2.0/grid

?  以root用户创建“Oracle Base 目录”

#mkdir-p /u01/app/oracle

#mkdir/u01/app/oracle/cfgtoollogs

#chown-R oracle:oinstall /u01/app/oracle

#chmod-R 775 /u01/app/oracle

?  以root用户创建“Oracle RDBMS Home 目录”

#mkdir-p /u01/app/oracle/product/11.2.0/db_1

#chown-R oracle:oinstall /u01/app/oracle/product/11.2.0/db_1

#chmod-R 775 /u01/app/oracle/product/11.2.0/db_1

3.6 修改用户环境参数文件

如果分别以oracle用户和grid用户修改环境参数文件,修改之后可以使用如下命令使其生效:$.profile。如果使用root用户修改则不需要重新加载环境配置文件。

1.       在rac1节点上设置grid用户和oracle的环境变量参数。

?  grid用户:编辑家目下的.profile文件,添加如下内容:

umask 022

export ORACLE_BASE=/u01/app/grid

export ORACLE_HOME=/u01/app/11.2.0/grid

export ORACLE_SID=+ASM1

export ORACLE_HOSTNAME=rac1

export NLS_LANG=AMERICAN_AMERICA.AL32UTF8

export NLS_DATE_FORMAT="yyyy-mm-ddhh24:mi:ss"

export PATH=$PATH:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch

?  oracle用户:编辑家目下的.profile文件,添加如下内容:

umask 022

export ORACLE_BASE=/u01/app/oracle

exportORACLE_HOME=/u01/app/oracle/product/11.2.0/db_1

export ORACLE_SID=rac1

export ORACLE_HOSTNAME=rac1

export ORACLE_UNQNAME=rac

export NLS_LANG=AMERICAN_AMERICA.AL32UTF8

export NLS_DATE_FORMAT="yyyy-mm-ddhh24:mi:ss"

export PATH=$PATH:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch

2.       在rac2节点上设置grid用户和oracle的环境变量参数。

?  grid用户:编辑家目下的.profile文件,添加如下内容:

umask 022

export ORACLE_BASE=/u01/app/grid

export ORACLE_HOME=/u01/app/11.2.0/grid

export ORACLE_SID=+ASM2

export ORACLE_HOSTNAME=rac2

export NLS_LANG=AMERICAN_AMERICA.AL32UTF8

export NLS_DATE_FORMAT="yyyy-mm-ddhh24:mi:ss"

export PATH=$PATH:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch

?  oracle用户:编辑家目下的.profile文件,添加如下内容:

umask 022

exportORACLE_BASE=/u01/app/oracle

exportORACLE_HOME=/u01/app/oracle/product/11.2.0/db_1

export ORACLE_SID=rac2

export ORACLE_HOSTNAME=rac2

export ORACLE_UNQNAME=rac

export NLS_LANG=AMERICAN_AMERICA.AL32UTF8

export NLS_DATE_FORMAT="yyyy-mm-ddhh24:mi:ss"

export PATH=$PATH:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch

注意:环境变量要注意是否含有空格,虽然安装可以正常进行,但是安装完后命令都不能正常执行,比如你在grid用户执行asmcmd,进入的是一个空实例,你无法管理ASM实例,那么出了问题就回天无力了,所以还是注意检查下,就算安装完了,也需要重新请重装。

3.7 系统部分参数修改

系统参数的修改包括:虚拟内存管理参数、网络参数、系统内核参数、异步IO。

AIX 6.1以后,下属值貌似是缺省值了,跟Oracle installguide一致,因此无需修改:
vmo -p -o minperm%=3
vmo -p -o maxperm%=90
vmo -p -o maxclient%=90
vmo -p -o lru_file_repage=0
vmo -p -o strict_maxclient=1
vmo -p -o strict_maxperm=0

1.       分别使用如下命令查看虚拟内存管理参数,

   vmo -L minperm%

   vmo -L maxperm%

   vmo -L maxclient%

   vmo -L lru_file_repage

   vmo -L strict_maxclient

vmo -L strict_maxperm

如果设置不合适,使用如下命令修改:

    #vmo -p -o minperm%=3

    #vmo -p -o maxperm%=90

    #vmo -p -o maxclient%=90

    #vmo -p -o lru_file_repage=0

    #vmo -p -o strict_maxclient=1

    #vmo -p -o strict_maxperm=0

2.       检查网络参数设置

?  ephemeral参数:

使用命令no -a |fgrep ephemeral可以查看当前系统ephemeral参数设置,建议的参数设置如下

        tcp_ephemeral_high = 65500

        tcp_ephemeral_low = 9000

        udp_ephemeral_high= 65500

        udp_ephemeral_low = 9000

如果系统中参数设置和上述值不一样,使用命令修改:

#no -p -o tcp_ephemeral_low=9000 -o tcp_ephemeral_high=65500

#no -p -o udp_ephemeral_low=9000 -o udp_ephemeral_high=65500

?  使用如下命令修改网络可调整参数:

    #no -r -o rfc1323=1

    #no -r -o ipqmaxlen=512

    #no -p -o sb_max=4194304

    #no -p -o tcp_recvspace=65536

    #no -p -o tcp_sendspace=65536

    #no -p -o udp_recvspace=1351680 该值是udp_sendspace的10倍,但须小于sb_max

#no -p -o udp_sendspace=135168

备注:-r表示reboot后生效,-p表示即刻生效.

3.       检查内核参数maxuproc(建议16384)和ncargs(至少128)

#lsattr -E -l sys0 -a ncargs

#lsattr -E -l sys0 -a maxuproc

如果设置不合适使用如下命令修改:

#chdev -l sys0 -a ncargs=256

#chdev -l sys0 -a maxuproc=16384

4.       检查异步IO是否开启,AIX6.1默认系统已经开启,使用如下命令查询:

#ioo -a | more 或 #ioo -o aio_maxreqs

注意:AIX5.3使用如下命令查看lsattr -El aio0 -a maxreqs

 

3.8 配置共享存储

下面的几步操作均需要在所有节点执行。

1.       修改物理卷的属主和权限:

#chown grid:asmadmin /dev/rhdisk4

#chown grid:asmadmin /dev/rhdisk5

#chown grid:asmadmin /dev/rhdisk6

#chown grid:asmadmin /dev/rhdisk7

#chown grid:asmadmin /dev/rhdisk8

#chown grid:asmadmin /dev/rhdisk9

#chown grid:asmadmin /dev/rhdisk10

#chown grid:asmadmin /dev/rhdisk11

#chown grid:asmadmin /dev/rhdisk12

 

#chmod 660 /dev/rhdisk4

#chmod 660 /dev/rhdisk5

#chmod 660 /dev/rhdisk6

#chmod 660 /dev/rhdisk7

#chmod 660 /dev/rhdisk8

#chmod 660 /dev/rhdisk9

#chmod 660 /dev/rhdisk10

#chmod 660 /dev/rhdisk11

#chmod 660 /dev/rhdisk12

 

2.       修改物理卷属性,共享存储磁盘的reserve_policy属性需要是no,使用如下命令查看:

#lsattr -E -l hdisk4 | grep reserve_policy

#lsattr -E -l hdisk5 | grep reserve_policy

#lsattr -E -l hdisk6 | grep reserve_policy

#lsattr -E -l hdisk7 | grep reserve_policy

#lsattr -E -l hdisk8 | grep reserve_policy

#lsattr -E -l hdisk9 | grep reserve_policy

#lsattr -E -l hdisk10 | grepreserve_policy

#lsattr -E -l hdisk11 | grepreserve_policy

#lsattr -E -l hdisk12 | grepreserve_policy

 

如果需要修改reserve_policy属性,使用如下命令:

#chdev -l hdisk4 -areserve_policy=no_reserve

#chdev -l hdisk5 -areserve_policy=no_reserve

#chdev -l hdisk6 -areserve_policy=no_reserve

#chdev -l hdisk7 -areserve_policy=no_reserve

#chdev -l hdisk8 -areserve_policy=no_reserve

#chdev -l hdisk9 -areserve_policy=no_reserve

#chdev -l hdisk10 -areserve_policy=no_reserve

#chdev -l hdisk11 -areserve_policy=no_reserve

#chdev -l hdisk12 -areserve_policy=no_reserve

3、每台主机的硬盘信息

hdisk0          00f8e8092df611fa                   rootvg          active             

hdisk1          00f8e8082e4a46d5                  rootvg          active

hdisk2          00f8e80857a08edf                  appvg           active 

hdisk3          none                              None                               

#本地磁盘,其中hdisk0和hdisk1做成系统镜像,hdisk2和hdisk3做成镜像用于应用安装

hdisk4          none                                None                               

hdisk5          none                                None                               

hdisk6          none                                None 

#oracle 的OCR和Voting盘,设置为正常冗余                             

hdisk7          none                                None                                

hdisk8          none                                None                               

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。