思路:gfs2共享/usr/sap/QAS/ASCS00,nfs挂载/sapmnt
1.主机需求:2台+3个ip地址
2. 更新hosts文件
3. 关闭network manager,启动ntp服务
service NetworkManager stop && chkconfig NetworkManager off
vi /etc/ntp.conf
logfile /var/log/ntp.log
service ntpd start && ntpq -p
chkconfig ntpd on
4. RHCS集群配置安装源(两个节点均需要配置)
vi /etc/yum.repos.d/local.repo
[redhat66]
name=redhat66
baseurl=http://ip:8080/redhat66
gpgcheck=0
enabled=1
gpgkey=xxxxxx
[HighAvailability]
name=HighAvailability
baseurl=http://ip:8080/redhat66/HighAvailability/
gppcheck=0
enabled=1
gpgkey=xxxxxx
(没这个会报错:Public key for xxx.rpm is not installed)
[ResilientStorage]
name=ResilientStorage
baseurl=http://ip:8080/redhat66/ResilientStorage/
enabled=1
gpgcheck=0
gpgkey=xxxxxx
yum clean all && yum makecache
5.安装集群服务
yum install -y ricci rgmanager cman gfs2
ricci:同步集群配置和集群状态,创建集群要用到
rgmanager:集群资源管理
cman:集群守护进程,配置文件/etc/cluster/cluster.conf
安装完后检查:rpm -qa ricci cman rgmanager
6.配置ricci账号密码
passwd ricci
启动集群服务
service ricci start; chkconfig ricci on
service rgmanager start;chkconfig rgmanager on
节点开机自启如下服务
chkconfig rgmanager on
chkconfig ricci on (管理主机是luci,被管理的2个节点是ricci)
chkconfig cman on
chkconfig clvmd on
chkconfig gfs2 on
7.GFS文件系统
使用gfs文件系统,需要安装rpm包,查询如下rpm -qa|grep gfs
gfs2-utils-3.0.12.1-68.el6.x86_64
格式化:mkfs.gfs2 -p lock_dlm -t 集群名:逻辑卷名 -j2 设备名
查看服务service gfs2 status
解决:在/etc/fstab里加入/dev/mapper/vg_tsapmnt /sapmnt gfs2 defaults 0 0
再次查看服务不报错,注意:在挂载前启cman服务然后是gfs服务
挂载:
在第二台识别不出来GFS文件这样处理:
然后mount /dev/vg_tsapmnt/lv_sapmnt /sapmnt
[[email protected] ~]# df -Th
Filesystem Type Size Used Avail Use% Mounted on
/dev/sda3 ext4 33G 4.8G 27G 16% /
tmpfs tmpfs 16G 32M 16G 1% /dev/shm
/dev/sda1 ext4 477M 33M 419M 8% /boot
/dev/sda4 ext4 30G 10G 18G 36% /sapcds
/dev/mapper/vg_tsapmnt-lv_sapmnt gfs2 14G 4.3G 9.8G 31% /sapmnt
集群配置ui(luci在tsapsp3),具体操作
安装luci: yum install –y luci (图形管理界面,图形服务端口为8084)
service luci start; chkconfig luci on
打开浏览器访问: https://ip:8084,账号密码为系统账号root及密码
点击创建,2台虚机会自动重启,然后创建成功
这两台虚机显示加入到了集群qas_clu_sap里
如果两边虚机的ricci,rgmanage,cman服务正常,那么就可以用clustat看到如下显示:
9. 配置fence(用于集群中节点出现“脑裂”现象后处理方式,我们在这里用的是vmware
提供的soap接口作为集群的fence设备)。
查看主机UUID,dmidecode -t 1 或者:
fence_vmware_soap -z -l [email protected](vcenter账号) –p -a IP(vcenter IP) -o list | grep tsapsp3
然后add fence method,以tsapsap3为例:
同样方法配置tsapsp2节点,配置fence到此结束
10.配置失败转移策略
数字级别低的(数字1)为主节点,高的(数字2)为备节点
10. 加资源
配置完毕。