部署pcs集群¶
安装pcs¶
yum install pcs -y
启动pcs¶
systemctl enable pcsd
systemctl start pcsd
创建集群¶
先为pcs设置统一的密码¶
这里我们有三个节点node1 node2 node3
for i in `seq 1 3`;do ssh node$i "echo redhat|passwd --stdin hacluster";done
添加验证¶
这里我们在node1上操作
pcs cluster auth node1 node2 node3
然后打开浏览器访问,比如我们访问node1,, https://node1:2224
使用用户名hacluster,密码redhat。
常用操作¶
查看集群状态¶
crm_mon -1
设置指定节点node1为故障节点(维护模式)¶
pcs cluster standby node1
恢复指定节点node1¶
pcs cluster unstandby node1
停止当前集群节点¶
pcs cluster stop
启动当前集群节点¶
pcs cluster start
停止所有集群节点¶
pcs cluster stop --all
启动所有集群节点¶
pcs cluster start --all
将资源vip移动的指定节点node3¶
pcs resource move vip node3
查看资源组列表¶
pcs resource group list
查看节点id和票数¶
[root@node2 ~]# corosync-quorumtool -l
Membership information
----------------------
Nodeid Votes Name
1 1 node1
2 1 node2 (local)
3 1 node3
4 1 node4
修改指定节点的票数¶
$ vim /etc/corosync/corosync.conf
node {
ring0_addr: node3
nodeid: 3
quorum_votes: 3
}
开启日志文件并指定日志文件路径¶
logging {
to_syslog: yes
to_file: yes
logfile: /var/log/cluster/cluster.lo
}
使配置文件生效¶
pcs cluster reload corosync --all
从集群里删除指定节点¶
pcs cluster node remove node4
安装fence¶
yum install fence-virt* -y
创建fence的key¶
dd if=/dev/zero of=/etc/cluster/fence_kvm.key bs=1024 count=4
设置fence¶
fence_vpcs cluster node remove node3irtd -c
通过fence重启指定服务器¶
fence_xvm -o reboot -H node2
资源的约束条件¶
限制—资源的约束条件
colocation—保证所有的资源在同一台机器上运行 location—保证哪个节点优先运行资源 order—保证资源的自动顺序
把多个资源放在一个group里,往group存放的顺序很重要
放在同一个group里的资源 使用会保持在同一台机器运行
使用group的话,实现了两种约束条件
colocation order
如果我们想把资源从一台机器移动到另一台机器上的话,我们只要移动vip就可以了,也就是group里的第一个资源。 group内的其他资源,始终会跟随第一个资源。