>_RedHat Cluster – Configurando fence_virt – 1.1

Neste presente tutorial, vou abordar a configuração do fence_virt
Fonte: https://access.redhat.com/site/solutions/293183

O que é Fencing?
É o processo de bloqueio de recursos de distância de um nó cujo estado é incerto.

Mão-na-massa!

Neste primeiro tutorial será configurado o Fence_virt em ambos Nodes do Cluster.

Cenário deste tutorial
2 Servidores físicos com Kvm Instalado
4 Máquinas Virtuais KVM, sendo 2 máquinas para cada servidor físico

 Passo 1 – Em todos os servidores execute o comando abaixo:

# vim /etc/hosts
192.168.1.41    srvdell1        srvdell1.tgl.com.br
192.168.1.43    srvdell2        srvdell2.tgl.com.br
192.168.1.49    centos1         centos1.tgl.com.br
192.168.1.55    centos2         centos2.tgl.com.br
192.168.1.57    centos3         centos3.tgl.com.br
192.168.1.58    centos4         centos4.tgl.com.br

Passo 2 – Em todos os servidores crie o diretório abaixo:

# mkdir /etc/cluster

Passo 3 – Execute no servidor srvdell1.tgl.com.br

# yum update -y
# yum install vim libvirt libvirt-client qemu-kvm virt-manager virt-viewer qemu-kvm-tools bridge-utils xorg-x11-xauth libcanberra-gtk2
# yum install fence-virt fence-virtd fence-virtd-libvirt fence-virtd-multicast fence-virtd-serial
# dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=4k count=1
# scp /etc/cluster/fence_xvm.key root@centos2:/etc/cluster/
# scp /etc/cluster/fence_xvm.key root@centos4:/etc/cluster/

Passo 4 – Execute no servidor srvdell2.tgl.com.br

# yum update -y
# yum install vim libvirt libvirt-client qemu-kvm virt-manager virt-viewer qemu-kvm-tools bridge-utils xorg-x11-xauth libcanberra-gtk2
# yum install fence-virt fence-virtd fence-virtd-libvirt fence-virtd-multicast fence-virtd-serial
# dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=4k count=1
# scp /etc/cluster/fence_xvm.key root@centos1:/etc/cluster/
# scp /etc/cluster/fence_xvm.key root@centos3:/etc/cluster/

Passo 5 – Execute no servidor centos1.tgl.com.br centos3.tgl.com.br

# yum install fence-virt
# cp /etc/cluster/fence_xvm.key /etc/cluster/fence_xvm_srvdell2.key

Passo 6 – Execute no servidor centos2.tgl.com.br e centos4.tgl.com.br

# yum install fence-virt
# cp /etc/cluster/fence_xvm.key /etc/cluster/fence_xvm_srvdell1.key

Passo 7 – Execute no servidor srvdell1.tgl.com.br

# fence_virtd -c

At the prompts use the following values:

accept default serch path
accept multicast as default
accept default multicast address
accept default multicast port
set interface to kvm1 (no meu exemplo a bridge se chama kvm1)
accept default fence_xvm.key path
set backend module to libvirt ( defina como libvirt)
accept default URI
enter “y” to write config

# vim /etc/fence_virt.conf
backends {
        libvirt {
                uri = "qemu:///system";
        }

}

listeners {
        multicast {
                interface = "kvm1";
                port = "1229";
                family = "ipv4";
                address = "225.0.0.12";
                key_file = "/etc/cluster/fence_xvm.key";
        }

}

fence_virtd {
        module_path = "/usr/lib64/fence-virt";
        backend = "libvirt";
        listener = "multicast";
}
# scp /etc/fence_virt.conf root@srvdell2:/etc/

Passo 8 – Copie o arquivos /etc/fence_virt.conf para o Host “srvdell2.tgl.com.br”, em seguida altere as configurações do address para cada Servidor KVM (srvdell1 e srvdell2)

(on srvdell1.tgl.com.br)
address = “225.0.1.12”;

(on srvdell2.tgl.com.br)
address = “225.0.2.12”;

Importante:
O Nome de domínio deve ser o mesmo que listado com o comando virsh list

Exemplo:

[root@srvdell1 cluster]# virsh list
 Id    Nome                           Estado
----------------------------------------------------
 6     centos3.tgl.com.br             executando
 14    centos1.tgl.com.br             executando

[root@srvdell2 cluster]# virsh list
 Id    Nome                           Estado
----------------------------------------------------
 8     centos2.tgl.com.br             executando
 9     centos4.tgl.com.br             executando

Passo 9 – Validando o ambiente
Em ambas as máquinas virtuais faça os testes de comunicação, conforme exemplo abaixo:

[root@centos1 ~]# fence_xvm -o list -a 225.0.2.12 -k /etc/cluster/fence_xvm_srvdell2.key
centos2.tgl.com.br   b5cffafc-6fa4-f1dc-d87f-65ea36140a3b on
centos4.tgl.com.br   002475c6-33a8-40ef-eab7-c4b7a757e377 on
[root@centos1 ~]# fence_xvm -o reboot -a 225.0.2.12 -k /etc/cluster/fence_xvm_srvdell2.key -H centos2.tgl.com.br
[root@centos2 ~]# fence_xvm -o list -a 225.0.1.12 -k /etc/cluster/fence_xvm_srvdell1.key 
centos1.tgl.com.br   3e8a831d-82b3-e921-043e-50e7f432e456 on
centos3.tgl.com.br   0dc1968c-1c0e-8df9-d0f1-487fd9cebd5c on
[root@centos2 ~]# fence_xvm -o reboot -a 225.0.1.12 -k /etc/cluster/fence_xvm_srvdell1.key -H centos3.tgl.com.br
[root@centos3 ~]# fence_xvm -o list -a 225.0.2.12 -k /etc/cluster/fence_xvm_srvdell2.key 
centos2.tgl.com.br   b5cffafc-6fa4-f1dc-d87f-65ea36140a3b on
centos4.tgl.com.br   002475c6-33a8-40ef-eab7-c4b7a757e377 on
[root@centos3 ~]# fence_xvm -o reboot -a 225.0.2.12 -k /etc/cluster/fence_xvm_srvdell2.key -H centos2.tgl.com.br
[root@centos4 ~]# fence_xvm -o list -a 225.0.1.12 -k /etc/cluster/fence_xvm_srvdell1.key 
centos1.tgl.com.br   3e8a831d-82b3-e921-043e-50e7f432e456 on
centos3.tgl.com.br   0dc1968c-1c0e-8df9-d0f1-487fd9cebd5c on
[root@centos4 ~]# fence_xvm -o reboot -a 225.0.1.12 -k /etc/cluster/fence_xvm_srvdell1.key -H centos1.tgl.com.br
>_RedHat Cluster – Configurando fence_virt – 1.1
Tagged on:

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

%d blogueiros gostam disto: