Отказоустойчивый кластер HAProxy+Pacemaker+Corosync — различия между версиями

Материал из megapuper
Перейти к: навигация, поиск
Строка 59: Строка 59:
  
 
Проверяем статус кластера
 
Проверяем статус кластера
  pcs cluster status
+
  pcs status
 
   
 
   
Cluster Status:
+
  Cluster name: mycluster
  Status of pacemakerd: 'Pacemaker is running' (last updated 2023-07-14 00:13:50 +03:00)
+
Status of pacemakerd: 'Pacemaker is running' (last updated 2023-07-14 00:30:41 +03:00)
  Cluster Summary:
+
Cluster Summary:
    * Stack: corosync
+
  * Stack: corosync
    * Current DC: haproxy-test-01 (version 2.1.5-8.0.1.el8-a3f44794f94) - partition with quorum
+
  * Current DC: haproxy-test-01 (version 2.1.5-8.0.1.el8-a3f44794f94) - partition with quorum
    * Last updated: Fri Jul 14 00:13:50 2023
+
  * Last updated: Fri Jul 14 00:30:42 2023
    * Last change:  Fri Jul 14 00:12:11 2023 by hacluster via crmd on haproxy-test-01
+
  * Last change:  Fri Jul 14 00:23:06 2023 by root via cibadmin on haproxy-test-01
    * 2 nodes configured
+
  * 2 nodes configured
    * 0 resource instances configured
+
  * 0 resource instances configured
  Node List:
 
    * Online: [ haproxy-test-01 haproxy-test-02 ]
 
 
   
 
   
  PCSD Status:
+
  Node List:
   haproxy-test-01: Online
+
   * Online: [ haproxy-test-01 haproxy-test-02 ]
  haproxy-test-02: Online
+
 +
Full List of Resources:
 +
  * No resources
 +
 +
Daemon Status:
 +
  corosync: active/enabled
 +
  pacemaker: active/enabled
 +
  pcsd: active/disabled
  
  
Строка 107: Строка 112:
  
  
Характеристики кластера можно посмотреть так
+
Настройки можно посмотреть так
  pcs property config
+
  pcs property
 
   
 
   
 
  Cluster Properties:
 
  Cluster Properties:
Строка 117: Строка 122:
 
   no-quorum-policy: ignore
 
   no-quorum-policy: ignore
 
   stonith-enabled: false
 
   stonith-enabled: false
 +
 +
 +
Не забываем про автозагрузку сервисов
 +
systemctl enable pcsd
 +
systemctl enable corosync
 +
systemctl enable pacemaker
 +
 +
 +
Создаём ресурс, а именно виртуальный плавающий ip-адрес(VIP)
 +
pcs resource create virtual_ip ocf:heartbeat:IPaddr2 ip=172.19.0.192 cidr_netmask=32 op monitor interval=30s
 +
 +
 +
Проверяем
 +
pcs resource
 +
 +
  * virtual_ip (ocf::heartbeat:IPaddr2):    Started haproxy-test-01
 +
 +
 +
Видим на интерфейсе появился этот самый VIP
 +
ip a
 +
 +
2: ens192: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
 +
    link/ether 00:50:56:0a:04:24 brd ff:ff:ff:ff:ff:ff
 +
    inet 172.19.0.190/24 brd 172.19.0.255 scope global noprefixroute ens192
 +
        valid_lft forever preferred_lft forever
 +
    inet <font color=blue>172.19.0.192/32</font> brd 172.19.0.255 scope global ens192
 +
        valid_lft forever preferred_lft forever
 +
    inet6 fe80::250:56ff:fe0a:424/64 scope link
 +
        valid_lft forever preferred_lft forever

Версия 01:00, 14 июля 2023

Настройка производилась на Oracle Linux Server 8.8


Для построения кластера, будем использовать Pacemaker. Pacemaker - менеджер ресурсов кластера (Cluster Resource Manager), задачей которого является достижение максимальной доступности управляемых им ресурсов и защита их от сбоев как на уровне самих ресурсов, так и на уровне целых узлов кластера.
Архитектура pacemaker состоит из трех уровней:

  1. Кластеронезависимый уровень - на этом уровне располагаются сами ресурсы и их скрипты, которыми они управляются и локальный демон, который скрывает от других уровней различия в стандартах, использованных в скриптах (на рисунке зеленый).
  2. Менеджер ресурсов (Pacemaker), который представляет из себя мозг. Он реагирует на события, происходящие в кластере: отказ или присоединение узлов, ресурсов, переход узлов в сервисный режим и другие административные действия. Pacemaker исходя из сложившейся ситуации делает расчет наиболее оптимального состояния кластера и дает команды на выполнения действий для достижения этого состояния (остановка/перенос ресурсов или узлов). На рисунке обозначен синим.
  3. Информационный уровень - на этом уровне осуществляется сетевое взаимодействие узлов, т.е. передача сервисных команд (запуск/остановка ресурсов, узлов и т.д.), обмен информацией о полноте состава кластера (quorum) и т.д. На рисунке обозначен красным. Как правило на этом уровне работает Corosync.

Hacluster02.png


Имеем два сервера с работающим HAProxy и два плавающих(виртуальных ip-адреса)

haproxy-test-01  172.19.0.190
haproxy-test-02  172.19.0.191
virtual_ip1      172.19.0.192
virtual_ip2      172.19.0.193


Итоговая схема
Hacluster01.png


Для начала ставим нужные пакеты

yum install corosync pcs pacemaker


Для управления кластером используется утилита pcs. При установке Pacemaker автоматически будет создан пользователь hacluster. Для использования pcs, а также для доступа в веб-интерфейс нужно задать пароль пользователю hacluster

passwd hacluster


Запускаем сервис

systemctl start pcsd


Настраиваем аутентификацию (уже на одном узле)

pcs host auth haproxy-test-01 haproxy-test-02

Username: hacluster
Password: 
haproxy-test-01: Authorized
haproxy-test-02: Authorized

После этого кластером можно управлять с одного узла


Создаем кластер

pcs cluster setup mycluster haproxy-test-01 haproxy-test-02


Запускаем кластер

pcs cluster start --all


Автозапуск кластера при загрузке

pcs cluster enable


Проверяем статус кластера

pcs status

 Cluster name: mycluster
Status of pacemakerd: 'Pacemaker is running' (last updated 2023-07-14 00:30:41 +03:00)
Cluster Summary:
  * Stack: corosync
  * Current DC: haproxy-test-01 (version 2.1.5-8.0.1.el8-a3f44794f94) - partition with quorum
  * Last updated: Fri Jul 14 00:30:42 2023
  * Last change:  Fri Jul 14 00:23:06 2023 by root via cibadmin on haproxy-test-01
  * 2 nodes configured
  * 0 resource instances configured

Node List:
  * Online: [ haproxy-test-01 haproxy-test-02 ]

Full List of Resources:
  * No resources

Daemon Status:
  corosync: active/enabled
  pacemaker: active/enabled
  pcsd: active/disabled


Проверка синхронизации узлов кластера

corosync-cmapctl | grep members

 runtime.members.1.config_version (u64) = 0
 runtime.members.1.ip (str) = r(0) ip(172.19.0.190) 
 runtime.members.1.join_count (u32) = 1
 runtime.members.1.status (str) = joined
 runtime.members.2.config_version (u64) = 0
 runtime.members.2.ip (str) = r(0) ip(172.19.0.191) 
 runtime.members.2.join_count (u32) = 1
 runtime.members.2.status (str) = joined
pcs status corosync

 Membership information
 ----------------------
     Nodeid      Votes Name
          1          1 haproxy-test-01 (local)
          2          1 haproxy-test-02


Выключаем STONITH

pcs property set stonith-enabled=false


Так как узла у нас всего два, то кворума у нас не будет, поэтому отключаем эту политику

pcs property set no-quorum-policy=ignore


Настройки можно посмотреть так

pcs property

Cluster Properties:
 cluster-infrastructure: corosync
 cluster-name: mycluster
 dc-version: 2.1.5-8.0.1.el8-a3f44794f94
 have-watchdog: false
 no-quorum-policy: ignore
 stonith-enabled: false


Не забываем про автозагрузку сервисов

systemctl enable pcsd
systemctl enable corosync
systemctl enable pacemaker


Создаём ресурс, а именно виртуальный плавающий ip-адрес(VIP)

pcs resource create virtual_ip ocf:heartbeat:IPaddr2 ip=172.19.0.192 cidr_netmask=32 op monitor interval=30s


Проверяем

pcs resource

  * virtual_ip (ocf::heartbeat:IPaddr2):    Started haproxy-test-01


Видим на интерфейсе появился этот самый VIP

ip a
2: ens192: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:50:56:0a:04:24 brd ff:ff:ff:ff:ff:ff
    inet 172.19.0.190/24 brd 172.19.0.255 scope global noprefixroute ens192
       valid_lft forever preferred_lft forever
    inet 172.19.0.192/32 brd 172.19.0.255 scope global ens192
       valid_lft forever preferred_lft forever
    inet6 fe80::250:56ff:fe0a:424/64 scope link 
       valid_lft forever preferred_lft forever