程序師世界是廣大編程愛好者互助、分享、學習的平台,程序師世界有你更精彩!
首頁
編程語言
C語言|JAVA編程
Python編程
網頁編程
ASP編程|PHP編程
JSP編程
數據庫知識
MYSQL數據庫|SqlServer數據庫
Oracle數據庫|DB2數據庫
 程式師世界 >> 編程語言 >> 網頁編程 >> PHP編程 >> 關於PHP編程 >> 關於Pacemaker集群配置的版本

關於Pacemaker集群配置的版本

編輯:關於PHP編程

關於Pacemaker集群配置的版本


Pacemaker中CIB有一個由admin_epoch, epoch, num_updates組合而成的版本,當有節點加入集群時,根據版本號的大小,取其中版本最大的作為整個集群的統一配置。

admin_epoch, epoch, num_updates這3者中,admin_epoch通常是不會變的,epoch在每次"配置"變更時累加並把num_updates置0,num_updates在每次"狀態"變更時累加。"配置"指持久的CIB中configuration節點下的內容,包括cluster屬性,node的forever屬性,資源屬性等。"狀態"指node的reboot屬性,node死活,資源是否啟動等動態的東西。

"狀態"通常是可以通過monitor重新獲取的(除非RA腳本設計的有問題),但"配置"出錯可能會導致集群的故障,所以我們更需要關心epoch的變更以及節點加入後對集群配置的影響。尤其一些支持主從架構的RA腳本會動態修改配置(比如mysql的mysql_REPL_INFO
和pgsql的pgsql-data-status),一旦配置處於不一致狀態可能會導致集群故障。

1. 手冊說明


http://clusterlabs.org/doc/en-US/Pacemaker/1.1-plugin/html-single/Pacemaker_Explained/index.html#idm140225199219024

3.2.Configuration Version When a node joins the cluster, the cluster will perform a check to see who has the best configuration based on the fields below. It then asks the node with the highest (admin_epoch,epoch,num_updates) tuple to replace the configuration on all the nodes - which makes setting them, and setting them correctly, very important.

Table3.1.Configuration Version Properties

FieldDescriptionadmin_epoch Never modified by the cluster. Use this to make the configurations on any inactive nodes obsolete.Never set this value to zero, in such cases the cluster cannot tell the difference between your configuration and the "empty" one used when nothing is found on disk.epoch Incremented every time the configuration is updated (usually by the admin)num_updates Incremented every time the configuration or status is updated (usually by the cluster)



2.實際驗證

2.1 環境

3台機器,srdsdevapp69,srdsdevapp71和srdsdevapp73
OS: CentOS 6.3
Pacemaker: 1.1.14-1.el6 (Build: 70404b0)
Corosync: 1.4.1-7.el6

2.2 基本驗證

0. 初始時epoch="48304",num_updates="4"
  1. [root@srdsdevapp69 mysql_ha]# cibadmin -Q |grep epoch

1. 更新集群配置導致epoch加1並將num_updates清0
  1. [root@srdsdevapp69 mysql_ha]# crm_attribute --type crm_config -s set1 --name foo1 -v "1"
  2. [root@srdsdevapp69 mysql_ha]# cibadmin -Q |grep epoch

2. 更新值如果和現有值相同epoch不變
  1. [root@srdsdevapp69 mysql_ha]# crm_attribute --type crm_config -s set1 --name foo1 -v "1"
  2. [root@srdsdevapp69 mysql_ha]# cibadmin -Q |grep epoch

3. 更新生命周期為forever的節點屬性也導致epoch加1
  1. [root@srdsdevapp69 mysql_ha]# crm_attribute -N `hostname` -l forever -n foo2 -v 2
  2. [root@srdsdevapp69 mysql_ha]# cibadmin -Q |grep epoch

4. 更新生命周期為reboot的節點屬性導致num_updates加1
  1. [root@srdsdevapp69 mysql_ha]# crm_attribute -N `hostname` -l reboot -n foo3 -v 2
  2. [root@srdsdevapp69 mysql_ha]# cibadmin -Q |grep epoch

2.3 分區驗證

1. 人為造成srdsdevapp69和其它兩個節點的網絡隔離形成分區,分區前的DC(Designated Controller)為srdsdevapp73
  1. [root@srdsdevapp69 mysql_ha]# iptables -A INPUT -j DROP -s srdsdevapp71
  2. [root@srdsdevapp69 mysql_ha]# iptables -A OUTPUT -j DROP -s srdsdevapp71
  3. [root@srdsdevapp69 mysql_ha]# iptables -A INPUT -j DROP -s srdsdevapp73
  4. [root@srdsdevapp69 mysql_ha]# iptables -A OUTPUT -j DROP -s srdsdevapp73
兩個分區上的epoch都沒有變,仍是48306,但srdsdevapp69將自己作為了自己分區的DC 。

分區1(srdsdevapp69) : 未取得QUORUM
  1. [root@srdsdevapp69 mysql_ha]# cibadmin -Q |grep epoch

分區2(srdsdevapp71,srdsdevapp73) : 取得QUORUM
  1. [root@srdsdevapp71 ~]# cibadmin -Q |grep epoch

2. 在srdsdevapp69上做2次配置更新,使其epoch增加2
  1. [root@srdsdevapp69 mysql_ha]# crm_attribute --type crm_config -s set1 --name foo4 -v "1"
  2. [root@srdsdevapp69 mysql_ha]# crm_attribute --type crm_config -s set1 --name foo5 -v "1"
  3. [root@srdsdevapp69 mysql_ha]# cibadmin -Q |grep epoch

3.在srdsdevapp71上做1次配置更新,使其epoch增加1
  1. [root@srdsdevapp71 ~]# crm_attribute --type crm_config -s set1 --name foo6 -v "1"
  2. [root@srdsdevapp71 ~]# cibadmin -Q |grep epoch

4.恢復網絡再檢查集群的配置
  1. [root@srdsdevapp69 mysql_ha]# iptables -F
  2. [root@srdsdevapp69 mysql_ha]# cibadmin -Q |grep epoch

  3. [root@srdsdevapp69 mysql_ha]# crm_attribute --type crm_config -s set1 --name foo5 -q
  4. 1
  5. [root@srdsdevapp69 mysql_ha]# crm_attribute --type crm_config -s set1 --name foo4 -q
  6. 1
  7. [root@srdsdevapp69 mysql_ha]# crm_attribute --type crm_config -s set1 --name foo6 -q
  8. Error performing operation: No such device or address
可以發現集群采用了srdsdevapp69分區的配置,因為它的版本更大,這時在srdsdevapp71,srdsdevapp73分區上所做的更新丟失了。
這個測試反映了一個問題:取得QUORUM的分區配置可能會被未取得QUORUM的分區配置覆蓋。如果自己開發RA的話,這是一個需要注意的問題。

2.4 分區驗證2

前一個測試中,產生分區前的DC在取得QUORUM的分區中,現在再試一下產生分區前的DC在未取得QUORUM的分區中的場景。

1. 人為造成DC(srdsdevapp73)和其它兩個節點的網絡隔離形成分區
  1. [root@srdsdevapp73 ~]# iptables -A INPUT -j DROP -s srdsdevapp69
  2. [root@srdsdevapp73 ~]# iptables -A OUTPUT -j DROP -s srdsdevapp69
  3. [root@srdsdevapp73 ~]# iptables -A INPUT -j DROP -s srdsdevapp71
  4. [root@srdsdevapp73 ~]# iptables -A OUTPUT -j DROP -s srdsdevapp71
srdsdevapp73上epoch沒有變
  1. [root@srdsdevapp73 ~]# cibadmin -Q |grep epoch

但另一個分區(srdsdevapp69,srdsdevapp71)上的epoch加1了
  1. [root@srdsdevapp69 ~]# cibadmin -Q |grep epoch

恢復網絡後集群采用了版本號更高的配置,DC仍然是分區前的DC(srdsdevapp73)
  1. [root@srdsdevapp73 ~]# iptables -F
  2. [root@srdsdevapp73 ~]# cibadmin -Q |grep epoch

通過這個測試可以發現:
  • DC協商會導致epoch加1
  • 分區恢復後,Pacemaker傾向於使分區前的DC作為新的DC

3.總結

Pacemaker的行為特征
  1. CIB配置變更會導致epoch加1
  2. DC協商會導致epoch加1
  3. 分區恢復後,Pacemaker采取版本號大的作為集群的配置
  4. 分區恢復後,Pacemaker傾向於使分區前的DC作為新的DC


開發RA的注意點
  1. 盡量避免動態修改集群配置
  2. 如果做不到第一點,盡量避免使用多個動態集群配置參數,比如可以把多個參數拼接成一個(mysql的mysql_REPL_INFO就是這麼干的)
  3. 檢查crm_attribute的出錯並重試(pgsql就是這麼干的)
  4. 失去quorum時的資源停止處理(demote,stop)中避免修改集群配置


  1. 上一頁:
  2. 下一頁:
Copyright © 程式師世界 All Rights Reserved