Pacemaker 多数ノードのクラスタ構成 のバックアップ(No.2)
- バックアップ一覧
- 差分 を表示
- 現在との差分 を表示
- ソース を表示
- Pacemaker 多数ノードのクラスタ構成 へ行く。
- 1 (2013-10-30 (水) 14:13:00)
- 2 (2013-10-30 (水) 14:17:26)
目次
概要 †
3ノード以上のクラスタ構成を行う場合のTips
設定 †
構成 †
3ノード以上のクラスタを構成する場合も基本的な設定は2ノード構成と同様で、ha.chのnodeとして当該のunameを追加するのみとなる。
例
- /etc/ha.d/ha.cf
pacemaker on debug 0 udpport 694 keepalive 2 warntime 7 deadtime 10 initdead 10 logfacility local1 bcast eth1 node dev-ha01 node dev-ha02 node dev-ha03 watchdog /dev/watchdog respawn root /usr/lib/heartbeat/ifcheckd
リソース定義 †
仮想IPを割り当てるため、以下の設定を投入したことを以降の前提とする。
- デフォルト設定
## Default Set property no-quorum-policy="ignore" stonith-enabled="false" rsc_defaults resource-stickiness="INFINITY" migration-threshold="1"
- 仮想IPアドレス(172.16.2.180)のリソースを「vip」として定義し、「grp-vip」グループに含める
## VIP resource primitive vip ocf:heartbeat:IPaddr2 params ip="172.16.2.180" nic="eth0" cidr_netmask="16" op monitor interval="10s" group grp_vip vip
- ノードのネットワーク接続確認用として、172.16.0.254に対するPingを「ping」として定義
## Ping check primitive ping ocf:pacemaker:pingd params name="default_ping_set" host_list="172.16.0.254" multiplier="100" dampen="1" op monitor interval="10s"
- ノードのネットワーク接続確認用Pingをclone_pingとして定義し、全てのノードで実行させる
## Clone clone clone_ping ping
アクティブノードの優先順位設定 †
特定のノードが起動している場合に優先的にリソースを割り当てる場合、location設定にてルールを定義する。
- 設定例
## Location location web_location grp_vip \ rule $id="loc_vip-rule1" 300: #uname eq dev-ha01 \ rule $id="loc_vip-rule2" 200: #uname eq dev-ha02 \ rule $id="loc_vip-rule3" 100: #uname eq dev-ha03 \ rule $id="loc_vip-rule4" -inf: not_defined default_ping_set or default_ping_set lt 100