ホームページ  >  記事  >  ウェブフロントエンド  >  RHCS は css_tool コマンドを使用して HA クラスターを作成し、gfs2 クラスターファイルシステムを作成します

RHCS は css_tool コマンドを使用して HA クラスターを作成し、gfs2 クラスターファイルシステムを作成します

高洛峰
高洛峰オリジナル
2017-02-14 15:34:001466ブラウズ

環境を準備する

node1:192.168.139.2

node2:192.168.139.4

node4:192.168.139.8

node5:192.168.139.9


node1 をターゲット側として

node2、node4、node5 をターゲット側としてイニシエーター側


そして、cman+rgmanager をノード 2 ノード 4 ノード 5 にインストールし、3 ノードの RHCS 高可用性クラスターに構成します。 gfs2 はクラスター ファイル システムであるため、障害のあるノードは HA の助けを借りて隔離する必要があります。高可用性クラスターとメッセージ層の情報転送。

検出されログインしたターゲットを統合ファイルシステムにしたいので、ノード2、ノード4、ノード5にgfs2-utilsをインストールする必要があります


まず、最初にluci/ricciで作成したクラスターサービスを停止します(私はこれを実行しました)クラスターサービスの前に実験的に、この実験とは関係ありません)


[root@node2 mnt]# clusvcadm -d Web_Service

サービスを無効にするローカルマシン:Web_Service...

[root@node2 mnt]# clustat

zxl @ Wed Dec 21 17:55:46 2016 のクラスター ステータス

メンバー ステータス: Quorate


メンバー名 ID ステータス

------ ---- 1 オンライン、ローカル、rgmanager

node4.zxl.com

2 オンライン、rgmanager

サービス名 所有者 (最後)

------ --- - Web_Service Web_Service # サービス cman stop

[root@node4 mnt]# service rgmanager stop

[root@node4 mnt]# service cman stop

[root@node4 mnt]# rm -rf /etc/cluster/cluster.conf

[root@node4 mnt] ]# rm -rf /etc/cluster/cluster.conf

設定ファイルは変更されるたびにバックアップされ削除されます

[root@node2 mnt]# ls /etc/cluster/

cluster. .bak cman-notify.d

[root@node2 mnt]# rm -f /etc/cluster/*

cman または rgmanager がインストールされていない場合は、次のコマンドを実行します

[root@ node2 mnt]#yum -y install cman rgmanager



css_tool コマンドを使用してクラスターを作成します。クラスター名は mycluster

[root@node2 mnt]# ccs_tool create mycluster

[root@node2 mnt]# cat /etc/cluster /cluster.conf




sources/>

& lt;/rm>

;

フェンスデバイスを追加します (RHCS クラスターに必要)

[root@node2 mnt]# ccs_tool addfence Meatware Fence_manual

[root@node2 mnt]# ccs_tool lsfence

Name Agent

Meatware Fence_manual

-v はノードが持つ投票数を指定します

-n はノード識別子を指定します

-f はフェンスデバイス名を指定します


3 つのノードを追加します。RHCS クラスターには少なくとも 3 つのノードが必要です

[ root @node2 mnt]# ccs_tool addnode -v 1 -n 1 -f Meatware node2.zxl.com

[root@node2 mnt]# ccs_tool addnode -v 1 -n 2 -f Meatware node4.zxl.com

[ root @node2 mnt]# ccs_tool addnode -v 1 -n 3 -f Meatware node5.zxl.com

クラスターノードの表示

[root@node2 mnt]# ccs_tool lsnode

クラスター名: mycluster、config_version: 5 ENodeName Votes Nodeid フェンスタイプ

node2.zxl.com 1 1 Meatware

node4.zxl.com 1 2 Meatware

node5.zxl.com 1 3 Meatware

設定ファイルをコピー、rhcs clus 自動プロセス同期

[root @node2 mnt]# scp /etc/cluster/cluster.conf node4:/etc/cluster/

[root@node2 mnt]# scp /etc/cluster/cluster.conf node5:/etc /cluster/


cman の起動各ノードの rgmanager

[root@node2 mnt]#service cman start

[root@node2 mnt]#service rgmanager start

[root@node4 mnt]#service cman start

[root@node4 mnt]#service rgmanager 起動

[root@node5 mnt]# service cman start

[root@node5 mnt]# service rgmanager start

[root@node2 mnt]# clustat

mycluster のクラスター ステータス @ Wed Dec 21 18:40:26 2016

メンバーステータス: Quorate


メンバー名ステータス

------- ---- ---- ------

node2.zxl.com 1 オンライン、ローカル

node4 .zxl.com 2 オンライン node5.zxl.com 3 オンライン


[root@node2 mnt]# RPM -QL GFS2 -Utils

/ETC/RC.D/Init.d/GFS2

/ sbin/ fsck.gfs2

/sbin/mkfs.gfs2 \gfs2 ファイル システムを作成するためのフォーマット

/sbin/mount.gfs2 \gfs2 ファイル システムをマウントする

/usr/sbin/gfs2_convert


mkfs 2コマンド

-j は、クラスター ファイル システムにフォーマットした後、各ノードにログ レコードが必要なため、いくつかのログ領域を複数のノードでマウントできます。

-J は、ログ サイズ (デフォルトは 128M) を指定します。 p {lock_dlm|lock_nolock} 分散ロック管理 | ロックは必要ありません

-t ロック テーブルの名前を指定します

注: クラスターには、2 つのディスクが共有されるなど、複数のファイル システムを含めることができます。 2 つのディスクは gfs2 および ocfs2 ファイル システムにすることができます。異なるファイル システムがロックされている場合は、それらを一意に識別するために異なるロック テーブルを使用する必要があるため、各ロックにはロック名が必要です

ロック テーブル名形式

cluster_name: lock table。 mycluster:lock_sda のような名前

-D は詳細なデバッグ情報を表示します

ターゲットにログインし、gfs2 ファイル システムとしてフォーマットします


[root@node2 mnt]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

[root@node2 mnt]# mkfs.gfs2 -j 2 -p lock_dlm -t mycluster:lock_sde1 /dev /sde1

Are続行してもよろしいですか? [y/n] y

デバイス: /dev/sde1


ブロックサイズ: 4096

デバイスサイズ 3.00 GB (787330 ブロック) )

ファイルシステムのサイズ: 3.00 GB (787328 ブロック)

journals:“““ cluster:lock_sde1 "

[root@node2 mnt]# cd /mnt

[root@node2 mnt]# ll

total 0

[root@node2 mnt]# cp /etc/issue ./

[root@node2 mnt]# ll

合計 8

-rw-r--r--。1 root root 47 Dec 21 19:06 issue

ok、node4 を変更

[root@node4 ~]# iscsiadm -m node - T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

node4 再度フォーマットする必要はありません。直接マウントします

[root@node4 ~]# mount -t gfs2 /dev/sdc1 / mnt

[root@node4 ~]# cd /mnt

[root@node4 mnt]# ll \node1

合計8

-rw-r--r--によってコピーされたファイルが表示されます。 root 47 12 月 21 日 19:06 の問題

node4 はファイル a.txt を作成し、すぐに他のノードに通知します。これがクラスター ファイル システム gfs2

[root@node4 mnt]# touch a の利点であることがわかります。 txt

[root@node2 mnt]# ll

total 16

-rw-r--r- -. 1 root root 0 Dec 21 19:10 a.txt

-rw-r--r-- 1 root root 47 12 月 21 日 19:06 問題

ノードを追加していますnode5

[root @node5 ~]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

クラスターログファイルが 2 つしか作成されないためマウントできません。ログは複数のノードにマウントできます

[root@node5 ~]# mount -t gfs2 /dev/sdc1 / mnt

too多くのノードがファイルシステムをマウントする、無料のジャーナルはありません。 /sde1\this このコマンドは複数のログを表示できます。それぞれのデフォルト サイズは 128M

journal2 - 128MB

journal1 - 128MB

journal0 - 128MB

3 ジャーナルが見つかりました。

[root@node5 ~] # mount -t gfs2 /dev/sdc1 /mnt \node5 は正常にマウントされました

[root@node5 ~]# cd /mnt

[root@node5 mnt]# touch b.txt

[root@node4 mnt]# ll

合計 24

-rw-r--r--. 1 ルート root 0 12 月 21 日 19:10 a.txt

-rw-r--r--. 1 ルート root 0 12 月 21 日 19:18 b .txt

-rw-r--r--. 1 root root 47 Dec 21 19:06 issue

gfs2 クラスター ファイル システムは、通常、16 クラスターまでしかサポートしません。

css_tool コマンドを使用した HA クラスターの作成および gfs2 クラスター ファイル システムの作成に関するその他の RHCS 関連記事については、PHP 中国語 Web サイトに注目してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
前の記事:CSSのtransform属性次の記事:CSSのtransform属性