Maison  >  Article  >  interface Web  >  RHCS utilise la commande css_tool pour créer un cluster HA et créer un système de fichiers de cluster gfs2

RHCS utilise la commande css_tool pour créer un cluster HA et créer un système de fichiers de cluster gfs2

高洛峰
高洛峰original
2017-02-14 15:34:001451parcourir

Préparer l'environnement

node1:192.168.139.2

node2:192.168.139.4

node4:192.168.139.8

node5 : 192.1 68 .139.9


node1 comme côté cible

node2 node4 node5 comme côté initiateur


et node2 node4 node5 est configuré dans un cluster haute disponibilité RHCS à trois nœuds après l'installation de cman rgmanager. Étant donné que gfs2 est un système de fichiers de cluster, les nœuds défectueux doivent être clôturés à l'aide du cluster haute disponibilité HA et du nœud. les informations doivent être transférées à l’aide de la couche message.

Étant donné que la cible découverte et connectée doit être transformée en un système de fichiers intégré, gfs2-utils doit être installé sur node2 node4 node5


D'abord utilisez le service Stop the cluster original créé par luci/ricci (un service de cluster que j'ai créé lors d'une expérience précédente, qui n'a rien à voir avec cette expérience)


[root@ node2 mnt]# clusvcadm -d Web_Service

Service de désactivation de la machine locale :Web_Service...

[root@node2 mnt]# clustat

État du cluster pour zxl @ mercredi décembre 21 17:55:46 2016

Statut du membre : Quorate


Nom du membre                             ID   Statut

 ----                                                                                                                                                                                             Statut de membre : - ---

node2.zxl.com 1 En ligne, local, rgmanager

node4.zxl.com 2 En ligne, rgmanager


Nom du service                     Propriétaire (dernier)                                                                                                                       

service:Web_Service (node2.zxl.com) désactivé

[root@node2 mnt]# service rgmanager stop

[root@node2 mnt]# service cman stop

[root@node4 mnt]# service rgmanager stop

[root@node4 mnt]# service cman stop

[root@node4 mnt]# rm -rf /etc/cluster/cluster .conf

[root@node4 mnt]# rm -rf /etc/cluster/cluster.conf

Chaque fois que le fichier de configuration est modifié, il sera sauvegardé mis en place et supprimé

[ root@node2 mnt]# ls /etc/cluster/

cluster.conf.bak cman-notify.d

[root@node2 mnt] # rm -f /etc/cluster/*


Si cman ou rgmanager n'est pas installé, exécutez la commande suivante

[root@node2 mnt]#yum -y install cman rgmanager

Utilisez la commande css_tool pour créer un cluster, le nom du cluster est mycluster

[root@node2 mnt]# ccs_tool créer moncluster

[root@node2 mnt]# cat /etc/cluster/cluster.conf



Ajouter un périphérique Fence (RHCS Le cluster est requis) Meatware fence_manual


-v spécifie le nombre de votes dont dispose le nœud

-n spécifie l'identifiant du nœud

-f spécifie le nom du périphérique Fence

Ajoutez trois nœuds, le cluster RHCS doit en avoir au moins trois nodes


[root@node2 mnt]# ccs_tool addnode -v 1 -n 1 -f Meatware node2

[root@node2 mnt]# ccs_tool addnode -v 1 -n. 2 -f Meatware node4.zxl.com

[root@node2 mnt]# ccs_tool addnode -v 1 -n 3 -f Meatware node5.zxl.com

Afficher les nœuds du cluster

[root@node2 mnt]# ccs_tool lsnode

Nom du cluster : mycluster, config_version : 5

Nodename                       Votes Nodeid Fencetype

node2.zxl.com              1 1 Meatware

node4.zxl .                                                                                                                                                                                                                                 Vaisselle 🎜>

[racine @node2 mnt]# scp /etc/cluster/cluster. conf node4:/etc/cluster/

[root@node2 mnt]# scp /etc/cluster/cluster.conf node5:/etc/cluster/

Chaque nœud démarre cman rgmanager


[root@node2 mnt]# service cman start

[root@node2 mnt]# service rgmanager start

[root@node4 mnt ]# service cman start

[root@node4 mnt]#service rgmanager start

[root@node5 mnt]# service cman start

[root@node5 mnt]# service rgmanager start

[root@node2 mnt]# cluster

Cluster Statut pour mycluster @ mercredi 21 décembre 18:40:26 2016

Statut du membre : Quorate


Statut d'identification du nom de membre

-- ---- ----                                                                                                                        Avec avec avec avec avec avec 1  🎜> node5.zxl.com 3 En ligne

[root@node2 mnt]# rpm -ql gfs2- utils

/etc/rc.d/ init.d/gfs2


/sbin/fsck.gfs2

/sbin/mkfs.gfs2 \Format pour créer le fichier gfs2 system

/sbin/mount.gfs2 \ Monter le système de fichiers gfs2

/usr/sbin/gfs2_convert

Utilisation du mkfs La commande .gfs2

-j spécifie le numéro de la zone de journal, quelques-uns peuvent être montés par plusieurs nœuds, car après le formatage en tant que système de fichiers de cluster, chaque nœud doit avoir des enregistrements de journal


-J spécifie la taille du journal, la valeur par défaut est 128M

-p {lock_dlm|lock_nolock} Gestion des verrous distribués | pas de verrou

-t 🎜>Remarque : un cluster peut avoir plusieurs systèmes de fichiers. Par exemple, deux disques sont partagés dans un cluster. Les deux disques peuvent être des systèmes de fichiers gfs2 et ocfs2. Lorsque différents systèmes de fichiers sont verrouillés, des tables de verrouillage différentes doivent être utilisées pour une identification unique. eux, donc chaque verrou doit avoir un nom de verrou

Format du nom de la table de verrouillage

cluster_name : nom de la table de verrouillage

Par exemple : mycluster:lock_sda

-D Afficher les informations détaillées de débogage

Connectez-vous à la cible et formatez-la en tant que système de fichiers gfs2

[root@node2 mnt]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1 .disk1 -p 192.168.139.2 -l

[root@node2 mnt]# mkfs.gfs2 -j 2 -p lock_dlm -t mycluster:lock_sde1 / dev/sde1


Êtes-vous sûr de vouloir continuer ? [o/n] y

Appareil :               /dev/sde1

Taille du bloc :             4096

Taille de l'appareil  3,00 Go (787330 blocs)


Taille du système de fichiers :            3,00 Go (787328 blocs) 🎜>Protocole de verrouillage : "lock_dlm"

Table de verrouillage : " mycluster:lock_sde1"

UUID : 9ebdc83b-9a61-9a4a-3ba7-9c80e59a0a2d

Format terminé, test de montage

[root@node2 mnt]# mount -t gfs2 / dev/sde1 /mnt

[root@node2 mnt]# cd /mnt

[root@node2 mnt]# ll

total 0

[ root@node2 mnt]# cp /etc/issue ./

[root@node2 mnt]# ll

total 8

-rw-r--r-- .1 root root 47 21 décembre 19:06 issue

ok, change node4

[root @node4 ~]# iscsiadm -m node -T iqn .2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

node4 n'a pas besoin d'être formaté à nouveau, montez directement

[root@node4 ~]# mount -t gfs2 /dev/sdc1 /mnt

[root@node4 ~]# cd /mnt

[root@node4 mnt]# ll \ Vous pouvez voir le fichier copié par node1


total 8

-rw-r--r--. 1 root root 47 21 décembre 19:06 issue

node4 crée un Le fichier a.txt sera immédiatement notifié vers d'autres nœuds pour qu'ils puissent le voir. C'est l'avantage du système de fichiers du cluster gfs2

[root@node4 mnt]# touch a.txt

[root @node2 mnt]# ll<.>

total 16

-rw-r--r--. 1 racine racine 0 21 décembre 19:10 a.txt

-rw -r--r-- .1 root root 47 21 décembre 19:06 issue

Ajout d'un nœud node5

[root@node5 ~] # iscsiadm -m node -T iqn .2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

ne peut pas être monté car seuls deux fichiers journaux de cluster sont créés. Combien y a-t-il ? Un journal peut être monté sur plusieurs nœuds.

[root@node5 ~]# mount -t gfs2 /dev/sdc1 /mnt

Trop de nœuds de système de fichiers de montage, pas de journaux gratuits

Ajouter un journal

[root@node2 mnt]# gfs2_jadd -j 1 /dev/sde1 \-j 1 Ajouter un journal

Système de fichiers :     /mnt

Anciens journaux 2

Nouveau Journaux 3

[root@node2 mnt]# gfs2_tool journals /dev/sde1 \Cette commande peut afficher plusieurs journaux, chacun avec une taille par défaut de 128 Mo

journal2 - 128 Mo

journal1 - 128 Mo

journal0 - 128 Mo

3 journaux trouvés.

[root@node5 ~]# mount - t gfs2 /dev/sdc1 /mnt \ node5 monté avec succès

[root@node5 ~]# cd /mnt

[root@node5 mnt]# touch b.txt

[root@node4 mnt]# ll

total 24

-rw-r--r--. 1 racine racine 0 21 décembre 19h10 a.txt

-rw-r--r- -.1 racine racine 0 21 décembre 19:18 b.txt

-rw-r--r--. 1 racine racine 47 21 décembre 19:06 numéro

Le système de fichiers de cluster gfs2 ne prend généralement pas en charge plus de 16 clusters. Après cela, les performances chutent

.

Pour plus d'articles sur RHCS utilisant la commande css_tool pour créer un cluster HA et créer un système de fichiers de cluster gfs2, veuillez faire attention au site Web PHP chinois !

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn