Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Prochaine révision
Révision précédente
dornach:har100 [2021/01/23 07:56] – created admindornach:har100 [2021/01/26 13:54] (Version actuelle) admin
Ligne 1: Ligne 1:
-======Red Hat High Availability Cluster sous CentOS 7======+~~PDF:LANDSCAPE~~ 
 + 
 +Version : **2021.01** 
 + 
 +Dernière mise-à-jour : ~~LASTMOD~~ 
 + 
 +======HAR100 - Gestion de la Haute Disponibilité avec Red Hat High-Availability Cluster====== 
 + 
 +=====Contenu du Module===== 
 + 
 +  * **HAR100 - Gestion de la Haute Disponibilité avec Red Hat High-Availability Cluster** 
 +    * Red Hat High Availability Cluster sous CentOS 7 
 +      * Red Hat High Availability Cluster versus Red Hat Cluster Suite 
 +        * Installer le Logiciel du Module Red Hat High Availability 
 +        * Firewalld 
 +        * hacluster 
 +        * Démarrer le daemon pcsd 
 +        * Préparation des Machines Virtuelles 
 +        * Ethernet Channel Bonding 
 +          * Configuration du node1.i2tch.loc 
 +          * Configuration du node2.i2tch.loc 
 +          * Tester les Serveurs 
 +          * Démarrer le Service pcsd si nécessaire 
 +      * LAB #1 - L'Authentification de l'utilisateur pcs hacluster 
 +      * LAB #2 - Création du cluster my_cluster 
 +      * LAB #3 - Activer les services cluster sur chaque noeud 
 +      * LAB #4 - Mise en place d'une clôture 
 +      * LAB #5 - Mise en place d'un Serveur Apache Actif/Passif 
 +        * Création du Stockage Partagé - Mutualisation du Stockage 
 +        * Création des Ressources du Cluster
  
 =====Red Hat High Availability Cluster versus Red Hat Cluster Suite===== =====Red Hat High Availability Cluster versus Red Hat Cluster Suite=====
Ligne 127: Ligne 156:
 =====Préparation des Machines Virtuelles===== =====Préparation des Machines Virtuelles=====
  
-A partir de votre machine virtuelle **CentOS**, créez 2 clones complets et configurez-les ainsi :+A partir de votre serveur cloud, créez 2 clones complets de la VM CentOS_7 :
  
-^ Nom de la VM ^ RAM ^ +<code> 
-| node1.i2tch.loc | 512 Mo | +[root@centos7 ~]# exit
-| node2.i2tch.loc | 512 Mo |+
  
-<WRAP center round important> +[trainee@centos7 ~]$ exit
-**Important** - Lors de la création des clones, veillez à réinitialiser l'adresse MAC de la carte réseau. +
-</WRAP>+
  
-Modifiez la configuration réseau des deux clones :+desktop@serverXX:~$ VBoxManage controlvm CentOS_7 poweroff 
 + 
 +desktop@serverXX:~$ VBoxManage clonevm CentOS_7 --name="node1.i2tch.loc" --register --mode=all 
 + 
 +desktop@serverXX:~$ VBoxManage clonevm CentOS_7 --name="node2.i2tch.loc" --register --mode=all 
 +</code> 
 + 
 +Modifiez la configuration réseau de la première interface réseau de node2.i2tch.loc : 
 + 
 +<code> 
 +desktop@serverXX:~$ VBoxManage modifyvm "node2.i2tch.loc" --natpf1 "node2.i2tch.loc,tcp,,4022,,22 
 +</code> 
 + 
 +Mettez les interfaces 2 et 3 de chaque VM dans le réseau interne **intnet** : 
 + 
 +<code> 
 +desktop@serverXX:~$ VBoxManage modifyvm "node1.i2tch.loc" --nic2 intnet 
 +desktop@serverXX:~$ VBoxManage modifyvm "node1.i2tch.loc" --nic3 intnet 
 +desktop@serverXX:~$ VBoxManage modifyvm "node2.i2tch.loc" --nic2 intnet 
 +desktop@serverXX:~$ VBoxManage modifyvm "node2.i2tch.loc" --nic3 intnet 
 +</code> 
 + 
 +Les deux VMs ont maintenant trois interfaces réseau :
  
 ^ Adaptateur ^ Carte 1 ^ Carte 2 ^ Carte 3 ^ ^ Adaptateur ^ Carte 1 ^ Carte 2 ^ Carte 3 ^
 | Type de réseau | NAT | intnet | intnet | | Type de réseau | NAT | intnet | intnet |
  
-<WRAP center round important> +Démarrez les machines virtuelles **node1.i2tch.loc** et **node2.i2tch.loc** : 
-**Important** - Dans Virtual Box Paramètres de node2.i2tch.loc > Réseau Carte 1 Redirection de ports, Modifiez le port hôte ssh en 4022. + 
-</WRAP>+<code> 
 +desktop@serverXX:~$ VBoxManage startvm node1.i2tch.loc --type headless 
 +... 
 +desktop@serverXX:~$ VBoxManage startvm node2.i2tch.loc --type headless 
 +... 
 +</code 
 + 
 +Connectez-vous aux deux VMs : 
 + 
 +<code> 
 +desktop@serverXX:~$ ssh -l trainee localhost -p 3022 
 +</code> 
 + 
 +<code> 
 +desktop@serverXX:~$ ssh -l trainee localhost -p 4022 
 +</code>
  
-Démarrez les machines virtuelles **node1.i2tch.loc** et **node2.i2tch.loc** et modifiez les noms d'hôtes ainsi :+Modifiez les noms d'hôtes des deux VMs :
  
 <code> <code>
Ligne 164: Ligne 227:
 </WRAP> </WRAP>
  
-Vérifiez la configuration réseau sur chaque noeud :+Vérifiez la configuration réseau sur chaque nœud :
  
 <code> <code>
Ligne 229: Ligne 292:
 [root@node1 ~]# lsmod | grep bonding [root@node1 ~]# lsmod | grep bonding
 bonding               145728  bonding               145728 
 +</code>
 +
 +Pour rendre le chargement du module persistant lors du re-démarrage, injectez **modprobe bonding** dans le fichier **/etc/rc.modules** :
 +
 +<code>
 +[root@node1 ~]# echo bonding >> /etc/modules-load.d/modules.conf 
 </code> </code>
  
Ligne 386: Ligne 455:
 [root@node2 ~]# lsmod | grep bonding [root@node2 ~]# lsmod | grep bonding
 bonding               145728  bonding               145728 
 +</code>
 +
 +Pour rendre le chargement du module persistant lors du re-démarrage, injectez **modprobe bonding** dans le fichier **/etc/rc.modules** :
 +
 +<code>
 +[root@node1 ~]# echo bonding >> /etc/modules-load.d/modules.conf 
 </code> </code>
  
Ligne 606: Ligne 681:
 </code> </code>
  
-=====LAB #32 - L'Authentification de l'utilisateur pcs hacluster=====+=====LAB #- L'Authentification de l'utilisateur pcs hacluster=====
  
 La commande suivante authentifie l'utilisateur **hacluster** sur node1.i2tch.loc pour les deux neouds node1.i2tch.loc et node2.i2tch.loc : La commande suivante authentifie l'utilisateur **hacluster** sur node1.i2tch.loc pour les deux neouds node1.i2tch.loc et node2.i2tch.loc :
Ligne 655: Ligne 730:
 </code> </code>
  
-=====LAB #33 - Création du cluster my_cluster=====+=====LAB #- Création du cluster my_cluster=====
  
 Créez le cluster **my_cluster** en propageant les fichiers de configuration à chaque noeud et en démarrant les services avec l'option **--start** : Créez le cluster **my_cluster** en propageant les fichiers de configuration à chaque noeud et en démarrant les services avec l'option **--start** :
Ligne 703: Ligne 778:
 </code> </code>
  
-=====LAB #34 - Activer les services cluster sur chaque noeud=====+=====LAB #- Activer les services cluster sur chaque noeud=====
  
 Activer les services cluster sur chaque noeud dans le cluster quand le noeud est démarré : Activer les services cluster sur chaque noeud dans le cluster quand le noeud est démarré :
Ligne 726: Ligne 801:
 </code> </code>
  
-=====LAB #35 - Mise en place d'une clôture=====+=====LAB #- Mise en place d'une clôture=====
  
 Commencez par modifier le fichier **/etc/hosts** sur les deux noeuds : Commencez par modifier le fichier **/etc/hosts** sur les deux noeuds :
Ligne 1077: Ligne 1152:
 </code> </code>
  
-=====LAB #36 - Mise en place d'un Serveur Apache Actif/Passif=====+=====LAB #- Mise en place d'un Serveur Apache Actif/Passif=====
  
-====Création du Stockage Partagé====+====Création du Stockage Partagé - Mutualisation du Stockage====
  
-Vous allez simuler un SAN avec iSCSI. Importez la machine virtuelle **iscsi**+Vous allez simuler un SAN avec iSCSI. Démarrez la machine virtuelle **iscsi** :
  
-Ajoutez un disque supplémentaire de type **vdi** et d'une taille de **8Go** au contrôleur SATA.+<code> 
 +[root@node1 ~]# exit
  
-Démarrez la machine virtuelle.+[trainee@node1 ~]$ exit
  
-Connectez-vous à la VM via putty sur localhost:6022.+desktop@serverXX:~$ VBoxManage startvm iscsi --type headless 
 +</code>  
 + 
 +Connectez-vous à la VM **iscsi** : 
 + 
 +<code> 
 +desktop@serverXX:~$ ssh -l trainee localhost -p 6022 
 +</code>
  
 Commencez par installer le paquet **scsi-target-utils** : Commencez par installer le paquet **scsi-target-utils** :
  
 <code> <code>
 +[trainee@iscsi ~]$ su -
 +...
 [root@iscsi ~]# yum install -y epel-release [root@iscsi ~]# yum install -y epel-release
 [root@iscsi ~]# yum install -y scsi-target-utils [root@iscsi ~]# yum install -y scsi-target-utils
Ligne 1641: Ligne 1726:
  
 <code> <code>
-[root@node1 ~]# vi /etc/httpd/conf/httod.conf +[root@node1 ~]# vi /etc/httpd/conf/httpd.conf 
-[root@node1 ~]# cat /etc/httpd/conf/httod.conf+[root@node1 ~]# cat /etc/httpd/conf/httpd.conf
 ... ...
 <Location /server-status> <Location /server-status>
Ligne 1651: Ligne 1736:
  
 <code> <code>
-[root@node2 ~]# vi /etc/httpd/conf/httod.conf +[root@node2 ~]# vi /etc/httpd/conf/httpd.conf 
-[root@node2 ~]# cat /etc/httpd/conf/httod.conf+[root@node2 ~]# cat /etc/httpd/conf/httpd.conf
 ... ...
 <Location /server-status> <Location /server-status>
Ligne 1750: Ligne 1835:
  
 <code> <code>
-[root@node1 ~]# vi /etc/lvm/lvm.conf +[root@node2 ~]# vi /etc/lvm/lvm.conf 
-[root@node1 ~]# cat /etc/lvm/lvm.conf | grep my_vg+[root@node2 ~]# cat /etc/lvm/lvm.conf | grep my_vg
  volume_list = [ ]  volume_list = [ ]
-<code>+</code>
  
 Regénérez un initramfs sur chaque noeud afin de prendre en compte ces modifications : Regénérez un initramfs sur chaque noeud afin de prendre en compte ces modifications :
Ligne 1775: Ligne 1860:
 </code> </code>
  
-===Création des Ressources du Cluster===+====Création des Ressources du Cluster====
  
 Créez la ressource cluster **my_lvm** : Créez la ressource cluster **my_lvm** :
Menu