Différences
Ci-dessous, les différences entre deux révisions de la page.
| Prochaine révision | Révision précédente | ||
| dornach:har100 [2021/01/23 07:56] – created admin | dornach:har100 [2021/01/26 13:54] (Version actuelle) – admin | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ======Red Hat High Availability Cluster | + | ~~PDF: |
| + | |||
| + | Version : **2021.01** | ||
| + | |||
| + | Dernière mise-à-jour : ~~LASTMOD~~ | ||
| + | |||
| + | ======HAR100 - Gestion de la Haute Disponibilité avec Red Hat High-Availability Cluster====== | ||
| + | |||
| + | =====Contenu du Module===== | ||
| + | |||
| + | * **HAR100 - Gestion de la Haute Disponibilité avec Red Hat High-Availability Cluster** | ||
| + | * Red Hat High Availability Cluster sous CentOS 7 | ||
| + | * Red Hat High Availability Cluster versus Red Hat Cluster Suite | ||
| + | * Installer le Logiciel du Module Red Hat High Availability | ||
| + | * Firewalld | ||
| + | * hacluster | ||
| + | * Démarrer le daemon pcsd | ||
| + | * Préparation des Machines Virtuelles | ||
| + | * Ethernet Channel Bonding | ||
| + | * Configuration du node1.i2tch.loc | ||
| + | * Configuration du node2.i2tch.loc | ||
| + | * Tester les Serveurs | ||
| + | * Démarrer le Service pcsd si nécessaire | ||
| + | * LAB #1 - L' | ||
| + | * LAB #2 - Création du cluster my_cluster | ||
| + | * LAB #3 - Activer les services cluster sur chaque noeud | ||
| + | * LAB #4 - Mise en place d'une clôture | ||
| + | * LAB #5 - Mise en place d'un Serveur Apache Actif/ | ||
| + | * Création du Stockage Partagé - Mutualisation du Stockage | ||
| + | * Création des Ressources du Cluster | ||
| =====Red Hat High Availability Cluster versus Red Hat Cluster Suite===== | =====Red Hat High Availability Cluster versus Red Hat Cluster Suite===== | ||
| Ligne 127: | Ligne 156: | ||
| =====Préparation des Machines Virtuelles===== | =====Préparation des Machines Virtuelles===== | ||
| - | A partir de votre machine virtuelle **CentOS**, créez 2 clones complets | + | A partir de votre serveur cloud, créez 2 clones complets |
| - | ^ Nom de la VM ^ RAM ^ | + | < |
| - | | node1.i2tch.loc | 512 Mo | | + | [root@centos7 ~]# exit |
| - | | node2.i2tch.loc | 512 Mo | | + | |
| - | <WRAP center round important> | + | [trainee@centos7 ~]$ exit |
| - | **Important** - Lors de la création des clones, veillez à réinitialiser l' | + | |
| - | </ | + | |
| - | Modifiez la configuration réseau | + | desktop@serverXX: |
| + | |||
| + | desktop@serverXX: | ||
| + | |||
| + | desktop@serverXX: | ||
| + | </ | ||
| + | |||
| + | Modifiez la configuration réseau | ||
| + | |||
| + | < | ||
| + | desktop@serverXX: | ||
| + | </ | ||
| + | |||
| + | Mettez les interfaces 2 et 3 de chaque VM dans le réseau interne **intnet** : | ||
| + | |||
| + | < | ||
| + | desktop@serverXX: | ||
| + | desktop@serverXX: | ||
| + | desktop@serverXX: | ||
| + | desktop@serverXX: | ||
| + | </ | ||
| + | |||
| + | Les deux VMs ont maintenant trois interfaces réseau | ||
| ^ Adaptateur ^ Carte 1 ^ Carte 2 ^ Carte 3 ^ | ^ Adaptateur ^ Carte 1 ^ Carte 2 ^ Carte 3 ^ | ||
| | Type de réseau | NAT | intnet | intnet | | | Type de réseau | NAT | intnet | intnet | | ||
| - | <WRAP center round important> | + | Démarrez les machines virtuelles |
| - | **Important** - Dans Virtual Box > Paramètres de node2.i2tch.loc > Réseau | + | |
| - | </WRAP> | + | <code> |
| + | desktop@serverXX: | ||
| + | ... | ||
| + | desktop@serverXX: | ||
| + | ... | ||
| + | </code> | ||
| + | |||
| + | Connectez-vous aux deux VMs : | ||
| + | |||
| + | <code> | ||
| + | desktop@serverXX: | ||
| + | </code> | ||
| + | |||
| + | < | ||
| + | desktop@serverXX: | ||
| + | </code> | ||
| - | Démarrez les machines virtuelles **node1.i2tch.loc** et **node2.i2tch.loc** et modifiez | + | Modifiez |
| < | < | ||
| Ligne 164: | Ligne 227: | ||
| </ | </ | ||
| - | Vérifiez la configuration réseau sur chaque | + | Vérifiez la configuration réseau sur chaque |
| < | < | ||
| Ligne 229: | Ligne 292: | ||
| [root@node1 ~]# lsmod | grep bonding | [root@node1 ~]# lsmod | grep bonding | ||
| bonding | bonding | ||
| + | </ | ||
| + | |||
| + | Pour rendre le chargement du module persistant lors du re-démarrage, | ||
| + | |||
| + | < | ||
| + | [root@node1 ~]# echo bonding >> / | ||
| </ | </ | ||
| Ligne 386: | Ligne 455: | ||
| [root@node2 ~]# lsmod | grep bonding | [root@node2 ~]# lsmod | grep bonding | ||
| bonding | bonding | ||
| + | </ | ||
| + | |||
| + | Pour rendre le chargement du module persistant lors du re-démarrage, | ||
| + | |||
| + | < | ||
| + | [root@node1 ~]# echo bonding >> / | ||
| </ | </ | ||
| Ligne 606: | Ligne 681: | ||
| </ | </ | ||
| - | =====LAB #32 - L' | + | =====LAB #1 - L' |
| La commande suivante authentifie l' | La commande suivante authentifie l' | ||
| Ligne 655: | Ligne 730: | ||
| </ | </ | ||
| - | =====LAB #33 - Création du cluster my_cluster===== | + | =====LAB #2 - Création du cluster my_cluster===== |
| Créez le cluster **my_cluster** en propageant les fichiers de configuration à chaque noeud et en démarrant les services avec l' | Créez le cluster **my_cluster** en propageant les fichiers de configuration à chaque noeud et en démarrant les services avec l' | ||
| Ligne 703: | Ligne 778: | ||
| </ | </ | ||
| - | =====LAB #34 - Activer les services cluster sur chaque noeud===== | + | =====LAB #3 - Activer les services cluster sur chaque noeud===== |
| Activer les services cluster sur chaque noeud dans le cluster quand le noeud est démarré : | Activer les services cluster sur chaque noeud dans le cluster quand le noeud est démarré : | ||
| Ligne 726: | Ligne 801: | ||
| </ | </ | ||
| - | =====LAB #35 - Mise en place d'une clôture===== | + | =====LAB #4 - Mise en place d'une clôture===== |
| Commencez par modifier le fichier **/ | Commencez par modifier le fichier **/ | ||
| Ligne 1077: | Ligne 1152: | ||
| </ | </ | ||
| - | =====LAB #36 - Mise en place d'un Serveur Apache Actif/ | + | =====LAB #5 - Mise en place d'un Serveur Apache Actif/ |
| - | ====Création du Stockage Partagé==== | + | ====Création du Stockage Partagé |
| - | Vous allez simuler un SAN avec iSCSI. | + | Vous allez simuler un SAN avec iSCSI. |
| - | Ajoutez un disque supplémentaire de type **vdi** et d'une taille de **8Go** au contrôleur SATA. | + | < |
| + | [root@node1 ~]# exit | ||
| - | Démarrez la machine virtuelle. | + | [trainee@node1 ~]$ exit |
| - | Connectez-vous à la VM via putty sur localhost:6022. | + | desktop@serverXX: |
| + | </ | ||
| + | |||
| + | Connectez-vous à la VM **iscsi** | ||
| + | |||
| + | < | ||
| + | desktop@serverXX: | ||
| + | </ | ||
| Commencez par installer le paquet **scsi-target-utils** : | Commencez par installer le paquet **scsi-target-utils** : | ||
| < | < | ||
| + | [trainee@iscsi ~]$ su - | ||
| + | ... | ||
| [root@iscsi ~]# yum install -y epel-release | [root@iscsi ~]# yum install -y epel-release | ||
| [root@iscsi ~]# yum install -y scsi-target-utils | [root@iscsi ~]# yum install -y scsi-target-utils | ||
| Ligne 1641: | Ligne 1726: | ||
| < | < | ||
| - | [root@node1 ~]# vi / | + | [root@node1 ~]# vi / |
| - | [root@node1 ~]# cat / | + | [root@node1 ~]# cat / |
| ... | ... | ||
| < | < | ||
| Ligne 1651: | Ligne 1736: | ||
| < | < | ||
| - | [root@node2 ~]# vi / | + | [root@node2 ~]# vi / |
| - | [root@node2 ~]# cat / | + | [root@node2 ~]# cat / |
| ... | ... | ||
| < | < | ||
| Ligne 1750: | Ligne 1835: | ||
| < | < | ||
| - | [root@node1 ~]# vi / | + | [root@node2 ~]# vi / |
| - | [root@node1 ~]# cat / | + | [root@node2 ~]# cat / |
| volume_list = [ ] | volume_list = [ ] | ||
| - | < | + | </code> |
| Regénérez un initramfs sur chaque noeud afin de prendre en compte ces modifications : | Regénérez un initramfs sur chaque noeud afin de prendre en compte ces modifications : | ||
| Ligne 1775: | Ligne 1860: | ||
| </ | </ | ||
| - | ===Création des Ressources du Cluster=== | + | ====Création des Ressources du Cluster==== |
| Créez la ressource cluster **my_lvm** : | Créez la ressource cluster **my_lvm** : | ||