Professional Documents
Culture Documents
Fourat Z.
°2/3
Senior software architect
Lab Technique N fourat.zouari@tritux.com
Qui sommes nous?
2
Plan
1. Définition d’une architecture à haute disponibilité
2. Mise en cluster de deux serveurs Red Hat via RHCS
3. Installation de JBoss EAP
4. Hébergement de services et création des failoverdomains
5. Configuration du load balanceur
6. Configuration de JBoss Clustring
s
7. Déploiement de l’application Hello world
8. Test
3
1. Définition d’une architecture à haute disponibilité
Problématique:
Dans une production informatique, certains services sont
particulièrement critiques.
Donc comment faire pour assurer la haute
disponibilité ce ces services ?
Solution:
Pour assurer la disponibilité de ces services, nous avons à notre
disposition les technologies de cluster de Red Hat: RHCS « Red Hat
Cluster Suite » et JBoss Clustering
4
2. Mise en cluster de deux serveurs Red Hat via RHCS
172.16.10.1 172.16.10.2
Cluster: sharky
tux 1 tux 2
s
Storage
tux0
172.16.10.253
5
2. Mise en cluster de deux serveurs Red Hat via RHCS
Configuration de NTP:
6
2. Mise en cluster de deux serveurs Red Hat via RHCS
Tux 1
7
2. Mise en cluster de deux serveurs Red Hat via RHCS
Désactivation de l’ACPI
8
2. Mise en cluster de deux serveurs Red Hat via RHCS
9
2. Mise en cluster de deux serveurs Red Hat via RHCS
Tux 1
Retourne:
Si tout a été bien passé vous devez avoir à la fin du message le mot « Successful ».
10
2. Mise en cluster de deux serveurs Red Hat via RHCS
[Etape 2]
Vérification de la création du
disque
11
2. Mise en cluster de deux serveurs Red Hat via RHCS
Tux 1
12
2. Mise en cluster de deux serveurs Red Hat via RHCS
13
2. Mise en cluster de deux serveurs Red Hat via RHCS
Tux 1
14
2. Mise en cluster de deux serveurs Red Hat via RHCS
La vérification de l’état du cluster peut être réalisée via la commande « cman_tool status »
15
2. Mise en cluster de deux serveurs Red Hat via RHCS
16
2. Mise en cluster de deux serveurs Red Hat via RHCS
Dans notre cas le serveur httpd sera utilisé pour le load balancing pour
les deux serveur JBoss.
Tux 1 Ce sujet sera bien détaillé ultérieurement.
Remarque: Vérifier bien que le servie httpd ne soit pas lancé par le
processus init au démarrage du système, on faite c’est le cluster qui doit
approprié ce dernier et gérer son démarrage et son arrêt.
17
3. Installation de JBoss EAP
Pour l’installation de JBoss EAP cette fois il doit être présent sur chacun
des membres du cluster (tux1 et tux2) et j’usqu’au présent il n’ya rien de
spécial concernant son installation il suffit donc de suivre les mêmes étapes
Tux 1 d’installation du LAB précédent.
Copier chacun de ces deux scripts sur le nœuds correspondant, les deux scripts sont déjà
présents sur le support CD du LAB2: sous les répertoires JBoss/tux1 et JBoss/tux2.
18
4. Hébergement de services et création des failoverdomains
Lorsqu’un serveur du cluster défaille, il faut que les services qu’il hébergeait
soient relancés sur l’autre serveur. Dans cette partie on va se concentrer à la
reconfiguration du fichier /etc/cluster/cluster.conf et plus précisément
Tux 1 définir la section appelée <failoverdomains/>.
Cette section définit les services critiques, sur quel nœud ils doivent démarrer
au début, les priorités des nœuds… etc.
s
19
4. Hébergement de services et création des failoverdomains
Tux 1
Pour mettre à jour ces modifications il faut tout d’abord incrémenter le champ config_version
ensuite lancer la commande « css_rool update /etc/cluster/cluster.conf. »
20
4. Hébergement de services et création des failoverdomains
21
4. Hébergement de services et création des failoverdomains
Tux 1
22
4. Hébergement de services et création des failoverdomains
Migration du service
Pour finir avec cette partie, nous allons déplacer le service sur un
l’autre nœud du cluster (tux2) via ces commandes:
Tux 1
23
5. Configuration du load balanceur
24
5. Configuration du load balanceur
25
5. Configuration du load balanceur
26
5. Configuration du load balanceur
Test
Après avoir redémarrer le service httpd entrer l’adresse
http://172.16.10.10/jkstatus dans votre browser et vous allez normalement
constater que le load balanceur fonctionne correctement.
27
5. Configuration du load balanceur
172.16.10.10 (IP flottanate)
172.16.10.1 172.16.10.2
(AJP) 8009 (AJP) 8009
8080 8080
Cluster: sharky
tux 1 tux 2
s
Storage
tux0
172.16.10.253
28
6. Configuration de JBoss Clustring
Pour tux1:
29
6. Configuration de JBoss Clustring
Il est noté que ces deux scripts ont étés expliqués juste pour comprendre ce qui est
derrière les nouveaux scripts de démarrage /etct/init.d/jboss_eap que vous venez de
copier. Donc pour déramer le serveur JBoss EAP en mode cluster il suffit de saisir
services jboss_eap start sur chacun des membres du cluster.
30
6. Configuration de JBoss Clustring
Pour vérifier que les deux membres se sont bien reconnus l’un à l’autre vous devriez
consulter le contenue du server.log et avoir des messages comme le montre la figure de
ci-dessous.
Cet exemple concerne le log du serveur JBoss EAP de (tux1) vous notez bien
d’après son contenu que les deux serveurs sessont bien reconnus l’un à autre.
7. Déploiement de l’application Hello world
s
Identifiez les deux fichiers helloworld-ds.xml et helloworld.war depuis le
répertoire Application du CD support de la formation puis vous les copiés sous le répertoire
$JBOSS_HOME/server/all/farm de tux1. Après quelques secondes vérifiez le contenu
du même répertoire de tux2 et vous allez remarquer que l’application « hello wolrd » a
été de même déployée sur tux2.
7. Déploiement de l’application Hello world
s
Identifiez les deux fichiers helloworld-ds.xml et helloworld.war depuis le
répertoire Application du CD support de la formation puis vous les copiés sous le répertoire
$JBOSS_HOME/server/all/farm de tux1. Après quelques secondes vérifiez le contenu
du même répertoire de tux2 et vous allez remarquer que l’application « hello wolrd » a
été de même déployée sur tux2.
8. Test
Vous notez bien que maintenant on peux accéder à notre application via l’adresse IP
flottante 172.16.10.10 et le port 80.
Donc pour conclure: le load balancer se charge de d’éguillage à un serveur Jboss soit de
tux1 ou de tux2 est si jamais le serveur JBoss de tux1 crashe, le second prend
systématiquement sa place. Tout ce mécanisme se déroule d’une façon transparent e à
l’utilisateur sans qu’il le constate.
s
8. Test
172.16.10.10 (IP flottanate)
172.16.10.1 172.16.10.2
(AJP) 8009
8080
Cluster: sharky
tux 1 tux 2
s
Storage
tux0
172.16.10.253
36
more …
http://tritux.com/products/
http://tritux.com/services/
http://tritux.com/blog/1