Professional Documents
Culture Documents
Mémoire de Magistère
En Informatique
Option
Réseaux et Systèmes Distribués
Thème
Présenté par
Nadir BOUCHAMA
Devant le jury :
Z. Sahnoun Professeur Président Université de Constantine
D. Aissani Professeur Rapporteur Université de Béjaïa
N. Djellab M.C Examinateur Université de Annaba
A. Oukaour M.C Examinateur Université de Caen (France)
M ERCI à mes parents pour leur patience et leur soutien indéfectbile qui m’ont
été plus qu’indispensables.
Mes très vifs remerciements vont à l’encontre de mon directeur de thèse, le Profes-
seur Djamil Aissani pour avoir accepté de m’encadrer et de m’orienter tout au long
de ce travail. Je le remercie également pour m’avoir acceuilli aux séminaires du LA-
MOS (LAboratoire de Modélisation et d’Optimisation des Systèmes), séminaires dans
lesquels j’ai beaucoup appris.
Enfin, que tous ceux qui ont contribué de près ou de loin à l’aboutissement de ce
travail trouvent ici ma reconnaissance et de ma sympatathie.
Table des matières
Introduction Générale 3
i
2.2.4 Goulot d’étranglement . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.5 Produit délai-bande passante (BDP, Bandwidth Delay Product) 27
2.2.6 Notion de Congestion . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Nécessité d’un contrôle de Congestion . . . . . . . . . . . . . . . . . . . 29
2.4 Propriétés d’un bon système de contrôle de congestion . . . . . . . . . 29
2.5 Taxonomie des méthodes de contrôle de congestion . . . . . . . . . . . 31
2.5.1 Taxonomie selon le stade d’intervention . . . . . . . . . . . . . . 31
2.5.2 Taxonomie selon la couche du modèle OSI . . . . . . . . . . . . 32
2.5.3 Taxonomie selon la durée de la congestion . . . . . . . . . . . . 33
2.5.4 Taxonomie selon le mécanisme utilisé (fenêtre dynamique versus
approche débit dynamique) . . . . . . . . . . . . . . . . . . . . 34
2.5.5 Taxonomie selon la boucle utilisée (boucle fermée versus boucle
ouverte) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5.6 Taxonomie selon la logique d’intervention (bout en bout versus
noeud par noeud) . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.6 Principe du contrôle de congestion dans les réseaux à commutation de
paquets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6.1 Détection de la congestion . . . . . . . . . . . . . . . . . . . . . 38
2.6.2 Communication de l’information de congestion . . . . . . . . . . 39
2.6.3 Actions prises par un commutateur . . . . . . . . . . . . . . . . 39
2.6.4 Contrôle de flux du côté des sources . . . . . . . . . . . . . . . . 39
2.6.5 Coopération entre les différents acteurs . . . . . . . . . . . . . . 40
2.7 Contrôle de Congestion dans DECBit . . . . . . . . . . . . . . . . . . . 40
2.8 Contrôle de congestion dans Internet . . . . . . . . . . . . . . . . . . . 42
2.8.1 Effondrement de Congestion (Congestion Collapse) . . . . . . . 43
2.8.2 Contrôle de Congestion dans TCP . . . . . . . . . . . . . . . . . 44
2.9 Améliorations pour TCP dans les réseaux haut débit . . . . . . . . . . 45
2.10 Contrôle de congestion dans les réseaux haut débit . . . . . . . . . . . 45
2.10.1 Mythes non fondés . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.10.2 Difficultés supplémentaires . . . . . . . . . . . . . . . . . . . . . 47
2.11 Contrôle de Congestion dans ATM . . . . . . . . . . . . . . . . . . . . 48
2.11.1 Fonction de Contrôle d’admission (Call Admission Control ) . . 48
2.11.1.1 Problème de la bande passante équivalente . . . . . . . 49
2.11.1.2 Contrôle d’admission basé sur les paramètres de la connexion 49
2.11.1.3 Contrôle d’admission basé sur les mesures . . . . . . . 50
2.11.1.4 Contrôle d’admission basé sur la bande et la capacité
du buffer . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.11.2 Fonction de Contrôle des paramètres de l’utilisateur (UPC, User
Parameter Control ) . . . . . . . . . . . . . . . . . . . . . . . . . 50
ii
2.11.3 Canalisation du trafic (traffic shaping) . . . . . . . . . . . . . . 51
2.11.4 Gestion Passive de la file d’attente . . . . . . . . . . . . . . . . 52
2.11.4.1 La méthode Drop Tail . . . . . . . . . . . . . . . . . . 52
2.11.4.2 la méthode Drop from Front . . . . . . . . . . . . . . . 53
2.11.5 Contrôle de flux pour la classe ABR (Available Bit Rate) . . . . 53
2.11.6 Réservation rapide de ressources (Fast Resource Management) . 54
2.12 Ingénierie de trafic et contrôle de congestion dans MPLS . . . . . . . . 55
2.13 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
iii
4.4.1 Multiplexage du trafic CBR de N sources . . . . . . . . . . . . . 78
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5 Résultats et Discussions 81
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2 Environnement de simulation . . . . . . . . . . . . . . . . . . . . . . . 81
5.2.1 Environnement de programmation . . . . . . . . . . . . . . . . . 81
5.2.2 Génération de nombre aléatoires dans avec la fonction rand() . . 82
5.2.3 Génération des arrivées selon une loi exponentielle . . . . . . . . 82
5.3 Résultats analytiques et résultats de simulation pour le modèle M/D/1 82
5.4 Résultats de la simulation de la file d’attente N.D/D/1 . . . . . . . . . 85
5.5 Exemple de calcul du gain statistique . . . . . . . . . . . . . . . . . . . 87
5.5.1 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Références Bibliographiques 99
iv
Liste des tableaux
v
Table des figures
vi
4.1 Les trois niveaux d’observation du trafic . . . . . . . . . . . . . . . . . . 73
4.2 Modèle N.D/D/1 de contrôle d’admission au niveau cellule (ici N=4) . 79
4.3 Multiplexage de 3 sources CBR . . . . . . . . . . . . . . . . . . . . . . 80
vii
Résumé
Abstract
In a system with resource sharing, congestion is present when the demand for resources
exceeds the quantity of available resources. Unexpectedly, new broadband technolo-
gies did nothing but worsen the congestion. Consequently, it is necessary to conceive
new congestion control protocols which are appropriate to the characteristics of such
networks. Congestion control consists in maintaining the system in lower part of the
threshold of congestion, while optimizing the use of the resources by statistical mul-
tiplexing. It is generally carried out by several preventive and reactive means. The
first aim to return the appearance of this phenomenon exceptional whereas the last
make it possible to return to a normal situation when, despite everything, congestion
occurs. This second class of methods is very used in ATM networks in order to guaran-
tee quality of service (QoS) of already established connections. The aim of this thesis
is to make a synthesis on the methods of congestion control in high speed networks.
Thereafter, we will study in a more detailed way two algorithms of control admission
(CAC) like examples of preventive control in ATM networks. .
Keywords : high speed networks, congestion, asynchronous transfer mode, quality of
service, performance evaluation, discrete event simulation, admission control.
"Verba volant, scripta manent"
Proverbe latin
Introduction Générale
L ES progrès significatifs réalisés ces dernières années dans le domaine des réseaux
de communication de données et de télécommuinications ont changé radicale-
ment notre façon de vivre et d’interagir. D’une première vue, ces réseaux peuvent être
divisés selon le type de commutation utilisé en deux grandes classes : réseaux à com-
mutation de circuits et réseaux à commutation de paquets. Les réseaux à commutation
de circuits, très répandus dans le domaine des télécommunications, sont très adéquats
pour le transfert de la voix ; alors que les réseaux à commutation de paquets conçus
par les constructeurs du matériel informatique sont destinés au transfert de données
informatiques (fichiers, images, etc).
Le besoin accru en applications multimédias d’une part, et le rapprochement des
télécommunications et de l’informatique ont donné naissance au RNIS-BE (Réseau
Numérique à Intégration de Services, Bande Etroite). Si ce dernier, connu aussi sous le
nom du RNIS de première génération a connu un grand succès lors de son apparition,
il n’en est pas autant lors de l’avènement du multimédia . Ainsi, les experts de l’UIT
(Union International de Télécommunications) pensèrent au RNIS-LB (RNIS à Large
Bande) ou RNIS de deuxième génération. Après de longs débats, le mode de transfert
asynchrone (ATM, Asynchronous Transfer Mode) a été adopté au détriment du mode
de transfert synchrone (STM, Synchronous Transfer Mode).
ATM est une technologie orientée connexion ; c’est à dire, elle établit un circuit
virtuel entre deux entités communicantes avant que celles-ci puissent envoyer leurs
données sous forme de paquets de taille fixe appelés cellules. Les réseaux ATM per-
mettent de supporter un grand éventail de services ayant des exigences en qualité de
service différentes. Avec la standardisation par l’UIT (Union Internationale des Télé-
communications) de ATM pour le RNIS-LB, une nouvelle technique de commutation
a vu le jour : la commutation de cellules. Cette nouvelle technique tire profit de la
flexibilité de la commutation de paquets et de la souplesse de la commutation de cir-
cuits.
Cependant, un réseau ATM comme tout réseau à commutation de paquets souffre du
problème de congestion. Celle-ci peut gravement affecter la qualité de service (QoS,
Quality of Service) des usagers. Elle peut même causer un effondrement de congestion
(congestion collapse), situation dans laquelle le réseau est totalement "paralysé". A cet
1
Introduction Générale
effet, des méthodes de contrôle de congestion ont été définies. Ces méthodes peuvent
être classifiées selon plusieurs critères. Selon le stade d’intervention, nous avons trois
classes : méthodes réactives, méthodes préventives (appelées aussi méthodes proac-
tives) et méthodes hybrides. Bien que les méthodes réactives ont fait leur preuve dans
l’Internet, nous allons voir que sans l’ajonction d’autres mécanismes préventifs, elles
sont inefficaces pour les réseaux ATM. Ainsi, et pour permettre de garantir une qua-
lité de service pour les abonnés des réseaux ATM, les organismes de normalisation de
l’ATM tels que l’ATM Forum et l’UIT préconisent l’utilisation d’un contrôle préven-
tif aux interfaces usager-réseau (UNI, User Network Interface) ainsi qu’aux interfaces
réseau-réseau (NNI,Network to Network Interface). L’exemple le plus connu d’un tel
contrôle est sans doute la fonction de contrôle d’admission (CAC, Call Admission
Control ). Ceci ne veut nullement dire qu’il faut rejeter de façon définitive le contrôle
flux de bout en bout effectué dans une grande partie par le protocole TCP (Transmis-
sion Control Protocol ) mais, bien au contraire, il faut améliorer les performances de
celui-ci qui a toutes les chances de rester prépondérant même dans les réseaux ayant
un produit délai-bande passante (BDP, Bandwidth Delay Product) très grand.
Organisation du mémoire
Ce mémoire est consacré au contrôle de congestion dans les réseaux à haut débit1 . A
cet effet, nous l’avons scindé en cinq chapitres :
Dans le chapitre 1, nous rappelons quelques notions fondamentales dans le domaine
des réseaux. Par la suite, nous introduisons quelques technologies nécessaires pour
supporter les hauts débits notamment pour les réseaux à grande distance (WAN, Wide
Area Networks) : Relais de Trames, ATM et MPLS. Un intérêt particulier sera accordé
à ATM, du fait qu’il fut adopté comme standard pour le RNIS-LB. Par la suite, nous
introquisonq la notion de qualité de service (QoS, Quality of Service) ainsi que les
paramètres et les classes de qualité de service dans les réseaux ATM.
Le chapitre 2 introduit la notion de congestion dans les réseaux à commutation
de paquets ainsi que la notion d’effondrement de congestion. Nous définissons d’abord
la notion de congestion et ses symptômes pour un réseau. Par la suite, nous verrons
comment le contrôle de congestion est plus ardu à résoudre dans les réseaux haut débit.
Nous montrerons également qu’aucune technologie matérielle actuelle ne peut régler
le problème de congestion de façon définitive sans l’ajonction de bon protocoles de
contrôle de congestion. Ce chapitre étudie aussi quelques algorithmes de contrôle de
congestion qui ont été proposés dans la littérature pour le contrôle de congestion dans
ATM, et aborde très brièvement l’ingénierie de trafic dans MPLS .
1
Notons que dans ce mémoire, nous utiliserons les expressions réseaux à haut débit et réseaux haut
débit de façon interchangeable.
2
Introduction Générale
3
Chapitre 1
Mahatma Ghandi
1.1 Introduction
1
En anglais : ITU (Internationale Telecommunication Union)
4
Chapitre 1 : Panorama des réseaux haut débit
Tab. 1.1 – Comparaison des trois classes de réseaux WAN, MAN et LAN
5
Chapitre 1 : Panorama des réseaux haut débit
6
Chapitre 1 : Panorama des réseaux haut débit
Une approche très différente est utilisée dans les réseaux à commutation de paquets
(packet-switching networks). Dans ce cas, les données sont plutôt transmises vers les
sorties en une séquence de paquets. Chaque paquet est transmis à travers le réseau d’un
noeud à un autre en passant par un chemin menant de la source à la destination. A
chaque noeud, le paquet entier est reçu, stocké pour une courte durée, puis retransmis
vers le noeud suivant. Des applications typiques de la commutation de paquets incluent
le transfert électronique de fonds, l’approbation des cartes de crédit, le transfert des
fichiers de petite taille et l’envoi du courrier électronique. Les paquets sont envoyés de
la source à la destination à travers des ressources partagées en utilisant le multiplexage
7
Chapitre 1 : Panorama des réseaux haut débit
8
Chapitre 1 : Panorama des réseaux haut débit
Type de Commutation
Circuits Paquets
Circuit dédié oui non
Bande passante dipo- fixe dynamique
nible
Gaspillage potentiel oui non
de la bande passante
Transmission Store non oui
and forward
Chaque paquets suit la oui oui ou non (selon le ré-
même route seau)
Etablissement d’un oui oui ou non (selon le ré-
circuit par séquence seau)
d’appels
Quand peut appa- à l’établissement du cir- à chaque paquet transmis
raître la congestion cuit
Principe de la factura- à la distance et à la durée au volume d’informations
tion transmises
9
Chapitre 1 : Panorama des réseaux haut débit
10
Chapitre 1 : Panorama des réseaux haut débit
11
Chapitre 1 : Panorama des réseaux haut débit
12
Chapitre 1 : Panorama des réseaux haut débit
dit : n
X
hi > C (1.1)
i=1
Où :
C : bande passante disponible du lien de sortie ;
hi : débit crête de la connexion i ;
n : nombre de connexions simultanées sur la ligne.
Pn
Mais le total des débits moyens ( mi ) ne doit pas dépasser la bande passante de la
i=1
ligne de sortie, c’est à dire :
n
X
mi ≤ C (1.2)
i=1
Le gain statistique réalisé et qui est noté SMG (Statistical Multiplexing Gain) est défini
alors de la façon suivante :
C
SMG = P
n (1.3)
hi
i=1
13
Chapitre 1 : Panorama des réseaux haut débit
14
Chapitre 1 : Panorama des réseaux haut débit
L’unité de donnée manipulée dans les réseaux ATM est appelée cellule. La figure 1.8
nous montre la structure de la cellule à l’interface usager-réseau (UNI, User Network
Interface) et à l’interface de noeud de réseau (NNI, Node Network Interface). Dans les
deux cas, la cellule est composée d’un champ d’information de 48 octets et d’un en-
tête de 5 octets. Les informations utilisateur sont transportées de façon transparente
dans le champ d’information. En effet, aucun contrôle d’erreur n’est exercé sur ces
15
Chapitre 1 : Panorama des réseaux haut débit
16
Chapitre 1 : Panorama des réseaux haut débit
ATM est une technique orientée connexion. Ceci signifie que tout transfert d’infor-
mation est composé de trois étapes : l’établissement de la connexion, le transfert de
l’information lui même et la fermeture de la connexion. Deux types de connexion sont
définis dans les documents de normalisation : les connexions de voie virtuelle (VCC,
Virtual Channel Connection) et les connexions de conduit virtuel (VPC, Virtual Path
Connection). Elle sont définies comme suit : La capacité de chaque connexion physique
est divisée, logiquement, en un certain nombre de liens ATM appelés conduits virtuels
(VP, Virtual Path) ou liens de conduit virtuel. Une VPC se compose d’un VP est à la
fois divisée logiquement dans un certain nombre de liens ATM appelés voies virtuells
(VC, Virtual Channel ) ou liens de voies virtuelle. Une VCC se compse d’un VC ou de
la concaténation de plusieurs VC (voir Fig. 1.9).
17
Chapitre 1 : Panorama des réseaux haut débit
Lorsqu’un circuit virtuel est établi, la couche transport (un processus client sur un
ordinateur) et la couche ATM (un processus interne au réseau ATM) doivent conclure
un contrat spécifiant la classe de service associée au circuit virtuel ; une étape de
négociation est alors entreprise. Le contrat entre le client et l’opérateur comporte
généralement trois parties : le trafic susceptible d’être offert ;le service accepté d’un
commun accord et enfin les conditions de conformité requises. La première partie du
contrat s’appelle descripteur de trafic. Celui-ci caractérise la charge de trafic qui
peut être assuré. La seconde partie spécifie la qualité de service souhaitée par l’usager
et acceptée par le réseau. Pouir réaliser un contrat de service, le standard ATM a défini
un certain nombre de paramètres de qualité de service dont les valeurs peuvent faire
l’objet de négociation entre l’usager et le réseau [34], [91], [92]. Le tableau 1.3 résume
les paramètres de qualité de service les plus importants dans les réseaux ATM. Les trois
premiers paramètres spécifient à quel débit l’usager souhaite pratiquer la transmission
de ses cellules :
• PCR (Peak Cell Rate) : indique le débit crête de la source. Autrement dit,la valeur
maximale du débit envisagé. Le PCR est l’inverse du délai minimal entre l’arrivée de
deux-cellules.
• SCR (Sustained Cell Rate) : correspond à la valeur moyenne du débit envisagé
sur un long intervalle de temps. Pour un trafic de type CBR (Constant Bit Rate) la
18
Chapitre 1 : Panorama des réseaux haut débit
Signification
Paramètre
PCR (Peak Cell Rate) Débit de transmission maximum
SCR (Sustained Cell Rate) Débit pratiqué sur une longue période de
temps
MCR (Minimum Cell Rate) Débit minimum acceptable
CDVT (Cell Delay Variation Tolerance) Variation de délai toléré (gigue maxi-
male acceptée)
CLR (Cell Loss Ratio) Taux de cellules perdues ou arrivées trop
tardivement
CTD (Cell Transfer Delay) Temps d’acheminement des cellules
(moyen et maximum)
CDV (Cell Delay Variation) Variance du délai d’acheminement
CER (Cell Error Ratio) Taux d’erreur (nombre de cellules déli-
vrées sans erreur)
CMR (Cell Misinsertion Rate) Taux de cellules arrivées à une mauvaise
destination
valeur de SCR est égale à celle du PCR. D’autre part, le rapport PCR/SCR donne
une mesure variabilité du trafic (trafic burstiness).
• MCR (Minimum Cell Rate) : correspond au débit minimum acceptable par
l’utilisateur. En effet, si le réseau n’est pas capable de satisfaire ce minum, l’usager
rejette la connexion.
Le quatrième paramètre est un paramètre essentiel pour les applications temps réel :
• CVDT (Cell Variation Delay Tolerance ) : ce paramètre exprime la variation
admissible du temps de transmission des cellules. Autrement dit, il représente la gigue
(jitter ) acceptable.
Les trois paramètres suivants donnent les caractéristiques du réseau et qui sont mesu-
rées et vérifiées par le récepteur. Les trois font l’objet de négociations :
• CLR (Cell Loss Ratio) : exprime le pourcentage de cellules transmises qui ne sont
pas arrivées à destination, ou le pourcentage de cellules arrivées en retard (notamment
dans le cas d’un trafic temps réel). Par exemple, une application de vidéoconférence
doit avoir un CLR inférieur ou égal à 10−11 .
• CTD (Cell Transfer Delay ) : exprime le temps moyen de transit des cellules
19
Chapitre 1 : Panorama des réseaux haut débit
Les deux derniers paramètres de QoS spécifient des caractéristiques propres au ré-
seau :
• CER (Cell Error ratio) : mesure le nombre moyen de cellules arrivant à destina-
tion avec au moins un bit erroné.
• CMR (Cell Misinsertion ratio) : mesure le nombre moyen de cellules/seconde
qui sont remises à une mauvaise destination par suite d’une erreur non détectée dans
leur en-tête.
Lorsqu’une connexion est établie, elle résulte d’une négociation entre l’usager et le
réseau qui stipule la classe de transfert retenue. L’ATM-Forum a organisé les services
offerts par les réseaux ATM en cinq catégories (voir 1.3) :
1. La classe CBR (Constant Bit Rate) : La classe CBR définit une transmis-
sion à débit constant. La connexion est équivalente à un circuit téléphonique ;
cela revient à émuler un support de transmission (un câble électrique ou une
fibre optique). Cette classe est importante dans ATM. Elle permet d’écouler un
flux de données temps réel ou interactif, comme le trafic téléphonique, l’audio ou
la vidéo.
2. La classe RT-VBR (Real Time Variable Bit Rate) : la classe RT-VBR
est spécifique aux services qui ont un service variable combiné à des exigences de
temps réel importantes, par exemple la vidéo comprimée (comme la vidéocon-
férence) ou l’échange d’images codées MPEG (Moving Picture Expert Group).
Poue cette classe de trafic, le réseau ATM doit contrôler le temps moyen d’ache-
minement des cellules et ainsi que la variation moyenne du délai d’acheminement
des cellules.
3. La classe NRT-VBR (Non Real Time Variable Bit Rate) : la classe NRT-
VBR est destinée au trafic non temps réel où l’instant de remise est important,
même si les applications concernées tolèrent une certaine gigue. Comme exemple,
on peut citer le transfert d’un document multimédia.
4. La classe ABR (Available Bit Rate) : la classe ABR définit un débit possible.
Cette classe permet d’écouler du trafic sporadique dont la bande passante (ou le
débit) nécessaire est difficilement prévisible.
5. La classe UBR (Unspecified Bit Rate) : la classe UBR ne définit aucun
débit et ne délivre pas non plus d’information de retour en cas de congestion.
20
Chapitre 1 : Panorama des réseaux haut débit
21
Chapitre 1 : Panorama des réseaux haut débit
22
Chapitre 1 : Panorama des réseaux haut débit
1.5 Conclusion
Les futures applications demanderont une bande passante en augmentation constante
avec un trafic très hétérogène (voix, données, images). De plus, les utilisateurs souhaite-
ront payer suivant la qualité de service qu’ils demandent. Les réseaux ATM permettent
justement de garantir cette qualité de service indépendamment des caractéristiques du
service transporté. Cependant, la volonté d’universalité des réseaux ATM a conduit à
un pari difficile : assurer un qualité de service comparable à celle des réseaux synchrone
tout en offrant la souplesse des réseaux de paquets desquels ATM a hérité la vulnéra-
bilité aux problèmes de congestion. De ce fait, la définition de mécanismes de contrôle
de trafic et de congestion s’avère primordiale pour garantir la qualité de service requise
par les utilisateurs. L’étude du phènomène de congestion et des solutions proposées
pour y remédier fera l’objet du chapitre suivant.
23
Chapitre 2
"Popular myths that cheaper memory, high-speed links, and high-speed processors
will solve the problem of congestion in computer networks are shown to be false."
2.1 Introduction
L ES avancées technologiques dans le domaine des réseaux locaux ainsi que l’avène-
ment de la fibre optique ont permis d’offrir un grand éventail de débits pouvant
atteindre des centaines de mégabits par seconde. Toutefois, ces nouvelles technologies
doivent coexister avec les anciens médias tels que les paires torsadées (twisted pairs).
Cette hétérogénéité a donné naissance à une grande disparité entre les taux d’arrivée et
de service dans les noeuds intermédiaires dans le réseau, causant ainsi des délais d’at-
tente plus grands, et des phénomènes de congestion. La plupart des réseaux déployés
(reposant sur TCP et ATM) implémentent des méthodes de contrôle de congestion.
Dans ce chapitre, nous nous intéresserons au phénomène de congestion. Ses causes
seront identifiées et les mécanismes proposés seront étudiés. Nous attarderons sur les
mécanismes de contrôle de congestion dans les réseaux ATM et aborderons très briè-
vement l’ingénierie de trafic dans MPLS.
24
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
sur les processeurs, etc. D’une façon générale, le problème d’allocation de ressources
dans les réseaux est le suivant : on se donne un réseau avec une certaine topologie,
un ensemble de ressources, et un ensemble d’utilisateurs avec des besoins éventuel-
lement différents les uns des autres ( une personne consultant ses mails n’a pas les
mêmes besoins qu’une autre utilisant une application vocale ou audio). Le problème
est alors de choisir une façon de partager les ressources du réseau entre les utilisateurs
en respectant deux propriétés fondamentales : l’efficacité et l’équité.
Enfin, on calculera le rapport τU entre cette qauantité et la valeur optimale qui résul-
terait d’un fonctionnement idéal du réseau. C’est à dire :
Q
τU = (2.2)
Qopt
25
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
26
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
Un réseau dans le quel une telle situation survient est appelé alors réseau congestionné
(congested network ).
1
Dans la littérature, on parle parfois d’encombrement, d’engorgement, ou encore d’embouteillage.
Dans le présent mémoire, nous adopterons le terme congestion.
27
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
La présence d’une congestion est indésirable dans un réseau car elle peut causer :
• des délais de bout en bout plus longs ;
• des pertes de paquets ;
• un affaiblissement du débit du à la perte et des retransmissions de paquets, etc ;
Dans les réseaux à commutation de paquets , la congestion a lieu en raison de deux
facteurs principaux (Fig. 2.1) :
• le débit du lien de sortie est inférieur au débits des données entrantes ;
• des sources multiples sont en concurrence pour un seul lien et au même moment.
La figure 2.2 (a) montre l’évolution du débit (nombre de paquets délivrés aux
stations réceptrices) en fonction de la charge offerte (nombre de paquets transmis
par une station émettrice) tandis que la figure 2.2 (b) montre l’évolution du débit en
fonction de la charge offerte ([90],[91], et [52]).
Dans le cas idéal, le débit et l’utilisation du réseau peuvent atteindre la capacité maxi-
male du réseau. L’utilisation devient peut alors être de 100%. Ce cas idéal implique
que toutes les stations sachent, d’une manière ou d’une autre et de façon exacte, le
moment auquel elles doivent envoyer ou arrêter l’envoi de leurs données ; chose qui est
impossible. Si aucun contrôle n’est exercé, on obtient le graphe des deux figures 2.2 (a)
et 2.2 (b) que nous avons appelé "non contrôlé". On remarque que les performances
du réseaux chutent rapidemnt après avoir dépassé une certaine charge offerte.
Il est clair que cette situation "catastrophique" doit être évitée. Ceci est l’objet des
mécanismes de contrôle de congestion. Ces mécanismes permettent d’obtenir des per-
formances acceptables avoisinant même des fois les performances idéales. Ceci est illus-
tré dans les courbes que nous avons appelés "contrôlé" dans les figures 2.2 (a) et 2.2
(b).
28
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
29
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
donné, et de l’absence d’un organe de contrôle central qui régulerait le trafic en fonction
de l’état global du réseau. Un bon mécanisme de contrôle de congestion doit tenter
de satisfaire un certain nombre de proprétés fondamentales que nous étudierons dans
cette section. En pratique, la plupart des algorithmes ne satisfont que quelques unes
de ces propriétés qui sont les suivantes :
1. Simplicité (Simplicity )
La simplicité a été toujours un avantage. Il est très important de réduire la
complexité d’un algorithme de contrôle de congestion pour faciliter son implé-
mentation sur matériel (hardware) aussi bien que sur logiciel (software).
2. Efficacité (Efficiency )
Il existe deux aspects d’efficacité d’une méthode de contrôle de congestion. Pre-
mièrement, l’overhead que la méthode de contrôle de congestion impose au réseau
. En effet, les paquets de contrôle eux-mêmes empirent la situation de congestion
dans un réseau. part conséquent, une bonne méthode de contrôle de congestion
doit minimiser les données de contrôle. Deuxièmement, on doit maximiser l’uti-
lisation des ressources du réseau.
3. Equité (Fairness)
L’équité peut ne pas être très importante au moment où le réseau n’est pas sur-
chargé et toutes les demandes peuvent être satisfaites. Par contre, durant les pé-
riodes de congestion où les ressources disponibles sont inférieures aux demandes,
il est très important que ces ressources soient partagées de façon équitable.
4. Extensibilité (Scalability )
Les réseaux peuvent être classifiées selon leurs étendues géographiques , le nombre
de noeuds, le débit ou le nombre d’usagers. Un bon système de contrôle de
congestion ne doit pas être limité à une gamme de vitesses, à une distance ou à
un nombre particulier de commutateurs. Ceci garantira que ce même système de
contrôle de congestion puisse être utilisé pour les réseaux locaux (LANs) aussi
bien que pour les réseaux étendus (WANs).
5. Robustesse (Robustness)
Par robustesse, on entend l’insensibilité de l’algorithme de contrôle de congestion
aux petites déviations. Par exemple, une petite perte des messages de contrôle
ne doit pas causer un effondrement des capacités du réseau. Notons que chez
certains auteurs , cette propriété est appelé stabilité (stability).
6. Implémentabilité (Implementability )
Un algorithme de contrôle de congestion ne doit pas dicter un architecture par-
ticulière pour les commutateurs du réseau.
30
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
Dans les réseaux ATM, Les trafics du type CBR et VBR utilisent un schéma de
31
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
contrôle de congestion préventif alors que le trafic ABR utilise un schéma de contrôle
de congestion de type réactif [58]. Les mécanismes réactifs de contrôle de congestion
ont été utilisés dans les réseaux classiques. Cependant, ils ne peuvent pas être adaptés
pour les réseaux haut débit pour des raisons qu’on verra dans ce chapitre (voir aussi
[2], [34], et [68]).
32
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
mise en file d’attente des paquets concerne les routeurs qui gérent les différents flux
selon une politique d’ordonnancement (scheduling) donnée.
• Au niveau de la couche transport, une difficulté supplémentaire apparaît : la
définition des intervalles de temps hors délai lors de la gestion des paquets. En effet,
ce temps est plus difficile d’estimer ce paramètre entre deux sources qu’entre deux
routeurs : si on prend ce temps très court, des paquets supplémentaires inopportuns
sont retransmis ; s’il est plus long, c’est le temps de réponse qui en souffrira à chaque
fois qu’un paquet est perdu.
33
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
Tab. 2.2 – Comparaison entre le contrôle par fenêtre et le contrôle par débit
de la méthode appropriée. La meilleure méthode pour les réseaux qui sont presque
souvent congestionnés est de remplacer les liaisons à faible débit par des liaisons à haut
débit et de redimmensionner le réseau pour répondre aux nouveaux besoins. Pour une
congestion sporadique (sporadic congestion), une solution consiste à utiliser un routage
dynamique qui consiste à acheminer le trafic selon la charge des liens du réseau et
de rejeter toutes les nouvelles connexions si tous les liens sont lourdement chargés.
Pour une durée de congestion moyenne, on pourra utiliser un contrôle d’admission,
qui va rejeter toutes les connexions entrantes tant que la congestion persiste. Pour
les congestions durant moins que la durée d’une connexion, un mécanisme de contrôle
de bout en bout ou saut par saut peut être utilisé . Enfin, pour des congestions de
très courte durée, les files d’attente au niveau des noeuds de commutation permettent
d’absorber les rafales de donnés au cas où la ligne se sortie n’arrive pas à suivre.
34
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
35
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
36
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
37
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
dont les composants internes (noeuds de commutations) ne nous intéressent pas ; tandis
qu’un contrôle noeud par noeud, on voit le réseau comme étant une boîte blanche.
38
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
être utilisée comme signal de congestion. Le problème de cette métrique est la phase
de l’évitement de la congestion (congestion avoidance) peut laisser la ligne de sortie
inutilisée menant ainsi à une inefficacité du réseau ;
• une source peut aussi surveiller les RTTs (Round Trip Times). Une augmentation
dans ces derniers signale une augmentation dans la taille des files d’attente et par
conséquent un risque de congestion ;
• une source peut aussi maintenir un temporisateur (timer ) qui déclenche une alarme
quand un paquet n’est pas acquitté à temps [82]. Une fois l’alarme déclenchée, la
congestion est alors suspectée.
39
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
des sources. Par conséquent, elle présente une bonne alternative pour le contrôle de
congestion. L’analyse de la stabilité et de l’efficacité de cette approche est donnée dans
[63].
40
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
dans chaque commutateur du réseau. Le feedback vers la source est donc explicite. On
n’attend pas la perte de paquets pour détecter un état de congestion comme s’est le cas
dans TCP Reno ou TCP Vegas. L’algorithme DECBit consiste en deux composantes
principales :
1. L’algorithme utilisé par les commutateurs pour positionner les bits d’indication
de congestion,
2. L’algorithme utilisé par les sources pour ajuster la taille de la fenêtre en réponse
à un feedback. Les commutateurs pisitionnent les bits d’indication de congestion
dans les paquets de données si la taille moyenne des files excède un paquet
La taille moyenne d’une file est calculée à des intervalles appelés cycles de régénération.
Un cycle de régénération (Fig. 2.7) est défini comme étant la durée des périodes oisive +
occupée plus la période occupée courante [58], [83]. La source enregistre combien de ses
paquets ont provoqué la mise en place du bit du congestion. Plus précisément la source
maintient une fenêtre de transmission semblable à celle de TCP et évalue la fraction
de cette fenêtre dont les paquets ont été marqués. Si cette part est inférieure à 50 %
alors la source accroît la taille de sa fenêtre de 1 paquet. Si 50% ou plus de ces paquets
sont marqués alors la source réduit la taille de sa fenêtre à 0.875 fois la taille courante.
41
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
différentes ont des délais inégaux, DECBit devient biaisé contre les connexions à longs
délais [58]. En outre, dans les périodes de congestion, il signale la congestion pas seule-
ment aux connexions surchargeantes mais aussi aux connexions qui ont des exigences
en dessus de celles du partage max-min équitable . Comme il a été montré dans [19]
que la combinaison de mécanismes AIMD (Additive Increase Multiplicative Decrease)
avec un marquage sélectif (selective marking) mène à un système stable et équitable,
cette solution a été apportée par la suite à DECBit.
42
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
43
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
Plusieurs versions de TCP ont été proposées dans la littérature pour améliorer les
performances de TCP dans Internet :
Dans TCP Tahoe, Van Jacobson donne les premières améliorations de TCP au ni-
veau de ses algorithmes de contrôle de congestion [51]. Il définit un nouveau concept
important qui est la fenêtre de congestion (congestion window ) sur laquelle se base
deux algorithmes principaux de TCP : Les algorithmes de Slow Start et de Congestion
Avoidance. Cette version de TCP porte le nom de TCP Tahoe et date de 1988. par la
suite, vinrent d’autres versions : TCP Reno, TCP Vegas, TCP New Reno, etc [16].
44
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
45
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
scientifique [53], [55] concernant des solutions possibles à ce problème . On peut citer
par exemple :
1. La congestion est causée par le déficit en terme d’espace mémoire dans les com-
mutateurs et les routeurs, et ceci va être résolu quand le coût de la mémoire va
baisser ;
2. La congestion est causée par les liens à faible débit ; ceci va alors être résolu avec
l’avènement de liens à haut débit ;
3. La congestion est causée par les processeurs très lents. Le problème va être résolu
quand la vitesse des processeurs sera suffisamment grande ;
4. Si aucun des points ci-dessus n’est la vraie raison causant la congestion, alors
l’avènement d’une technologie répondant aux trois exigences ci-dessus réglera le
problème de congestion de façon définitive.
Raj Jain nous montre dans [53], de façon simple, que de telles idées ne sont que des
mythes. En effet :
– L’augmentation de la taille des tampons dans les différents noeuds du réseau
causera des délais d’attente plus grands. Nagle a montré dans [76], et [77] que
même si les routeurs disposaient d’une file d’attente infinie, la congestion serait en
fait bien pire. Ceci est lié au fait que le temps mis par les paquets pour atteindre
la tête de la file est largement supérieur au temps imparti à la transmission d’un
paquet (time out). Il en découle que des paquets dupliqués risquent d’arriver sur
les entrées du routeur car les sources ont, elles aussi, atteint le temps au bout
duquel elles doivent retransmettre un paquets qui n’a pas été acquitté. Tous
ces paquets seront donc retransmis plusieurs fois aux routeurs suivants, ce qui
augmente d’autant la surcharge du réseau sur la quasi-totalité des destinations.
– L’accroissement des débits supportés causera une mésalliance entre les différents
acteurs du réseaux aggravant ainsi de plus en plus la congestion.
– L’amélioration des vitesses des processeurs dans les différents noeuds du réseau
quant à elle ne garantira pas de pallier ce problème.
Pour étayer ses propos, il nous donne l’exemple suivant (Fig. 2.9) qui montre que l’in-
troduction d’une liaison haut débit, sans l’adjonction d’un mécanisme de contrôle de
congestion adéquat, peut conduire à une réduction considérable des performances. En
effet, on s’attendait à réduire le délai de bout en bout du transfert du fichier. Or, ce
que c’est passé est tout à fait l’inverse : le temps de transfert est passé de 5 min à
7 heures ! Ceci est justifié par le fait que le débit à l’entrée du premier routeur est
devenu largement plus important qu’à sa sortie, conduisant à l’accumulation puis à la
perte de paquets dans sa file d’attente. Or, les pertes de paquets donnent lieu à des
retransmissions des paquets perdus, qui à leur tour, se font avec un très fort taux de
perte et ainsi de suite jusqu’à ce que le fichier soit entièrement transféré.
46
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
Fig. 2.9 – L’introduction d’une laison à haut débit n’a fait qu’aggraver la situation.
Cet exemple nous illustre à merveille que le contrôle de congestion devient primor-
dial lorsque le réseau est hétérogène, c’est à dire lorsque des liaisons hauts débits sont
connectées à des réseaux de plus faibles débits. La congestion à l’interconnexion de-
vient un véritable problème, et les performances obtenues peuvent être inférieures à
celles précédant l’intégration de la liaison haut débit. Ainsi, le renforcement d’un seul
élément d’un système ne permet pas d’améliorer fortement ses performances ; le plus
souvent cela se traduit par un simple déplacement du problème. Le vrai problème est
la différence de performances qui existe entre les éléments du système. De ce fait, la
congestion persistera aussi longtemps que cette différence demeure [92].
47
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
48
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
CAC est invoquée pour chaque lien du réseau ATM entre le point d’origine de l’appel
et la destination.
La complexité du trafic hétérogène dans les réseaux haut débit rend la décision
d’accepter un nouveau appel très difficile. En effet, dans un mode de transfert utilisant
un multiplexage déterministe la décision d’admettre une nouvelle connexion peut être
basé tout simplement sur le débit crête (PCR) requis par l’appel et de la bande passante
disponible dans le réseau au moment de l’arrivée de cet appel. Par contre , dans le cas
d’un mode de multiplexage statistique, une telle décision pour un nouveau appel est
plus compliquée car les exigences en bande passante des débits crêtes peuvent dépasser
la capacité du lien de sortie. Dans ATM, le réseau ne réserve pas explicitement une
bande passante aux différentes connexions. Par contre, le besoin en bande passante est
calculé selon plusieurs approches qu’on trouvera dans [18].
Il est possible de développer des algorithmes de CAC en se basant sur des hypothèses
de trafic. Par exemple, si on suppose que les trafics sont poissoniens, l’étude de la
file M/D/1/k permet d’indiquer le montant de ressources nécessaires pour accepter la
connexion (voir Chapitre 4). De même, si on fait l’hypothèse que le trafic est de type
ON/OFF (rafales suivies de silences de longueurs exponentiellement distribuées), il
est possible de développer un algorithme de contrôle d’admission correspondant [40].
Dans la littérature, beaucoup d’algorithmes de contrôle d’admission ont été proposés :
Ce type d’algorithmes utilise les caractéristiques d’une connexion qui sont spéci-
fiées par l’usager pour décider s’il va accepter ou rejeter cette connexion [57]. Ce type
d’algorithmes peut être à son tour divisé en deux sous-classes : algorithmes à allocation
statistique et ceux à allocation non-statistique.
Contrôle d’admission à allocation non statistique
Les algorithmes à allocation non statistique (appelée aussi allocation par débit crête)
forment la classe la plus simple parmi tous les algorithmes de contrôle d’admission.
La seule information requise pour faire une décision sur l’acceptation ou le rejet d’une
connexion est le debit crête (PCR). Le principe est de s’assurer que la somme des
ressources requises est bornée par la capacité du lien de sortie. Le problème majeur de
tels algorithmes est qu’il n’y a pas de gain statistique. Cependant, vu leur simplicité
et la très bonne qualité de service (aucune cellule n’est perdue) qu’ils offrent, ces al-
gorithmes ont été largement implémentés dans les commutateurs ATM.
Contrôle d’admission à allocation statistique
Ces algorithmes ont une philosophie plus compliquée : ils n’acceptent pas une connexion
en se basant seulement sur le débit crête mais plutôt la bande passante allouée est si-
49
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
tuée entre le débit crête (PCR) et le débit moyen (MCR). Par conséquent, il peut
arriver que la somme des débits crête dépasse la bande passante du lien de sortie cau-
sant ainsi des pertes de cellules. L’avantage de ces algorithme est le gain statistique
considérable qu’il permettent d’offrir surtout pour des sources sporadiques. Par contre,
dans des situations de congestion sévère, ils deviennent très difficiles à manipuler [80].
Ces algorithmes utilisent les mesures pour estimer la charge courante du trafic
existant. Par conséquent, ils ne peuvent être évalués qu’en utilisant des réseaux ATM
déja existants ou en utilisant la simulation [96]. Ces algorithmes facilitent la tâche de
l’usager qui n’est pas obligé à chaque fois de spécifier les paramètres de sa connexion.
Dans les algorithmes basés sur la la bande et la capacité du buffer, chaque session
est représentée par un couple (σ, ρ) où σ et ρ représentent respectivement l’espace dans
le tampon et la bande passante allouée à la connexion dans chaque commutateur. Un
tel schéma garantit la qualité de service pour la connexion et s’avère très flexible car la
taille du buffer et la bande passante peuvent être dynamiquement alloués en se basant
sur les ressources existantes et les connexions déja admises. La taille du buffer σ peut
être diminuée en augmentant la bande passante ρ et vice versa [20].
D’autres fonctions CAC existent dans la littérature . Le lecteur intéressé peut consulter
par exemple [6], [17], [18], et [31].
50
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
– rejeter la cellule ;
– marquer la cellule avec un bit CLP positionné à 1 ;
– informer l’entité qui gère la connexion pour que celle-ci décide de fermer la
connexion.
Une fonction UPC idéale doit être capable de détecter les cellules violant les paramètres
déclarés, transparente aux connexions respectant leurs paramètres d’admission et son
temps de réponse
Divers mécanismes ont été proposés pour implémenter l’UPC. On peut citer par
exemple : la fenêtre glissante (sliding window ) et la fenêtre sautante (jumping win-
dow ) [31].
51
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
cela n’influe sur l’écoulement de l’eau par le trou (Fig. 2.11). Ce principe peut être
transposé sans difficulté à la transmission de paquets dans un réseau : un ordinateur
n’est autorisé à insérer un paquet dans le réseau qu’à chaque top d’horloge. Ainsi, ce
mécanisme transforme un flux irrégulier de paquets provenant d’un processus client
interne à un ordinateur source en un flux régulier de paquets sur le réseau permettant
ainsi de faire disparaître les pics de trafic qui causent souvent des phénomènes de
congestion . Une amélioration du seau percé est l’algorithme du seau percé à jeton
(token bucket) ( Fig. 2.12). L’idée de base de cet algorithme est la suivante : quand
une nouvelle cellule arrive dans le réseau elle doit se procurer un ticket (token) d’un
seau de taille β qui contient des jetons . Un fois la cellule transmise, le nombre de
jetons est décrémenté. Si la cellule ne trouve aucun jeton, alors elle doit soit attendre
s’il a assez de places dans la file d’attente qui d’une taille K ; soit rejetée si le file
d’attente est pleine. La génération des jetons se fait à un débit ρ
L’algorithme du Drop tail est le plus simple des algorithmes de rejet de paquets.
Son principe est de rejeter tout paquets arrivant lorsque les files d’attente dans les rou-
teurs sont pleines. Aucune notification explicite de perte ne sera envoyée aux sources.
52
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
En effet, il incombe au protocole TCP de détecter implicitement ces pertes soit par
l’expiration des temporisateurs, soit par les acquittements reçus. L’avantage du Drop
tail est sa simpilcité de mise en oeuvre. En revanche, Drop Tail a plusieurs inconvé-
nients. Le premier inconvénient est qu’il n’est pas capable de faire une isolation entre
les differents flux, ce qui sera très gênant pour les application temps réel telles la vi-
déo, l’audio, et la vidéoconférence. L’inéquité est un autre problème dont souffre Drop
Tail. En effet, les connexions avec un large RTT (Rount Trip Delay) ont tendance à
augmenter les tailles de leurs fenêtres de façon plus lente que celles (les connexions)
qui ont des RTTs plus petits. Un troisième inconvénient est le fait de ne pas agir contre
les sources qui se comportent de façon illégale, et ne répondent pas aux indications de
congestion (implicites ou explicites) et qui transmettent plus qu’il leur est toléré. ces
sources occuperont un grand espace dans les files d’attente des routeurs augementant
aisi les taux de perte pour les autres sources qui se comportent de façon lus ou moins
légale.
D’autres approches ont été proposée dans la littérature qui différent un peu de
Drop Tail. Lakshman et al proposent de rejeter les paquets à partir de la tête de la
file d’attente au lieu de la queue quand la file est pleine . Une telle approche est dite
Drop from Front. dans cette approche, TCP va détecter les pertes de paquets plus
rapidement que dans Drop Tail. D’autre part, Drop from Front améliore le débit et
l’équité en évitant des pertes sporadiques et en évitant les synchronisations entre les
différentes sources.
53
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
54
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
55
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
l’IETF (Internet Engineering Task Force) a introduit le routage basé sur contraintes
(constraint-based routing)[23] et une amélioration au protocole IGP appelée "enhanced
link state IGP". Avec l’aide de MPLS, une solution peut être apportée au problème de
congestion en utilisant un équilibrage de charge (load balancing). Par exemple, on voit
dans la figure 2.14, MPLS a balancé la charge de telle sorte que le réseau soit utlisé
de façon efficace.
L’ingénierie du trafic offre plusieurs avantages, à savoir [3] :
1. Avec MPLS, les capacités d’ingénierie du trafic sont intégrées à la couche 3, ce
qui optimise le routage du trafic IP en fonction des contraintes imposées par la
capacité et la topologie du backbone ;
2. Elle achemine les flux de trafic IP à travers le réseau en se basant sur les ressources
dont le flux a besoin, et sur les ressources diponibles dans le réseaux ;
3. Elle utilise le routage basé sur les contraintes (constraint-based routing)dans le-
quel un chemin pour un flux est choisi selon la distance, la bande passante requise,
et la priorité du flux ; permettant ainsi de garantir une bonne qualité de service ;
4. Elle permet de s’adapter à un nouvel ensemble de contraintes en cas de présence
de défaillance dans les liens du réseau ou en cas de changement de la topologie
du réseau.
56
Chapitre 2 : Contrôle de congestion dans les réseaux haut débit
2.13 Conclusion
Dans ce chapitre, nous avons mis en évidence le fait que les technologies haut débit,
tellement attendues pour résoudre le problème de congestion, n’ont fait qu’aggraver la
situation. Par conséquent, il faut investir d’avantage dans la conception de nouveaux
mécanismes et protocoles pour faire face à ce problème. Nous avons également vu que
organismes de standardisation de ATM préconisent un contrôle préventif pour garantir
une certaine qualité de service. Cependant, le contrôle réactif est aussi présent notam-
ment pour la classe de service ABR. Le choix d’un mécanisme donné au détriment d’un
autre se fait selon une métrique de performance. Cette dernière peut être objective (vi-
sion du concepteur du réseau) ou subjective (vision des utilisateurs). Nous verrons dans
le chapitre qui suit quelques problèmes liés à l’évaluation des performances de réseaux
ATM.
57
Chapitre 3
Evaluation de Performances des
Réseaux ATM
3.1 Introduction
58
Chapitre 3 : Evaluation de performances des réseaux ATM
3.2.1 Modélisation
la modélisation (modelling) joue un rôle primordial dans la conception ou la main-
tenance des systèmes informatiques, de production et de télécommunications. Avant
d’introduire la notion de modèle, nous définissons d’abord la notion de système.
59
Chapitre 3 : Evaluation de performances des réseaux ATM
pour calculer les indices de performances recherchés, et par conséquent, nous pouvons
ainsi parfois simplifier le modèle pour faciliter sa résolution. Pour finir, nous compa-
rons les résultats obtenus avec le comportement du système réel , et nous pouvons
alors concevoir le système qui donne les performances optimales. L’avantage de la mo-
délisation par rapport aux mesures directes est qu’elle peut être employée aussi bien
pendant les phases de conception d’un système que durant les phases de l’exploitation
opérationnelle.
3.2.2 Résolution
Dans cette deuxième phase, la question que l’on se pose est la suivante :
" Quels sont les critères (ou les indices) de performance qui nous intéresssent ? "
Ces critères peuvent êtres définis principalement selon trois angles de vue [46] : point
de vue de l’utilisateur, celui de l’administrateur, et enfin celui du concepteur du réseau.
Ces critères sont parfois contradictoires comme c’est illustré dans la figure 3.2.
L’utilisateur s’intéresse à son expérience avec le réseau et non à la performance tech-
nique de celui-ci comme c’est le cas de l’administrateur. Généralement, il s’intéresse
aux délais de bout en bout mais d’autres critères peuvent l’intéresser également : dis-
poniblité du système à tout moment, confidentialité des données, équité du réseau, etc
.
L’administrateur, quant à lui, voudrait maximiser l’utilisation du réseau pour en tirer
un maximum de profit.
Enfin, le concepteur mesure la performance du réseau dans le but de vérifier comment
la performance actuelle s’accorde avec la performance prédite. Il s’intéresse surtout à
la capacité des rampons de stockage, à l’efficacité des protocoles de communication et
à l’efficacité du contrôle de flux.
60
Chapitre 3 : Evaluation de performances des réseaux ATM
61
Chapitre 3 : Evaluation de performances des réseaux ATM
trusifs. Les premiers altèrent le comportement du système car il génèrent des données
de contrôle supplémentaires, tandis que les deuxièmes sont passifs et, par conséquent,
les mesures qu’il fournissent reflètent le vrai comportement du système.
Souvent, il est nécessaire de tester la validité d’un moniteur logiciel en le comparant à
un moniteur matériel.
Il existe une troisième catégorie de moniteurs appelés moniteurs hybrides qui com-
binent les avantages des moniteurs matériels (vitesse et précision) avec ceux des mo-
niteurs logiciels (flexibilité et accès aux informations logicielles).
3.3.3 La simulation
Vu la complexité et la taille des réseaux actuels tels que les réseaux basé sur le
protocole TCP/IP et les réseaux ATM, il devient très difficile de faire des investigations
62
Chapitre 3 : Evaluation de performances des réseaux ATM
sur les valeurs de performances en utilisant des méthodes analytiques. Par conséquent,
le recours aux techniques de simulation est obligatoire. L’utilisation de la simulation
est préconisée notamment, lorsque le processus original :
– est trop rapide pour qu’on puisse suivre son évolution avec les instruments à
disposition (réactions chimiques, processus physiques),
– est trop lent pour qu’on puisse en mesurer le comportement en un temps utile
(croissance des arbres, mouvements migratoires, évolution des espèces),
– est trop dangereux ou occasionnerait trop d’ennuis à l’entourage si l’on l’expéri-
mentait (réaction nucléaire, simulateur de vol) ;
– n’existe pas encore (processus industriels, systèmes de transport)
– est trop cher pour que l’on puisse en tester le comportement de plusieurs va-
riantes.
Le champ d’application de la simulation ne se limite pas aux questions quantitatives.
En particulier, elle est aussi utilisée avec succès à la vérification et la validation du
bon fonctionnement de mécanismes complexes. Les différentes méthodes de simulation
peuvent être classifiées selon plusieurs critères : (i) modèles de simulation dynamiques
versus modèles de simulation statiques, (ii) modèles de simulation déterministes versus
modèles de simulation stochastiques et (iii) modèles continus versus modèles discrets
[13], [71].
Un modèle de simulation statique est une représentation d’un système dans un temps
particulier, ou un modèle dans lequel le temps ne joue aucun rôle. Un exemple d’un tel
modèle est le modèle de simulation "Monte Carlo". Par contre, un modèle de simulation
dynamique est un modèle qui représente comment un système évolue dans le temps.
Si un modèle de simulation ne contient pas de composant qui se comporte de façon
stochastique (autrement dit de façon aléatoire) alors il est dit modèle déterministe.
Dans un tel modèle, les entrées sont déterminées à base des entrées spécifiées du
modèle. Malheureusement, la plupart de systèmes réels contiennent des composantes
ayant un comportement aléatoire. de tels systèmes ne doivent pas alors être simulés
par un modèle de simulation déterministe mais bien au contraire par un modèle de
simulation stochastique. La simulation à temps continu s’intéresse à l’évolution d’un
système dont les variables d’état change continuellement avec le temps. Ce type de
simulation nécessite l’utilisation d’équation différentielles. En revanche, la simulation
à évènements discrets s’intéresse à la modélisation d’un système dans le temps, mais
cette fois en ne considérant que des instants particuliers dans le temps.
63
Chapitre 3 : Evaluation de performances des réseaux ATM
[8]. En principe, chaque système de files d’attente peut être traduit sous forme de
processus de markov et par conséquent être évalué mathématiquement par celui-ci. Les
processus de Markov constituent la classe la plus classe la plus importante des processus
stochastiques alors que ces derniers peuvent être considérés comme un généralisation
des variables aléatoires. On distingue deux types de chaînes de Markov : chaînes de
Markov à temps continue (CTMC, Continuous Time Markov Chain) et les chaines de
Markov à temps discret (DTMC, Discrete Time Markov Chain).
Une chaîne de Markov à temps discret présente la propriété usuelle des procesus de
Markov : son comportement futur dépend seulement de sont état courant et non pas
des états passés par lesquels elle a éventuellement passé. Soit l’ensemble des états
S = {0, 1, 2, ...}. Alors, la propriété de markov a la forme suivante :
Où i0 , .., in+1 ∈ S. Une chaîne de Markov à temps discret peut être représentée graphi-
quement par un graphe dont les sommets représentent les états et les arcs représentent
les transistions. La figure 3.3 montre un exemple d’une chaîne de Markov [42].
Une chaîne de markov peut aussi être représentée par sa matrice de transition :
P = (pi,j ) . Par exemple, pour la figure 3.3, la matrice de transition est donnée par :
6 2 2
1
P = 1 8 1 (3.2)
10
6 0 4
Cette matrice de transition est toujours une matrice stochastique : la somme des élé-
ments de chaque ligne est égal à 1. Autrement dit, chaque ligne est un vecteur sto-
chastique. Un de prblèmes majeurs auxquel s’affronte la modélisation markovienne est
l’explosion de l’espace des états. Par conséquent, plusieurs approches ont été intro-
duites pour réduire la taille de l’espace des états [27].
En pratique, plusieurs systèmes réels peuvent être modélisés à l’aide des chaînes de
64
Chapitre 3 : Evaluation de performances des réseaux ATM
Markov à temps continu. La plupart des propriétés des chaines de Markov à temps
discret sont applicables aux chaînes de Markov à temps continu.
65
Chapitre 3 : Evaluation de performances des réseaux ATM
• La première lettre A identifie la loi des processus des arrivées avec les conventions :
– M : loi "sans mémoire" (arrivées poissonniennes, service exponentiel)1 ;
– D : loi déterministe ;
– Ek : loi Erlang-k"
– Hk : loi "hyperexponentielle" d’ordre k ;
– GI : loi générale, les variables successives étant indépendantes ;
– G : loi générale, sans hypothèse d’indépendance.
• La deuxième lettre B identifie la durée de service d’un client avec les mêmes conven-
tions pour la loi des arrivées.
• La troisième lettre n concerne le nombre de serveurs du système
• La quatrième lettre K concerne la taille de la file d’attente. Si elle n’est pas men-
tionnée, alors elle cinsidérée comme étant infinie.
• LA cinquième lettre N concerne la discipline de service de mise en file d’attente :
FIFO (First In First Out), LIFO (Last In First Out), Shortest Job First, etc.
(λ.T ) −λ.T
P r(avoir k arrivees pendant une duree de temps T ) = .e (3.4)
k!
66
Chapitre 3 : Evaluation de performances des réseaux ATM
67
Chapitre 3 : Evaluation de performances des réseaux ATM
simulation. Le temps indiqué par l’horloge de simulation n’a aucune relation directe
avec le temps physique réellement écoulé pendant le déroulement de la simulation.
• On appellera état d’un système l’ensemble des valeurs prises par les variables décri-
vant le système : nombre de clients dans le système, nombre de clients servis, etc.
• On appellera également système discret un système dans lequel la description
d’état ne comporte que des variables discrètes (i.e. à variation non continue).
• Les instants d’évolution de l’état surviennent donc de façon "discrète" (c’est à dire
qu’il n’y en a qu’un nombre fini dans un intervalle de temps fini). On les appelle des
événements.
68
Chapitre 3 : Evaluation de performances des réseaux ATM
{Yij } 1 ≤ i ≤ n et 1 ≤ j ≤ m (3.8)
et : m
1 X (j) 2
SY2 = (Y − Y ) (3.11)
m − 1 j=1
69
Chapitre 3 : Evaluation de performances des réseaux ATM
70
Chapitre 3 : Evaluation de performances des réseaux ATM
3.8 Conclusion
Nous avons vu dans ce chapitre que plusieurs méthodes et outils existent pour
l’évaluation de performances des réseaux ATM. Ces outils peuvent être classés en trois
classes principales : les méthodes analytiques, les mesures, et la simulation. L’avantage
majeur de cette dernière classe est le fait qu’elle permette d’évaluer les performances
d’un réseau sans que celui-ci soit disponible contrairement aux méthodes mesures qui
exigent que le réseau soit disponible pour l’expérimenter. Dans le chapitre 4, nous
nous intéresserons à une étude comparative de deux algorithmes de contrôle d’admis-
sion dans les réseaux ATM. Nous ferons également un comparaison entre les résultats
analytiques et ceux obtenus par la simulation.
71
Chapitre 4
Etude de deux algorithmes de
contrôle d’admission
4.1 Introduction
L ES performances globales d’un réseau ATM perçues par l’usager sont liées de fa-
çon trés étroite aux mécanismes de contrôle dans tous les composants du réseau.
Parmi ces mécanismes de contrôle, on trouve la fonction de contrôle d’admission. Celle-
ci offre un contrôle de congestion préventif dans le réseau. Par conséquent, elle a été
standardisée par l’UIT et l’ATM Forum. Cependant, ces deux organismes de normali-
sation n’ont pas spécifié un algorithme particulier pour son implémentation . Ainsi, il
incombe aux opérateurs et aux concepteurs du réseau d’implémenter la fonction CAC
qui leur paraît la plus appropriée.
En guise d’application, nous choisissons deux exemples significatifs pour notre problé-
matique ; le premier basé sur une analyse M/D/1 étant approprié au trafic variable
(VBR), tandis que le deuxième, basé sur une analyse N.D/D/1, est adéquat pour la
modélisation d’un trafic constant (CBR). Nous donnerons le principe de chaque algo-
rithme, ses avantages ainsi que ses inconvénients.
72
Chapitre 4 : Etude de deux algorithmes de contrôle d’admission
Notation Description
λ Nombre moyen d’arrivées par unité de temps
µ Taux de service
ρ Taux d’utilisation du serveur
CLPi Probabilité de Perte de Cellules de la connexion i
n Nombre de connexions en cours
hi Débit crête de la connexion i
mi Débit moyen de la connexion i
C Capacité du lien de sortie
x Taille du buffer
73
Chapitre 4 : Etude de deux algorithmes de contrôle d’admission
Une approximation dans le cas d’un trafic lourd pour le système M/D/1 nous donne
(voir [81]) :
2.x
ρ= (4.4)
2.x − ln(CLP )
74
Chapitre 4 : Etude de deux algorithmes de contrôle d’admission
Avec :
ρ : Charge du réseau ;
x : Taille du buffer (la file d’attente) ;
CLP : Probabilité de perte des cellules (Cell Loss Probability).
Dans cette équation, nous avons la charge maximale admissible (ρ) en fonction de
la taille de la file d’attente (x) et de la probabilité de perte (CLP ).
75
Chapitre 4 : Etude de deux algorithmes de contrôle d’admission
Tab. 4.2 – Table de Recherche pour un système M/D/1 : Charge admissible en fonction
de la capacité du buffer et de CLP.
76
Chapitre 4 : Etude de deux algorithmes de contrôle d’admission
CLP = e−2x( N + )
x 1−ρ
ρ (4.6)
2.x.N
ρ= (4.7)
2.x.N − (2.x2 + N. ln (CLP ))
Si nous remarquons bien, cette formule peut donner des valeurs de ρ plus grandes que
100% quand :
2.x2 + N. ln (CLP ) > 0 (4.8)
Il est évident qu’une telle charge du réseau peut causer une perte de cellules plus
grande que celle tolérée violant ainsi l’engagement du réseau à garantir la qualité de
service des connexions. Cependant, elle nous fournit un premier test pour le contrôle
d’admission basée sur cette analyse. C’est à dire, si :
2.x2
n+1≤− µ ¶ (4.9)
ln min (CLPi )
i=1→n+1
alors dans ce cas, nous pouvons occuper le lien jusqu’à 100%. Autrement dit, on peut
accepter la connexion pourvu que :
n
hn+1 X hi
+ ≤1 (4.10)
C i=1 C
77
Chapitre 4 : Etude de deux algorithmes de contrôle d’admission
Sinon, si on a :
2.x2
n+1>− µ ¶ (4.11)
ln min (CLPi )
i=1→n+1
n
hn+1 X hi 2.x.(n + 1)
+ ≤ · µ ¶¸ (4.12)
C i=1 C 2.x.(n + 1). 2.x2 + (n + 1). ln min (CLPi )
i=1→n+1
Nous signalons que l’analyse N.D/D/1 est seulement requise si le nombre de connexions
dépasse le nombre de places mémoire dans le buffer de sortie. Autrement dit, si on a
N < x. Si par contre, on a moins de sources que de place mémoire, alors la charge
admissible est de 100%.
Cet algorithme basé sur une analyse N.D/D/1 est approprié pour un trafic de type
CBR (Constant Bit Rate). les paramètres requis sont la probabilité de perte de cellules
CLPi pour chaque source i , la taille du buffet x, la capacité de transmission du lien
de sortie C ainsi que le nombre de connexions qui sont en progrès n. Notons aussi qu’il
est possible d’avoir un trafic constant (CBR) et un trafic variable (VBR), pourvu que
le débit crête d’un source est utilisé dans le calcul de la charge admissible et de la
bande passante allouée à la connexion.
78
Chapitre 4 : Etude de deux algorithmes de contrôle d’admission
Fig. 4.2 – Modèle N.D/D/1 de contrôle d’admission au niveau cellule (ici N=4)
par les N sources se chevauchent. Si dans un tel cas nous avons le nombre de sources
qui dépasse le nombre de places mémoire dans le buffer, ceci causerait des pertes de
cellules. Ceci n’est pas tolérable dans le cas d’un trafic de voix par exemple qui est
un cas typique du trafic CBR. Prenons un exemple concret. Si on prend 1000 sources
idépendantes alors chaque source a une période de 2115 slots. L’analyse que nous
faisons suppose que la taille du buffer est infinie et la probabilité de perte de cellule est
approximée par la probabilité (notée Q(x)) que la taille du buffer dépasse une certaine
taille x. on pourra alors écrire :
N
( µ ¶n · µ ¶¸N −n )
X N! n−x n−x D−N +x
CLP ≈ Q(x) = . . 1− .
n=x+1 n!.(N − n)! D D D−n+x
(4.13)
Cependant, pour une charge lourde (heavy load ), c’est à dire une charge dépassant
80%, on peut approximer Q(x) par la formule suivante :
Q(x) = e−2x( N + )
x 1−ρ
ρ (4.14)
Avec :
N : Nombre de connexions admises (dans le cas où nous avons N>x) ;
Une telle approximation est en fait très importante car elle permet de réduire considé-
rablement les temps de calcul pour la fonction CAC. En contrepartie, le prix à payer
est une perte dans la précision.
79
Chapitre 4 : Etude de deux algorithmes de contrôle d’admission
4.5 Conclusion
Le choix d’une algorithme de contrôle d’admission dépend de façon très étroite du
trafic considéré. Un mauvais choix d’un modèle implique de mauvais résultats et de
mauvaises performances. Si nous avons un trafic dont le débit est constant dans le
temps, il est très facile de prévoir la bande passante à lui allouer. En effet, il suffit de
lui allouer comme bande passante son débit crête. Par contre, si le trafic est variable
dans le temps alors la prévision de la bande passante à allouer. Plusieurs approches ont
été proposées : allocation du débit moyen, allocation de la moyenne du débit moyen et
du débit crête, et allocation du débit crête lui-même. On verra dans le chapitre suivant
quel est l’avantage, et quel est l’inconvénient de cette dernière approche.
80
Chapitre 5
Résultats et Discussions
5.1 Introduction
D ANS ce chapitre, nous faisons une étude comparative entre les deux algorithmes
de contrôle de congestion vus dans le chapitre précédent. Les deux critères utilisés
pour la comparaison étant le nombre de connexions admises pour les deux algorithmes,
et la charge admissible. Par la suite, nous verrons comment calculer le gain statistique
si on utilise une allocation statistique au lieu d’une allocation déterministe, et ce pour
un trafic de type VBR. Ce facteur est l’un des critère de performances des algorithmes
de contrôle d’admission.
81
Chapitre 5 : Résultats et Discussions
double expntl(double x)
{
double z ; // Nombre Uniforme entre 0 et 1
do
{
z = ((double) rand() / RAND_MAX) ;
}
while ((z == 0) || (z == 1)) ;
return(-x * log(z)) ;
}
82
Chapitre 5 : Résultats et Discussions
Fig. 5.1 – Charge admissible en fonction de la taille du tampon (Résulats exacts pour
le modèe M/D/1).
des résultats d’approximation qui sont obtenus en utilisant une approximation pour
un trafic lourd (heavy traffic), c’est à dire pour un trafic dont la charge dépasse 80%.
Si nous analysons la figure 5.1 et la figure 5.2, nous remarquons principalement deux
choses :
1. La charge admissible augmente à chaque fois que nous augmentons la taille du
buffer. Par exemple si on fixe le CLP = 10−2 , la charge admissible est de 59.7%
pour une taille du buffer égale à 5 cellule, de 95.6% pour une taille du buffer
égale à 20 et de 99.9% pour une taille de buffer égale à 100.
2. La charge admissible décroît quand les besoins du trafic en terme de CLP (qui
caractérise la qualité de service d’une connexion) deviennent plus stringeants.
Une autre point à noter, c’est que les résultats des deux figures sont très proches. Ceci
nous permet d’affirmer qu’il est possible d’utilser la méthode d’approximation pour
l’implémentation de la fonction CAC dans le cas ou nous nous disposons pas de table
de recherche. En effet, la formule d’approximation que nous avons présentée dans le
chapitre précédente ne consomme pas trop de temps de calcul et par conséquent elle
peut être évaluée "à la volée".
Maintenant, examinons la figure 5.1 qui représente l’évolution de la charge admissible
en fonction de la taille du buffer, mais cette fois pour un seul CLP (qui égal à 10−2 ).
Cette figure montre trois types de résultats :
83
Chapitre 5 : Résultats et Discussions
84
Chapitre 5 : Résultats et Discussions
Tab. 5.1 – Charge admissible en fonction de la taille du buffer pour l’analyse M/D/1
pour CLP=10−2
Pour les résultats que nous avons obtenus, nous avons utilisé le principe de réduction
de la charge admissible jusqu’à obtenir une charge pour laquelle le CLP est vérifié.
Nous avons refait l’expérience plusieurs fois , calculé la moyenne des observations ainsi
que la variance. Enfin, nous avons calculé les intervalles de confiance (voir Tab. 5.1).
Nous remarqouns que les résultats que nous avons obtenus sont proches des résultats
analytiques et des résultats de simulations. Ceci nous permet de dire qu’il est possible
d’utiliser l’approche simulation pour dresser des tables de recherche que la fonction
CAC pourra utiliser dans l’admission de nouvelles connexions. L’inconvénient majeur
de l’approche simulation est le temps énorme qu’elle consomme pour donner des résul-
tats. De ce fait, un compromis doit perte fait entre un temps de simulation suffisament
grand qui donne des résultats satisfaisants, et un temps de simulation court mais qui
donne des résultats qui tendent à s’éloigner du vrai résultat.
85
Chapitre 5 : Résultats et Discussions
86
Chapitre 5 : Résultats et Discussions
hi mi N0 N Gain Statis-
tique
35320.76 8830.19 10 28 2.8
17660.38 4415.09 20 65 3.25
11773.59 2943.39 30 103 3.43
8830.19 2207,54 40 142 3.55
7064.17 1766.04 50 181 3.62
5886.79 1471,96 60 220 3.66
5045.82 1264,45 70 259 3.70
4415.09 1103.77 80 298 3.72
3924.53 981.13 90 337 3.74
3532.08 883.02 100 376 3.76
1766.04 441.6 200 771 3.88
1177.36 294,34 300 1167 3.89
883.02 220.75 400 1564 3.91
706.42 176.60 500 1961 3.92
588.68 147.17 600 2361 3.93
504.58 126,145 700 2758 3.94
Les réseaux ATM utilisent un multiplexage statistique qui permet de tirer un gain
statistique. Dans notre exemple nous prendrons la capacité C du lien égale 155.52
Mb/s (capacité de lien standardisée par l’UIT aux interfaces UNI), c’est à dire égale
à 353 208 cellule/s.
Nous prendrons des exemples de connexions dont le débit crête varie entre 504.58
cellule/s et 35320.76 cellule/s. Nous supposerons également dans tous les cas que :
hi
mi = (5.1)
4
Pour chaque cas, nous calculons le nombre de connexions admises N0 en utilisant
l’algorithme N.D/D/1. Dans ce cas, le débit alloué à une connexion est son débit crête
(hi ). N0 est calculé de la façon suivante :
C
N0 = (5.2)
hi
Nous calculons également le nombre de connexions admises N dans le cas de l’algo-
rithme M/D/1. Dans ce cas, le débit alloué à une connexion est son débit moyen mi .
87
Chapitre 5 : Résultats et Discussions
Notons aussi que la charge admissible dans ce cas n’est pas égale à 100% comme c’est
le cas de l’algorithme N.D/D/1, mais il est en fonction de la probabilité de perte CLPi
et de N0 . ceci est donné dans l’équation suivante :
5.5.1 Discussion
La table 5.3 montre une comparaison entre le nombre de connexions admises par
la fonction CAC pour les deux algorithmes étudiés. Remarquons que le nombre de
connexions admises par l’algorithme M/D/1 est toujours supérieur au nombre de
connexions admises par l’algorithme N.D/D/1 dans le cas de connexions VBR. rap-
pelons que de telles connexions sont caractérisées par un débit moyen strictement
inférieur au débit crête. Dans le cas d’un trafic CBR, le nombre de connexions admises
par les deux algorithmes sera le même. Par conséquent, le gain statistique sera égal à
1.
Remarquons également que le gain statistique tiré du réseau est inversement propor-
tionnel au rapport débit moyen/débit crête. Ainsi, nous pouvons conclure que l’algo-
rithme M/D/1 est plus adéquat au contrôle d’admission pour un trafic de type VBR,
et ce, en terme de gain statistique.
88
Chapitre 5 : Résultats et Discussions
5.6 Conclusion
Un algorithme de contrôle d’admission est primordial dans un réseau ATM pour as-
surer un contrôle de congestion préventif et présever la qualité de service des connexions
édja admises . Le choix d’un tel algorithme dépend essentiellement du type de trafic
considéré (CBR, VBR, ABR, etc), le trafic le plus facile à étudier et à modéliser étant
de loin le trafic CBR. Pour ce dernier, il faut allouer à chaque connexion son débit
crête. En revanche, ceci n’est pas le cas pour des connexions VBR, sinon aucun gain
statistique ne sera tiré du réseau. La question est alors quelle bande passante allouer
à ce type de connexion ? dans notre étude, nous avons alloué le débit moyen. En pra-
tique, il existe d’autres approches qui procèdent chacune à sa façon. Les une cherchent
à maximiser l’utmisation du réseau et, par conséquent, allouent un strict minimum
de bande passante à la connexion alors que les autres visent à garantir à tout prix
la qualité de service de la connexion, et de cefait allouent à la connexion un débit
avoisinant sont débit crête.
89
Conclusion Générale
90
Conclusion générale et Perspectives
large. Par conséquent, des modifications doivent être apportées à ce protocole pour
s’adapter aux réseaux à haut débit. Dans la littérature, beaucoup de solutions ont été
proposées : Fast TCP, High Speed TCP, Scalable TCP, etc.
Dans le chapitre 3, nous avons introduit les méthodes d’évaluation de performances
des réseaux ATM. A première vue, ces méthodes peuvent être classées en trois classes :
méthodes analytiques, mesures, et simulation. Cette dernière est une approche très
prometteuse pour l’évaluation de performances des réseaux qui n’existent pas encore
pour l’expérimentation. Nous avons introduit la notion de simulation à évènements
discrets (DES, Discrete Event Simulation) et son principe. Par la suite, nous avons vu
comment valider les résultats d’une simulation.
Contrairement à Internet qui utilise un contrôle de congestion réactif, ATM pré-
conise l’utilisation d’un contrôle de congestion de préventif. Un exemple de tels méca-
nismes est le contrôle d’admission (CAC). En effet, la fonction CAC implémentée dans
les interfaces UNI (User Network Interface) et les interfaces NNI (Network to Network
Interface) agit de façon à éviter que la congestion n’apparaîsse dans le réseau. Son
principe consiste à admettre une nouvelle connexion si il y a des ressources suffisantes
pour satisfaire la qualité de service (QoS) de cette nouvelle connexion d’une part, et
de ne pas violer la qualité de service des connexions déja admises d’autre part. Dans
le cas contraire, la connexion est soit rejetée soit renégociée. A cet effet, la fonction
CAC doit définir un seuil de charge appelé charge admissible qui ne doit jamais être
dépassé.
Dans le chapitre 4, nous avons étudié deux algorithmes de contrôle d’admission.
Le premier est basé sur une analyse M/D/1 et le deuxième est basé sur une analyse
N.D/D/1. Le premier algorithme est adéquat pour une trafic variable dans le temps
alors que le deuxième est adéquat pour un trafic constant dans le temps tel que la
voix qui est très utilisée dans les réseaux ATM. Cependant, le deuxième algorithme
reste aussi applicable pour la modélisation d’un trafic variable dans le temps : il suffit
d’allouer à une connexion VBR son débit crête (PCR) et de faire abstraction totale
de son débit moyen (MCR). Une telle allocation permet d’offrir une bonne qualité de
service en terme de perte de cellules. Cependant, elle n’offre aucun gain statistique.
En effet, les résultats montrent que plus le rapport MCR/PCR augmente, plus nous
perdons de gain statistique. A cet effet, il serait intéressant, pour un trafic variable,
d’utiliser l’analyse M/D/1 au lieu de N.D/D/1.
Dans le chapitre 5, nous avons fait une étude comparative entre ces deux algo-
rithmes selon le nombre de connexions admises et la charge admissible. La conclusion
que nous avons tirée est que le gain statistique obtenu en allouant le débit moyen
augmente avec l’augmentation de la différence entre le débit moyen et le débit crête.
En guise de conclusion générale, nous pouvons dire que la congestion est un pro-
blème qui persistera dans les réseaux de demain aussi longtemps que l’hétérogénéité
91
Conclusion générale et Perspectives
des équipements existera. Pour apporter une solution à ce problème, il faut ne pas
trop compter sur les technologies matérielles mais bien au contraire, il faut investir
dans la conception de bon schémas de contrôle de congestion qui doivent permettre
de coordonner les efforts des différents acteurs du réseau afin de tirer un maximum de
profit de celui-ci et d’offrir de meilleures performances.
Comme perspectives, il serait intéressant d’étendre notre étude pour étudier les
mécanismes de contrôle de congestion et d’équilibrage de charge ainsi que l’ingénierie
du trafic dans MPLS d’une part, et d’étudier les améliorations apportées au contrôle
de flux du protocole TCP pour les réseaux utilisant des liaisons satellitaires d’autre
part. Il serait également intéressant d’aborder le problème de congestion de façon plus
générale, mais cette fois en se basant sur la théorie du Network Calculus.
92
Bibliographie
[1] D. Aissani and A. Aissani. La Théorie des Files d’Attente : Fondements Histo-
riques et Applications à l’Evaluation des Performances. Ecole Doctorale d’Infor-
matique de Béjaia, 2004.
[2] O. Ait Hellal. Contrôle de Flux dans les Réseaux à Haut Débit. PhD thesis,
Université de Nice-Sophia Antipolis, Novembre 1998.
[3] V. Alwayn. Advanced MPLS Design and Implementation. O’Reilly and Asso-
ciates, 2002.
[4] C. Barakat, E. Altman, and W. Dabbous. On TCP Performance in a Heteroge-
neous Network : A Survey. IEEE Communications Magazine, Janvier 2000.
[5] R.J. Bates. Broadband Telecommunications Handbook. The McGraw-Hill Com-
panies, 2002.
[6] S. Bates. Traffic Characterization and Modelling for Call Admission Control
Schemes on Asynchronous Transfer Mode Networks. PhD thesis, The University
of Edinburgh, Septembre 1997.
[7] S. Beker. Techniques d’Optimisation pour le Dimensionnement et la Reconfigu-
ration des Réseaux MPLS. PhD thesis, Ecole Nationale Supérieure des Télécom-
munications, Avril 2004.
[8] G. Belch, S. Greiner, H. De Meer, and K.S. Trivedi. Queueing Networks and
Markov Chains : Modeling and Performance Evaluation with Computer Science
Applications. Wiley & Sons, 1998.
[9] A. Benoit. Méthodes et Algorithmes Pour l’Evaluation des Performances des
Systèmes Informatiques à Grand Espace d’Etats. PhD thesis, Instiut National
Polytechnique de Grenoble, Juin 2003.
[10] D. Bertsekas and R. Gallagher. Data Networks. Englewood Cliffs, New Jersey,
1992.
[11] F. Bonomi and K.W. Fendick. The Rate-Based Flow Control Framework for the
Available Bit-Rate ATM Service . IEEE Network Magazine, 9 :25–39, Mars/Avril
1995.
[12] J.Y.L. Boudec. Network Calculus, A Theory of Deterministic Queuing Systems
for the Internet. Springer Verlag, Mai 2004.
93
Bibliographie
94
Bibliographie
[29] S. Floyd. HighSpeed TCP for Large Congestion Windows. Internet draft draft-
floyd-tcp-highspeed-02.txt. URL : http ://www.icir.org/floyd/hstcp.html, Fé-
vrier 2003.
[30] S. Floyd and A. Romanow. Dynamics of TCP Traffic over ATM Networks. in
Proceedings of ACM SIGCOMM’94, pages 79–88, Septembre 1994.
[31] P.C.F. Fonseca. Traffic Control Mechanisms with Cell-Rate Simulation for ATM
Networks. PhD thesis, University of London, Avril 1996.
[32] P.J. Fortier and H.E. Michel. Computer Systems Performance Evaluation and
Prediction. Digital Press, 2003.
[33] R.L. Freeman. Practical Data Communications. Wiley & Sons, 2001.
[34] M. Gagnaire et D. Kofman. Réseaux Haut Débit, Tome I : Réseaux ATM et
Réseaux Locaux. Dunod, 1999.
[35] D. Gaïti and N. Boukhatem. Cooperative Congestion Control Schemes in ATM
Networks. IEEE Communications Magazine, Novembre 1996.
[36] D. Gaïti and G. Pujolle. Performance Management Issues in ATM Networks :
Traffic and Congestion Control. IEEE/ACM Transactions on Networking, 4(2),
Avril 1996.
[37] M. Gerla and L.Kleinrock. Flow Control : A Comparative Survey. IEEE Tran-
sactions on Communications, COM-28(4), 1980.
[38] W. Goralski. Frame Relay for High Speed Networks. Wiley & Sons, 1999.
[39] S. Gupta. Performance Modeling and Management of High-Speed Networks. PhD
thesis, Université de Pennsylvanie, 1993.
[40] M. Hamdi. Contrôle de trafic ATM pour sources vidéo à débit variable. PhD
thesis, ENST de Bretagne, 1997.
[41] M. Hassan and R. Jain. High Performance TCP/IP Networking. Prentice Hall,
2003.
[42] B.R. Haverkort. Performance of Computer Communication Systems. Wiley &
Sons, 1998.
[43] F.M. Holness. Congestion Control Mechanisms within MPLS Networks. PhD
thesis, Queen Mary and Westfield College, University of London, Septembre
2000.
[44] D. Hughes and P. Daley. Limitations of Credit based Flow Control. AF-TM
94-0776, Septembre 1994.
[45] D. Hughes and P. Daley. More ABR Simulations Results. AF-TM 94-0777,
Septembre 1994.
95
Bibliographie
96
Bibliographie
97
Bibliographie
[80] H. Perros and K. Elsayed. Call Admission Control Schemes : A Review. IEEE
Communications Magazine, 34(11), Novembre 1996.
[81] J.M. Pitts and J.A. Schormans. Introduction to IP and ATM Design Perfor-
mance. Wiley & Sons, 2000.
[82] J. Postel. RFC 793 : Transmission Control Protocol, Septembre 1981.
[83] K.K. Ramakrishnan and R. Jain. A Binary Feedback Scheme for Congestion
Avoidance in Computer Networks. ACM Transactions on Computer Systems,
8(2) :158–181, Mai 1990.
[84] K.K. Ramakrishnan and P.Newman. ATM FLow Control : Inside the Great
Debate. Data Communication, pages 111–120, Juin 1995.
[85] K.K. Ramakrishnan and J. Zavgren. Credit Where Credit Is Due. AF-TM
94-0916, Septembre 1994.
[86] E. Salvadori and R. Battiti. A Load Balancing Scheme for Congestion Control
in MPLS Networks. Proceedings of the Eighth IEEE International Symposium
on Computers and Communication (ISCC’03), 2003.
[87] C. Servin et S. Ghernaouti-Hélie. Les Hauts Débits en Télécom. Intereditions,
1998.
[88] R.J. Simcoe and L. Roberts. The Great Debate Over ATM Congestion Control.
Data Communications, pages 75–80, Septembre 1994.
[89] D. Sisalem. Rate Based Congestion Control and its Effects on TCP over ATM.
Diplomarbeit thesis. Technical University of Berlin, Mai 1994.
[90] W. Stallings. ISDN and BroadBand ISDN with Frame Relay and ATM. Prentice-
Hall, 2001.
[91] W. Stallings. Data and Computer Communication. Prentice Hall, 2003.
[92] A. Tanenbaum. Réseaux, Cours et Exercices. Coédition :Dunod (Paris) et Pren-
tice Hall International (London), 1999.
[93] K.L. Thai and V. Veque et S. Znaty. Architecture des Réseaux Haut Débit :
Cours, Exercices et Corrigés. Hermès, 1995.
[94] C. Touati. Les Principes d’Equité Appliqués aux Réseaux de Télécommunications.
PhD thesis, Université de Nice Sophia-Antipolis, Septembre 2003.
[95] L. Toutain. Réseaux Locaux et Internet , Des Protocoles à l’Interconnexion.
Hermès, 1999.
[96] D. Tse and M. Grossglauser. Measurement-based Call Admission Control : Ana-
lysis and Simulation. IEEE INFOCOM’97, pages 981–989, 1997.
[97] J.S. Turner. New Directions in Conmmunications (or Which Way to the Infor-
mation Age). IEEE Communications Magazine, 24 :8–15, Octobre 1986.
98
Bibliographie
[98] J.T. Virtamo. An exact Analysis of D1 + ... + Dk /D/1 Queue. 7th ITC Seminar,
Morriston, New Jersey, Paper 11.1. 1990.
[99] A. Willig. Performance Evaluation Techniques. Universität Potsdam, Juin 2004.
[100] X. Xiao, A. Hannan, B. Bailey, and L. Ni. Traffic Engineering with MPLS. IEEE
Networking, 14(2) :28–33, Mars/Avril 2000.
[101] X. Xiao and L.M. Ni. Internet QoS : A Big Picture. IEEE Networks, Mars/
Avril 1999.
[102] C.Q. Ynag and A.V.S. Reddy. A Taxonomy for Congestion Control Algorithms
in Packet Switching Networks. IEEE Networks Magazine, 9 :34–45, Juillet/Août
1995.
[103] B. Yuhas and N. Ansari. Neural Networks in Telecommunications. Kluwer Aca-
demic Publishers, 1994.
99
Glossaire des Abréviations
100
Glossaire des Abréviations
RM Ressource Management
RM Resource Management
RNIS Réseau Numérique à Intégration de Services
RTC Réseau Téléphonique Commuté
SCR Sustained Cell Rate
SDM Space Division Multiplexing
STM Synchronous Transfert Mode
TCP Transmission Control Protocol
UBR Unspecified Bit Rate
TDM Time Division Multiplexing
UDP User Datagram Protocol
UIT Union Internationale des Télécommunications
UNI User Network Interface
UPC User Parameter Control
VBR Variable Bit Rate
VCC Virtual Channel Connection
VCI Virtual Channel Identifier
VoD Video on Demand
VPC Virtual Path Connection
WAN Wide Area Network
WDM Wavelength Division Multiplexing
101
Résumé
Dans un système à partage de ressources, la congestion est présente lorsque la de-
mande en ressources dépasse la quantité des ressources diponibles. Contrairement à ce
que l’on s’attendait, les technologies à haut débit n’ont fait qu’aggraver la congestion.
Par conséquent, il faut concevoir de nouveaux protocoles de contrôle de congestion
qui soient approporiés aux caractéristiques de tels réseaux. Le contrôle de congestion
consiste à maintenir le système en dessous du seuil de congestion, tout en optimisant
l’utilisation des ressources par multiplexage statistique. Il est généralement réalisé par
plusieurs moyens préventifs et réactifs. Les premiers visent à rendre l’apparition de
ce phénomène exceptionnelle alors que les derniers permettent de revenir à une situa-
tion normale lorsque, malgré tout, la congestion se produit. Cette deuxième classe de
méthodes est très utilisée dans les réseaux ATM afin de garantir la qualité de service
(QoS) des connexions déja admises. L’objectif de ce travail est de faire une synthèse sur
les méthodes de contrôle de congestion dans les réseaux haut débit. Par la suite, nous
étudierons de façon plus détaillée deux algorithmes de contrôle d’admission (CAC)
comme exemples de contrôle préventif dans les réseaux ATM.
Mots clés : réseaux à haut débit, congestion, mode de transfert asynchrone, qua-
lité de service, évaluation de performance, simulation à évènements discrets, contrôle
d’admission.
Abstract
In a system with resource sharing, congestion is present when the demand for resources
exceeds the quantity of available resources. Unexpectedly, new broadband technolo-
gies did nothing but worsen the congestion. Consequently, it is necessary to conceive
new congestion control protocols which are appropriate to the characteristics of such
networks. Congestion control consists in maintaining the system in lower part of the
threshold of congestion, while optimizing the use of the resources by statistical mul-
tiplexing. It is generally carried out by several preventive and reactive means. The
first aim to return the appearance of this phenomenon exceptional whereas the last
make it possible to return to a normal situation when, despite everything, congestion
occurs. This second class of methods is very used in ATM networks in order to guaran-
tee quality of service (QoS) of already established connections. The aim of this thesis
is to make a synthesis on the methods of congestion control in high speed networks.
Thereafter, we will study in a more detailed way two algorithms of control admission
(CAC) like examples of preventive control in ATM networks. .
Keywords : high speed networks, congestion, asynchronous transfer mode, quality of
service, performance evaluation, discrete event simulation, admission control.