You are on page 1of 38

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA

ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

TELETRFICO

Unidad 2: Paso 3 - Desarrollar esquema de mecanismos de QoS

GRUPO No. 208022_3


JHON FREDY PEREZ
LUIS EDUARDO URRESTE
JUAN DOMINGO GONZALEZ

PRESENTADO A:
JAMES HERNAN BETANCOURT

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD


ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
NOVIEMRBE 2017
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Contenido
INTRODUCCION ............................................................................................................... 3
ACTIVIDAD ....................................................................................................................... 4
Nodo .................................................................................................................................. 4
E/S de un nodo .................................................................................................................. 5
Procesamiento de un nodo ................................................................................................ 5
CONCLUSIONES ............................................................................................................ 37
REFERENCIAS BIBLIOGRFICAS ................................................................................. 38
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

INTRODUCCION
MPLS es hoy da una solucin clsica y estndar al transporte de informacin en las
redes. Aceptado por toda la comunidad de Internet, ha sido hasta hoy una solucin
aceptable para el envo de informacin, utilizando Routing de paquetes con ciertas
garantas de entrega.
A su vez, los avances en el hardware y una nueva visin a la hora de manejar las redes,
estn dando lugar al empleo creciente de las tecnologas de Conmutacin, encabezadas
por la tecnologa ATM. Aportando velocidad, calidad de servicio y facilitando la gestin de
los recursos en la red.
De aqu derivan los siguientes problemas: el paradigma del Routing est muy extendido
en todos los entornos, tanto empresariales como acadmicos, etc. El rediseo total del
software existente hacia la Conmutacin supondra un enorme gasto de tiempo y dinero.
Igualmente sucede con el hardware que est funcionando hoy da.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

ACTIVIDAD

Nodo
Cuando se hace referencia a un Nodo en QoS, se hace referencia al funcionamiento de un
nodo en una red.
Segn Manuel Castells, Un nodo es:
Un nodo es el punto en el que una curva se interseca consigo mismo. Lo que un nodo es
concretamente, depende del tipo de redes a que nos refiramos. [1]

Dependiendo del tipo de red se pueden pensar en un nodo como:

Un computador:

Un servidor:

Un segmento de red:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

E/S de un nodo
De forma sencilla, lo que hace valiosa a una red es la transmisin de datos entre estos
nodos y que eventualmente permitirn a un usuario de uno de estos nodos acceder a la
informacin total de la red; es decir, todo lo que fluye a travs de los nodos es informacin
tanto en la entrada como en su salida.

Pero este proceso de transmisin de informacin est compuesto por mltiples capas que
existen para asegurar la integridad del mensaje.

Procesamiento de un nodo
Esta parte queda para investigar ms debido a falta de documentacin.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Queuing y Schedulling: FIFO


Que procesa los nodo? Que ingresa y sale de un nodo? Cmo se forman las colas
en un nodo? Cul es el esquema de trabajo de un nodo de tal forma que se d
servicio a los paquetes?

La congestin se define como una excesiva cantidad de paquetes almacenados en los


buffers de varios nodos en espera de ser transmitidos. La congestin es indeseable porque
aumenta los tiempos de viaje de los paquetes y retrasa la comunicacin entre usuarios.
Este es un gran problema que debe ser evitado

Para entender el fenmeno de la congestin es necesario analizar el comportamiento de la


subred de conmutacin de paquete como una subred de colas. En cada nodo, asociado a
cada canal de entrada o salida habr una cola de entrada o salida respectivamente. Si la
velocidad de llegada de los paquetes al nodo excede la velocidad con que estos pueden
ser transmitidos, la cola asociada al canal de salida empieza a crecer y los paquetes irn
experimentando un retardo creciente, que podra llegar a tender a infinito si la longitud de
las colas lo permitiera. El retardo crece de forma alarmante cuando la tasa de ocupacin de
la lnea, para la que los paquetes estn encolados, sobrepasa el 80%1.

- Cmo se forman las colas en un nodo?


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

La teora de colas es el estudio matemtico de las colas o lneas de espera dentro de un


sistema. Esta teora estudia factores como el tiempo de espera medio en las colas o la
capacidad de trabajo del sistema sin que llegue a colapsar. Dentro de las matemticas, la
teora de colas se engloba en la investigacin de operaciones y es un complemento muy
importante a la teora de sistemas y la teora de control. Se trata as de una teora que
encuentra aplicacin en una amplia variedad de situaciones como negocios, comercio,
industria, ingenieras, transporte y logstica o telecomunicaciones.
En el caso concreto de la ingeniera, la teora de colas permite modelar sistemas en los que
varios agentes que demandan cierto servicio o prestacin, confluyen en un mismo servidor
y, por lo tanto, pueden registrarse esperas desde que un agente llega al sistema y el
servidor atiende sus demandas. En este sentido, la teora es muy til para modelar procesos
tales como la llegada de datos a una cola en ciencias de la computacin, la congestin de
red de computadoras o de telecomunicacin, o la implementacin de una cadena productiva
en la ingeniera industrial.
En el contexto de la informtica y de las tecnologas de la informacin y la comunicacin
las situaciones de espera dentro de una red son ms frecuentes. As, por ejemplo, los
procesos enviados a un servidor para su ejecucin forman colas de espera mientras no son
atendidos; la informacin solicitada, a travs de Internet, a un servidor Web puede recibirse
con demora debido a la congestin en la red; tambin se puede recibir la seal de lnea de
la que depende nuestro telfono mvil ocupada si la central est colapsada en ese
momento, etc. .

QoS en ATM
Una de las grandes ventajas de ATM (Asynchronous Transfer Mode Modo de
Transferencia Asncrona) respecto de tcnicas como el Frame Relay y Fast Ethernet es que
admite niveles de QoS. Esto permite que los proveedores de servicios ATM garanticen a
sus clientes que el retardo de extremo a extremo no exceder un nivel especfico de tiempo
o que garantizarn un ancho de banda especfico para un servicio. Esto es posible
marcando los paquetes que provengan de una direccin IP determinada de los nodos
conectados a un gateway (como por ejemplo la IP de un telfono IP, segn la puerta del
router, etc.). Adems, en los servicios satelitales da una nueva perspectiva en la utilizacin
del ancho de banda, dando prioridades a las aplicaciones de extremo a extremo con una
serie de reglas.
Una red IP est basada en el envo de paquetes de datos. Estos paquetes de datos tienen
una cabecera que contiene informacin sobre el resto del paquete. Existe una parte del
paquete que se llama ToS (Type of Service), en realidad pensada para llevar banderas o
marcas. Lo que se puede hacer para darle prioridad a un paquete sobre el resto es marcar
una de esas banderas (flags, en ingls).
Para ello, el equipo que genera el paquete, por ejemplo una puerta de enlace (gateway, en
ingls) de voz sobre IP, coloca una de esas banderas en un estado determinado. Los
dispositivos por donde pasa ese paquete despus de ser transmitido deben tener la
capacidad para poder discriminar los paquetes para darle prioridad sobre los que no fueron
marcados o los que se marcaron con una prioridad menor a los anteriores. De esta manera
podemos generar prioridades altas a paquetes que requieren una cierta calidad de envo,
como por ejemplo la voz o el vdeo en tiempo real, y menores al resto.

Cmo se maneja la congestin y se suministra QoS en el nodo? Cundo es til y


viable QoS?
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

QoS o Calidad de Servicio (Quality of Service, en ingls) es el rendimiento promedio de


una red de telefona o de computadoras, particularmente el rendimiento visto por los
usuarios de la red.1 Cuantitativamente mide la calidad de los servicios que son
considerados en varios aspectos del servicio de red, tales como tasas de errores, ancho de
banda, rendimiento, retraso en la transmisin, disponibilidad, jitter, etc.
Calidad de servicio es particularmente importante para el transporte de trfico con
requerimientos especiales. En particular, muchas tecnologas han sido desarrolladas para
permitir a las redes de computadoras ser tan tiles como las redes de telfono para
conversaciones de audio, as como el soporte de nuevas aplicaciones con demanda de
servicios ms estrictos.
Ejemplos de mecanismos de QoS son la priorizacin de trfico y la garanta de un ancho
de banda mnimo. La aplicacin de QoS es un requisito bsico para poder implantar
servicios interactivos (por ejemplo voip)2.

1. QosDevice
2. QosPolicyHolder
3. QosManager
La relacin entre estos servicios puede verse en la figura (2) en la que se muestra un
diagrama con la arquitectura UPnP QoS.

El QosManager calcula adems los puntos intermedios en la ruta desde el origen al destino
del flujo, y con la informacin de la poltica, configura los QosDevices que hay en dicha ruta.
En funcin de los dispositivos QosDevices, o bien ellos mismos o bien la pasarela pueden
realizar control de admisin de flujos. Estas interacciones entre los distintos componentes
de la arquitectura
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Adelante! aprpiense de los procesos realizados en un nodo para manejar la


congestin y proporcionar QoS[Classification y Marking, Queueing Schedulling,
Chaping y Policing, congestion Avoidance], luego seleccionan uno de los
mecanismos de QoS para que puedan estudiarlo y participar en el foro: seleccionen
uno de los mecanismo de QoS Schedulling o planificacin como FIFO, PQ,CQ,
WFQ,LLQ, Policing como Token Bucket y Leaky Bucket, congestion avoidance como
RED, WRED,ECN

- Planificacin FIFO

Planificacin Primero en Entrar-Primero en Salir (FIFO, First In First Out)

Es muy simple, los procesos se despachan de acuerdo con su tiempo de llegada a la cola
de listos.
Una vez que el proceso obtiene la cpu, se ejecuta hasta terminar, ya que es una disciplina
no apropiativa.
Puede ocasionar que procesos largos hagan esperar a procesos cortos y que procesos no
importantes hagan esperar a procesos importantes.
Es ms predecible que otros esquemas.
No puede garantizar buenos tiempos de respuesta interactivos.
Suele utilizarse integrado a otros esquemas, por ejemplo, de la siguiente manera:
Los procesos se despachan con algn esquema de prioridad.
Los procesos con igual prioridad se despachan FIFO.

Primero en entrar, primero en salir (FIFO):


Las solicitudes se procesan en un orden secuencial.
Es una estrategia justa para todos los procesos
Esta tcnica se parece mucho a la planificacin aleatoria si hay muchos procesos.

Prioridad:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

No persigue la optimizacin del uso del disco, sino cumplir con otros objetivos
Los trabajos por lotes que sean cortos tienen una prioridad ms alta.
Proporciona un buen tiempo de respuesta interactiva.

Enlace de simulacion Fifo

Algunas de las caractersticas de este algoritmo es que es no apropiativo y justo en el


sentido formal, aunque injusto en el sentido de que: los trabajos largos hacen esperar a los
cortos y los trabajos sin importancia hacen esperar a los importantes. Por otro lado
es predecible pero no garantiza buenos tiempos de respuesta y por ello se emplea como
esquema secundario3.

Encolado FIFO/FCFS
Encolado FIFO/FCFS First-In, First Out (FIFO) o First-Come, First-Served (FCFS) es el
algoritmo ms simple. Los paquetes son atendidos y enrutados a travs del sistema
envindose por la correspondiente interfaz de salida de acuerdo al orden en que llegaron.
Todos los paquetes son tratados por igual. Cuando un paquete llega, y el sistema (router)
est ocupado, se coloca en una cola de salida nica (espacio de buffer). Dado que la
cantidad de memoria en cada router es finita, el espacio se podra llenar. Si no hay suficiente
espacio los paquetes debern, de acuerdo a la poltica de descarte, ser descartados. En el
caso FIFO la poltica es muy sencilla, los paquetes nuevos que arriban cuando la cola est
llena se descartan y los ms viejos permanecern esperando a los que se encolaron
previamente. Esta poltica de descarte se conoce como Tail Drop.
Cuando es el turno para el paquete, se quita de la cola, se procesa y, finalmente, se enva
a travs de una interfaz de salida (si el router encuentra con xito una ruta). Las colas FIFO
son el mecanismo por default utilizado en los dispositivos de red para procesar paquetes.
La mayora de los routers de Internet funcionaban de una manera FIFO estricta. Se trata de
una solucin bsica, pero que no proporciona mecanismos para QoS, todos los paquetes
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

obtendrn la misma manipulacin por lo que los retardos pueden variar en funcin de la
carga del router.
Este manejo no permite a los dispositivos de red organizar, reordenar los paquetes en forma
diferente, por lo tanto, no pueden dar un servicio a un flujo de datos particular de manera
diferente que el resto del trfico. En ocasiones un flujo brusty en una cola FIFO permite
que se consuma todo el espacio en memoria de la misma, haciendo que todos los otros
flujos (tal vez de buen comportamiento) no puedan recibir un servicio adecuado. El llenado
de la cola produce un bloqueo durante un intervalo de tiempo. El trafico TCP es ms
susceptible a sufrir una negacin temporal de servicio.

Modelo FIFO
Las colas FIFO pueden ofrecer los siguientes beneficios:

Carga computacional baja.


Tiene un comportamiento muy predecible para los paquetes, aunque no bajo carga.
El retardo mximo puede ser determinado por la longitud mxima de la cola.
Las colas FIFO son adecuados para sistemas que siempre funciona sin carga
extrema o tienen interfaces muy rpidas.
La limitacin ms importante es la incapacidad de proporcionar un planificador de QoS
durante periodos de congestin

Espera Equitativa Ponderada (en ingls Weighted Fair Queuing (WFQ)) se trata de una
tcnica de encolamiento que proporciona QoS en redes convergentes. Trata de evitar la
congestin. Controla directamente las colas de los nodos mediante un tratamiento
diferencial del trfico proporcionado por una determinada disciplina de servicio. WFQ es
una generalizacin de la cola de prioridad (Fair Queuing,FQ). Tanto en FQ como en WFQ,
cada flujo de datos tiene una cola FIFO separada. En FQ, con un enlace de velocidad de
transmisin de datos de R, en un momento dado los N flujos de datos activos (los nicos
con colas no vacas) son servidos a la vez, cada uno a un promedio velocidad de
transmisin de datos de R / N . Dado que cada flujo de datos tiene su propia cola, un mal
comportamiento de flujo (que ha enviado los paquetes ms grandes o ms paquetes por
segundo que los otros desde que esta activo) solo se castigar a s mismo y no a otras
sesiones. Contrario a FQ, WFQ permite a las diferentes sesiones tener diferentes cuotas
de servicio. Si actualmente N flujos de datos estn activos con pesos w 1 , w 2 . . . w N ,
nmero de flujo de datos i alcanzar un promedio de velocidad de transmisin de datos:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

R w i /( w 1 + w 2 + . . . + w N )

Puede ser demostrado que al usar una red con conmutadores WFQ y un flujo de datos con
limitacin Leaky Bucket y un retraso obligado de extremo a extremo se puede garantizar.
Regulando los pesos del WFQ dinmicamente, WFQ puede ser utilizado para controlar la
calidad del servicio QoS por ejemplo para lograr garantizar la velocidad de transmisin de
datos. Proporcional equidad se puede lograr mediante el establecimiento de los pesos en
wi=1/ci
, donde c i es el coste por bits de datos del flujo de datos i. Por ejemplo en CDMA redes
celulares de espectro ensanchado el coste puede ser la energa necesaria (el nivel de
interferencia), y en sistemas Dynamic Channel Allocation el coste puede ser el nmero de
sitios cercanos a la estacin base que no pueden usar el mismo canal de frecuencia, en
vista de evitar la interferencia co-canal.

COLAS EQUITATIVAS PONDERADAS (WFQ)


Encolamiento por espera equitativa ponderada (WFQ - Weighted Fair Queuing)

Este mtodo de encolamiento clasifica paquetes en flujos. Un flujo es un conjunto de


paquetes que tienen la misma direccin IP origen y destino y los mismos nmeros de puerto
tanto origen como destino. Dado que WFQ es basado en flujos, cada flujo utiliza diferentes
colas FIFOS separadas, el nmero de colas alcanza las 4096 colas por interface.
Es un mtodo automatizado que provee una justa asignacin de ancho de banda para todo
el trfico de la red. Como se mencion, WFQ ordena el trfico en flujos utilizando una
combinacin de parmetros. Por ejemplo, para una conversacin TCP/IP, se utiliza el
protocolo IP (direccin origen y destino), etc. Una vez distinguidos estos flujos el router
determina cules son de uso intensivo o sensible al retardo, priorizndolos y asegurando
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

que los flujos de alto volumen sean empujados al final de la cola, y los volmenes bajos,
sensibles al retardo, sean empujados al principio de la cola.
Esta tcnica es apropiada en situaciones donde se desea proveer un tiempo respuesta
consistente ante usuarios que generan altas y bajas cargas en la red, ya que se adapta a
las condiciones cambiantes del trfico en sta.
A manera de resumen, mostramos las caractersticas ms importantes:
WFQ tiene algunas limitantes de escalamiento, ya que la implementacin del algoritmo se
ve afectada a medida que el trfico por enlace aumenta, colapsa debido a la cantidad
numerosa de flujos que analizar. CBWFQ fue desarrollada para evitar esas limitaciones,
tomando el algoritmo de
WFQ y expandindolo, permitiendo la definicin de clases definidas por el usuario, que
permiten un mayor control sobre las colas de trfico y asignacin de ancho de
banda.Algunas veces es necesario garantizar una determinada tasa de transmisin para
cierto tipo de trfico, lo cual no es posible mediante WFQ pero s con CBWFQ. Las clases
que son posibles implementar con CBWFQ pueden ser determinadas segn protocolo ACL,
valor DSCP o interfaz de ingreso. Cada clase posee una cola separada y todos los paquetes
que cumplen con el criterio definido para una clase en particular son asignados a dicha cola.
Una vez que se establecen los criterios para las clases, es posible determinar cmo los
paquetes pertenecientes a dicha clase sern manejados. Si una clase no utiliza su porcin
de ancho de banda, otras pueden hacerlo. Se pueden configurar especficamente el ancho
de banda y el lmite de paquetes mximos (o profundidad de cola) para cada clase. El peso
asignado a la cola de la clase es determinado mediante el ancho de banda asignado a dicha
clase.

Funcionamiento
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Configuracin en Routers
Router (Config)#interface serial 0/0
Router (Config-if)#fair-queue

Switch(Config-if) no switchport (3550,6500)


Caractersticas de Colas Equitativas Ponderadas (WFQ)
WFQ es adaptativo a los cambios en la red.
Los otros mecanismos son estticos, y por lo tanto no se adaptan a los cambios producidos
en la red. Por ello ha sido necesario un mecanismo como WFQ, que es adaptativo.

Proporciona un buen tiempo de respuesta

WFQ es adecuado para situaciones donde se necesite un buen tiempo de respuesta, para
usuarios que hagan tanto un uso elevado de la red, tanto como para los que hagan un uso
ms leve, sin aadir ancho de banda adicional.

Cisco lo utiliza por defecto en enlaces inferiores aT1 (1,5 Mbps)

WFQ es un algoritmo basado en flujos


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

WFQ es un algoritmo de cola basado en flujos (o sesiones), que realizados tareas


simultneamente y de forma automtica:
Organiza el trfico (de tiempo real), ponindolo al principio de la cola, reduciendo
as el tiempo de respuesta.
Comparte equitativamente el resto del ancho de banda, entre el resto de trfico de
alta prioridad.
Permitiendo que los paquetes sean atendidos justamente en trminos de conteo de
bits, en otras palabras se distribuyen los flujos de datos en cada cola de manera
justa para poder brindar un servicio eficiente
Cada flujo posee su propia cola para almacenar en caso de congestin del enlace
WFQ asegura que las diferentes colas no se queden privadas de un mnimo ancho
de banda, de modo que el servicio proporcionado al trfico es ms predecible.
Considera flujos de poco caudal con flujos sensibles al retardo, por ejemplo VOIP.
No es escalable dentro de una gran red.

TCNICAS DE ENCOLAMIENTO
Las polticas de QoS implementadas en una red se activan nicamente cuando ocurre algn
tipo de congestin en la red.
Las tcnicas de encolamiento son una de las tcnicas empleadas para administrar las
congestiones que ocurren en una red, tcnicas que permiten almacenar, priorizar y si se
requiere, re ordenar los paquetes antes de ser transmitidos.
Existen algunos mtodos de encolamiento, entre los ms importantes estn:
FIFO - Fist-Input-First-Output y Weighted Fair Queuing (WFQ)
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Class-Based WFQ y Low Latency Queuing (LLQ)


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

DIAGRAMA DE RED

Use esta configuracin para ilustrar cmo funciona WFQ:


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Mecanismo de cola QoS: Priority Queuing PQ

Garantiza que en cada punto de la red el trfico importante reciba el servicio de forma
rpida.

Esquema Grfico PQ
El esquema se evidencia las 4 clases de priorizacin de trfico, donde cada paquete se
debe ubicar en una de las cuatro colas de prioridad: alta, media, normal, baja, aunque se
corre el riesgo de inanicin, es decir, dejar fuera de servicio a trfico menos prioritario. La
prioridad de los paquetes se puede diferenciar por el protocolo de red, interfaz del router
por el que llegue el paquete, su tamao y direccin origen o destino, de igual manera los
paquetes que no pueden clasificar se asignan a la cola de prioridad normal.

Mecanismo planificacin LLQ (Low Latency Queueing)

(Juan Domingo)
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

LLQ, Usado para el trfico real-time como voz y videoconferencia muy sensibles al delay.
Con LLQ, los datos sensibles al retardo, como la voz, son colocados en la cola de mayor
prioridad y son los primeros en ser enviados.

- Esquema del Mecanismo de QoS LLQ (Low latency queue):

Tomado de: https://networkingcontrol.wordpress.com/page/9/

- Ejemplo de aplicacin del mecanismo de QoS LLQ:

Tomado de: https://es.slideshare.net/GianpietroLavado/calidad-de-servicio-ip-mpls-v22

- Esquema del modelo Diff-Serv entre nodos de red:


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Tomado de:
https://www.icesi.edu.co/revistas/index.php/sistemas_telematica/article/.../1040

Es importante comprender inicialmente que CBWFD Class-Based Weighted Fair Queueing


[24][29][30] es un mecanismo usado para proporcionar un ancho de banda mnimo
garantizado a las diferentes clases de trfico durante periodos de congestin. CBWFQ
extiende la funcionalidad estndar de Weighted Fair Queueing (WFQ) para dar soporte a
clases de trfico definidas por el usuario. Para CBWFQ, se definen clases de trafico
basadas en criterios de seleccin incluyendo protocolos, listas de control de acceso (access
control lists ACLs) e interfaces de entrada. Los paquetes que satisfagan los criterios de
seleccin para una clase constituyen el trfico para esa clase. Se reserva una cola para
cada clase, y el trfico perteneciente a una clase se mete directamente en la cola de esa
clase.

Una vez que la clase ha sido definida de acuerdo con los criterios de seleccin, se le pueden
asignar caractersticas. Para caracterizar una clase, se le asigna su ancho de banda, peso
y lmite mximo de paquete. El ancho de banda asignado para la clase es el ancho de
banda garantizado para esa clase durante periodos de congestin.

LLQ es un mecanismo QoS para dar manejo a la congestin, es decir, que LLQ controla la
congestin una vez que ocurre. Una forma de que los elementos de la red manejen un
desbordamiento de trfico de entrada consiste en usar un algoritmo de encolamiento para
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

parar el trfico y determinar entonces algn mtodo que establezca prioridades a la hora
de usar el enlace de salida.

La herramienta de encolamiento de baja latencia (Low Latency Queueing) lleva la


disciplina de servicio de colas encolamiento de prioridad estricta (Strict Priority Queueing)
a CBWFQ. Se emplea para dar soporte a la clase Expedited Forwarding EF de los Servicios
Diferenciados, ya que esta clase tiene necesidades de baja latencia que LLQ soluciona.
Strict priority Queueing permite que el trfico sensible al retardo como el trfico de voz sea
desencolado y enviado antes que paquetes de otras colas, dndole al trfico sensible al
retardo un tratamiento preferente sobre otros tipos de trfico.

Sin LLQ, CBWFQ sirve todos los paquetes de manera equitativa basndose en su peso,
pero no proporciona prioridad estricta (strict priority) para ninguna clase de paquetes. Esto
puede suponer un problema para el trfico de voz que es muy sensible al retardo y
especialmente a la varianza del retardo o jitter.

LLQ proporciona Strict Priority Queueing a CBWFQ reduciendo la varianza del retardo jitter
en las conversaciones de voz. Cuando se activa LLQ se emplea una nica cola de prioridad
estricta (Strict Priority Queue) dentro de CBWFQ a nivel de clase, permitiendo llevar el
trfico perteneciente a una clase a una CBWFQ Strict Priority Queue.

Descripcin Modelo Diff-Serv:


El modelo se compone bsicamente de los nodos externos o de frontera y los nodos
internos o centrales, cada tipo de nodo tiene responsabilidades distintas. Los nodos
externos realizan funciones tales como el control de admisin, vigilancia, acondicionamiento
y contabilidad del trfico. El comportamiento de los nodos internos por su parte depender
de la clase de servicio asociada a cada paquete.

El modelo Diff Serv plantea la asignacin de prioridades a cada uno de los paquetes que
son enviados a la red. Cada Router debe analizar y dar un tratamiento diferencial a cada
uno de los paquetes. En este enfoque nos es necesario asignar ningn estado ni establecer
algn proceso de sealizacin en cada nodo.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Los elementos de la arquitectura Diff-Serv comprende un clasificador que gua los paquetes
con caractersticas similares hacia los procedimientos de condicionamiento de trfico, un
medidor que pasa su informacin hacia el bloque de acondicionamiento para determinar
alguna accin para cada paquete se encuentre fuera o dentro del perfil de trafico, un
marcador de paquetes que trabajo con un conjunto de cdigos DS, un acondicionador que
realiza el descarte de paquetes cuando no existe espacio en la cola y un descartador de
paquetes que se usa para evitar la congestin.

Tomado de:
https://www.icesi.edu.co/revistas/index.php/sistemas_telematica/article/.../1040

INGENIERA DE TRFICO CON MPLS

MPLS (Multi-Protocol Label Switching) es una red privada IP que combina la flexibilidad de
las comunicaciones punto a punto o Internet y la fiabilidad, calidad y seguridad de
los servicios Prvate Line, Frame Relay o ATM.

Ofrece niveles de rendimiento diferenciados y priorizacin del trfico, as como aplicaciones


de voz y multimedia. Y todo ello en una nica red. Contamos con distintas soluciones, una
completamente gestionada que incluye el suministro y la gestin de los equipos en sus
instalaciones (CPE). O bien, que sea usted quien los gestione
MPLS (Multiprotocol Label Switching) intenta conseguir las ventajas de ATM,
pero sin sus inconvenientes

Asigna a los datagramas de cada flujo una etiqueta nica que permite una
conmutacin rpida en los routers intermedios (solo se mira la etiqueta, no
la direccin de destino)

Las principales aplicaciones de MPLS son:


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

o Funciones de ingeniera de trfico (a los flujos de cada usuario se les asocia


una etiqueta diferente)

o Policy Routing

o Servicios de VPN

o Servicios que requieren QoS

MPLS se basa en el etiquetado de los paquetes en base a criterios de prioridad y/o


calidad (QoS).

La idea de MPLS es realizar la conmutacin de los paquetes o datagramas


en funcin de las etiquetas aadidas en capa 2 y etiquetar dichos paquetes segn
la clasificacin establecida por la QoS en la SLA.

Por tanto MPLS es una tecnologa que permite ofrecer QoS, independientemente
de la red sobre la que se implemente.

El etiquetado en capa 2 permite ofrecer servicio multiprotocolo y ser portable sobre


multitud de tecnologas de capa de enlace: ATM, Frame Relay, lneas dedicadas,
LANs.

Orgenes de MPLS
Para poder crear los circuitos virtuales como en ATM, se pens en la utilizacin de
etiquetas aadidas a los paquetes. Estas etiquetas definen el circuito virtual por toda la red.
Estos circuitos virtuales estn asociados con una QoS determinada, segn el SLA.

Inicialmente se plantearon dos mtodos diferentes de etiquetamiento, o en capa 3 o


en capa 2.

La opcin de capa 2 es ms interesante, porque es independiente de la capa de red


o capa 3 y adems permite una conmutacin ms rpida, dado que la cabecera de
capa 2 est antes de capa 3.

Ejemplo de arquitectura
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

MPLS
Conmutacin MPLS

Conmutacin de etiquetas en un LSR a la llegada de un paquete:

o Examina la etiqueta del paquete entrante y la interfaz por donde llega

o Consulta la tabla de etiquetas

o Determina la nueva etiqueta y la interfaz de salida para el paquete

Funcionamiento de MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

MPLS y pila de etiquetas


Jerarqua MPLS.
MPLS funciona sobre multitud de tecnologas de nivel de enlace.

La etiqueta MPLS se coloca delante del paquete de red y detrs de la cabecera de


nivel de enlace.

Las etiquetas pueden anidarse, formando una pila con funcionamiento LIFO (Last
In, First Out). Esto permite ir agregando (o segregando) flujos. El mecanismo es
escalable.

Cada nivel de la pila de etiquetas define un nivel de LSP Tneles MPLS

As dentro de una red MPLS se establece una jerarqua de LSPs.

En ATM y Frame Relay la etiqueta MPLS ocupa el lugar del campo VPI/VCI o en el
DLCI, para aprovechar el mecanismo de conmutacin inherente

Etiquetas MPLS
Las etiquetas MPLS identifican a la FEC asociada a cada paquete

Etiqueta MPLS genrica:


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Formato de la etiqueta MPLS: 32 bits

Situacin de la etiqueta MPLS


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Routing MPLS
Los paquetes se envan en funcin de las etiquetas.

o No se examina la cabecera de red completa

o El direccionamiento es ms rpido

Cada paquete es clasificado en unas clases de trfico denominadas


FEC (Forwarding Equivalence Class)

Los LSPs por tanto definen las asociaciones FEC-etiqueta.

Ejemplo de MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Esta es una red MPLS en la cual se ven todos sus componentes

La lnea azul representa el LDP entre el LSR de entrada y el LSR de salida.

Ideas preconcebidas sobre MPLS


Durante el tiempo en que se ha desarrollado el estndar, se han extendido algunas ideas
falsas o inexactas sobre el alcance y objetivos de MPLS. Hay quien piensa que MPLS se
ha desarrollado para ofrecer un estndar a los vendedores que les permitiese evolucionar
los conmutadores ATM a routers de backbone de altas prestaciones. Aunque esta puede
haber sido la finalidad original de los desarrollos de conmutacin multinivel, los recientes
avances en tecnologas de silicio ASIC permite a los routers funcionar con una rapidez
similar para la consulta de tablas a las de los conmutadores ATM. Si bien es cierto que
MPLS mejora notablemente el rendimiento del mecanismo de envo de paquetes, ste no
era el principal objetivo del grupo del IETF. Los objetivos establecidos por ese grupo en la
elaboracin del estndar eran:
MPLS deba funcionar sobre cualquier tecnologa de transporte, no slo ATM

MPLS deba soportar el envo de paquetes tanto unicast como multicast

MPLS deba ser compatible con el Modelo de Servicios Integrados del IETF,
incluyendo el protocolo RSVP

MPLS deba permitir el crecimiento constante de la Internet

MPLS deba ser compatible con los procedimientos de


operacin, administracin y mantenimiento de las actuales redes IP

Tambin ha habido quien pens que el MPLS persegua eliminar totalmente el


encaminamiento convencional por prefijos de red. Esta es otra idea falsa y nunca se plante
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

como objetivo del grupo, ya que el encaminamiento tradicional de nivel 3 siempre sera un
requisito en la Internet por los siguientes motivos:
El filtrado de paquetes en los cortafuegos (FW) de acceso a las LAN corporativas y
en los lmites de las redes de los NSPs es un requisito fundamental para poder
gestionar la red y los servicios con las necesarias garantas de seguridad. Para ello
se requiere examinar la informacin de la cabecera de los paquetes, lo que impide
prescindir del uso del nivel 3 en ese tipo de aplicaciones.

No es probable que los sistemas finales (hosts) implementen MPLS. Necesitan


enviar los paquetes a un primer dispositivo de red (nivel 3) que pueda examinar la
cabecera del paquete para tomar luego las correspondientes decisiones sobre su
envo hasta su destino final. En este primer salto se puede decidir enviarlo por
routing convencional o asignar una etiqueta y enviarlo por un LSP.

Las etiquetas MPLS tienen solamente significado local (es imposible mantener
vnculos globales entre etiquetas y hosts en toda la Internet). Esto implica que en
algn punto del camino algn dispositivo de nivel 3 debe examinar la cabecera del
paquete para determinar con exactitud por dnde lo enva: por routing convencional
o entregndolo a un LSR, que lo expedir por un nuevo LSP.

Del mismo modo, el ltimo LSR de un LSP debe usar encaminamiento de nivel 3
para entregar el paquete al destino, una vez suprimida la etiqueta, como se ver
seguidamente al describir la funcionalidad MPLS.

Descripcin funcional del MPLS


La operacin del MPLS se basa en las componentes funcionales de envo y control,
aludidas anteriormente, y que actan ligadas ntimamente entre s. Empecemos por la
primera.
a) Funcionamiento del envo de paquetes en MPLS
La base del MPLS est en la asignacin e intercambio de etiquetas ya expuesto, que
permiten el establecimiento de los caminos LSP por la red. Los LSPs son simplex
por naturaleza (se establecen para un sentido del trfico en cada punto de entrada a la red);
el trfico dplex requiere dos LSPs, uno en cada sentido.
Cada LSP se crea a base de concatenar uno o ms saltos (hops) en los que se intercambian
las etiquetas, de modo que cada paquete se enva de un "conmutador de etiquetas" (Label-
Swiching Router) a otro, a travs del dominio MPLS. Un LSR no es sino un router
especializado en el envo de paquetes etiquetados por MPLS.
Al igual que en las soluciones de conmutacin multinivel, MPLS separa las dos
componentes funcionales de control (routing) y de envo (forwarding). Del mismo modo, el
envo se implementa mediante el intercambio de etiquetas en los LSPs. Sin embargo, MPLS
no utiliza ninguno de los protocolos de sealizacin ni de encaminamiento definidos por el
ATM Forum; en lugar de ello, en MPLS o bien se utiliza el protocolo RSVP o bien un nuevo
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

estndar de sealizacin (el Label Distribution Protocol, LDP, del que se tratar ms
adelante).
Pero, de acuerdo con los requisitos del IETF, el transporte de datos puede ser cualquiera.
Si ste fuera ATM, una red IP habilitada para MPLS es ahora mucho ms sencilla de
gestionar que la solucin clsica IP/ATM. Ahora ya no hay que administrar dos arquitecturas
diferentes a base de transformar las direcciones IP y las tablas de encaminamiento en las
direcciones y el encaminamiento ATM: esto lo resuelve el procedimiento de intercambio de
etiquetas MPLS.
El papel de ATM queda restringido al mero transporte de datos a base de celdas. Para
MPLS esto es indiferente, ya que puede utilizar otros transportes como Frame Relay, o
directamente sobre lneas punto a punto.

Un camino LSP es el circuito virtual que siguen por la red todos los paquetes asignados a
la misma FEC. Al primer LSR que interviene en un LSP se le denomina de entrada o de
cabecera y al ltimo se le denomina de salida o de cola. Los dos estn en el exterior del
dominio MPLS. El resto, entre ambos, son LSRs interiores del dominio MPLS. Un LSR es
como un router que funciona a base de intercambiar etiquetas segn una tabla de envo.
Esta tabla se construye a partir de la informacin de encaminamiento que proporciona la
componente de control, segn se ver ms adelante. Cada entrada de la tabla contiene un
par de etiquetas entrada/salida correspondientes a cada interfaz de entrada, que se utilizan
para acompaar a cada paquete que llega por ese interfaz y con la misma etiqueta. A un
paquete que llega al LSR por el interfaz 3 de entrada con la etiqueta 45 el LSR le asigna la
etiqueta 22 y lo enva por el interfaz 4 de salida al siguiente LSR, de acuerdo con la
informacin de la tabla.

El algoritmo de intercambio de etiquetas requiere la clasificacin de los paquetes a la


entrada del dominio MPLS para poder hacer la asignacin por el LSR de cabecera. En la
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

figura el LSR de entrada recibe un paquete normal (sin etiquetar) cuya direccin de destino
es 212.95.193.1. El LSR consulta la tabla de encaminamiento y asigna el paquete a
la clase FEC definida por el grupo 212.95/16.
Asimismo, este LSR le asigna una etiqueta y enva el paquete al siguiente LSR del LSP.
Dentro del dominio MPLS los LSR ignoran la cabecera IP; solamente analizan la etiqueta
de entrada, consultan la tabla correspondiente (tabla de conmutacin de etiquetas) y la
reemplazan por otra nueva, de acuerdo con el algoritmo de intercambio de etiquetas. Al
llegar el paquete al LSR de cola (salida), ve que el siguiente salto lo saca de la red MPLS;
al consultar ahora la tabla de conmutacin de etiquetas quita sta y enva el paquete por
routing convencional.

Como se ve, la identidad del paquete original IP queda enmascarada durante el transporte
por la red MPLS, que no "mira" sino las etiquetas que necesita para su envo por los
diferentes saltos LSR que configuran los caminos LSP. Las etiquetas se insertan en
cabeceras MPLS, entre los niveles 2 y 3. Segn las especificaciones del IETF, MPLS deba
funcionar sobre cualquier tipo de transporte: PPP, LAN, ATM, Frame Relay, etc. Por ello, si
el protocolo de transporte de datos contiene ya un campo para etiquetas (como ocurre con
los campos VPI/VCI de ATM y DLCI de Frame Relay), se utilizan esos campos nativo para
las etiquetas. Sin embargo, si la tecnologa de nivel 2 empleada no soporta un campo para,
entonces se emplea una cabecera genrica MPLS de 4 octetos, que contiene un campo
especfico para la etiqueta y que se inserta entre la cabecera del nivel 2 y la del paquete
(nivel 3).
En la figura se representa el esquema de los campos de la cabecera genrica MPLS y su
relacin con las cabeceras de los otros niveles. Segn se muestra en la figura, los 32 bits
de la cabecera MPLS se reparten en: 20 bits para la etiqueta MPLS, 3 bits para identificar
la clase de servicio en el campo EXP (experimental, anteriormente llamdo CoS), 1 bit de
stack para poder apilar etiquetas de forma jerrquica (S) y 8 bits para indicar el TTL (time-
to-live) que sustenta la funcionalidad estndar TTL de las redes IP. De este modo, las
cabeceras MPLS permiten cualquier tecnologa o combinacin de tecnologas de
transporte, con la flexibilidad que esto supone para un proveedor IP a la hora de extender
su red.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

b) Control de la informacin en MPLS


Hasta ahora se ha visto el mecanismo bsico de envo de paquetes a travs de los LSPs
mediante el procedimiento de intercambio de etiquetas segn las tablas de los LSRs. Pero
queda por ver dos aspectos fundamentales:
Cmo se generan las tablas de envo que establecen los LSPs

Cmo se distribuye la informacin sobre las etiquetas a los LSRs

El primero de ellos est relacionado con la informacin que se tiene sobre la red: topologa,
patrn de trfico, caractersticas de los enlaces, etc. Es la informacin de control tpica de
los algoritmos de encaminamiento. MPLS necesita esta informacin de routing para
establecer los caminos virtuales LSPs. Lo ms lgico es utilizar la propia informacin de
encaminamiento que manejan los protocolos internos IGP (OSPF, IS-IS, RIP...) para
construir las tablas de encaminamiento (recurdese que los LSR son routers con
funcionalidad aadida). Esto es lo que hace MPLS precisamente: para cada "ruta IP" en la
red se crea un "camino de etiquetas" a base de concatenar las de entrada/salida en cada
tabla de los LSRs; el protocolo interno correspondiente se encarga de pasar la informacin
necesaria.
El segundo aspecto se refiere a la informacin de "sealizacin". Pero siempre que se
quiera establecer un circuito virtual se necesita algn tipo de sealizacin para marcar el
camino, es decir, para la distribucin de etiquetas entre los nodos. Sin embargo,
la arquitectura MPLS no asume un nico protocolo de distribucin de etiquetas; de hecho
se estn estandarizando algunos existentes con las correspondientes extensiones; unos de
ellos es el protocolo RSVP del Modelo de Servicios Integrados del IETF. Pero, adems, en
el IETF se estn definiendo otros nuevos, especficos para la distribucin de etiquetas, cual
es el caso del Label Distribution Protocol (LDP). Consltese las referencias
correspondientes del IETF.
c) Funcionamiento global MPLS
Una vez vistos todos los componentes funcionales, el esquema global de funcionamiento
es el que se muestra en la figura, donde quedan reflejadas las diversas funciones en cada
uno de los elementos que integran la red MPLS. Es importante destacar que en el borde de
la nube MPLS tenemos una red convencional de routers IP. El ncleo MPLS proporciona
una arquitectura de transporte que hace aparecer a cada par de routers a una distancia de
un slo salto. Funcionalmente es como si estuvieran unidos todos en una topologa mallada
(directamente o por PVCs ATM). Ahora, esa unin a un solo salto se realiza por MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

mediante los correspondientes LSPs (puede haber ms de uno para cada par de routers).
La diferencia con topologas conectivas reales es que en MPLS la construccin de caminos
virtuales es mucho ms flexible y que no se pierde la visibilidad sobre los paquetes IP. Todo
ello abre enormes posibilidades a la hora de mejorar el rendimiento de las redes y de
soportar nuevas aplicaciones de usuario, tal como se explica en la seccin siguiente.

Aplicaciones de MPLS
Redes de alto rendimiento: las decisiones de encaminamiento que han de tomar los
routers MPLS en base a la LIB son mucho ms sencillas y rpidas que las que toma
un router IP ordinario (la LIB es mucho ms pequea que una tabla de rutas normal).
La anidacin de etiquetas permite agregar flujos con mucha facilidad, por lo que el
mecanismo es escalable.

Ingeniera de Trfico: se conoce con este nombre la planificacin de rutas en una


red en base a previsiones y estimaciones a largo plazo con el fin de optimizar los
recursos y reducir congestin.

QoS: es posible asignar a un cliente o a un tipo de trfico una FEC a la que se asocie
un LSP que discurra por enlaces con bajo nivel de carga.

VPN: la posibilidad de crear y anidar LSPs da gran versatilidad a MPLS y hace muy
sencilla la creacin de VPNs.

Soporte multiprotocolo: los LSPs son vlidos para mltiples protocolos, ya que el
encaminamiento de los paquetes se realiza en base a la etiqueta MPLS estndar,
no a la cabecera de nivel de red.

INGENIERA DE TRFICO
El objetivo bsico de la ingeniera de trfico es adaptar los flujos de trfico a los recursos
fsicos de la red. La idea es equilibrar de forma ptima la utilizacin de esos recursos, de
manera que no haya algunos que estn suprautilizados, con posibles puntos calientes y
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

cuellos de botella, mientras otros puedan estar infrautilizados. A comienzos de los 90 los
esquemas para adaptar de forma efectiva los flujos de trfico a la topologa fsica de las
redes IP eran bastante rudimentarios. Los flujos de trfico siguen el camino ms corto
calculado por el algoritmo IGP correspondiente. En casos de congestin de algunos
enlaces, el problema se resolva a base de aadir ms capacidad a los enlaces. La
ingeniera de trfico consiste en trasladar determinados flujos seleccionados por el
algoritmo IGP sobre enlaces ms congestionados, a otros enlaces ms descargados,
aunque estn fuera de la ruta ms corta (con menos saltos). En el esquema de la figura se
comparan estos dos tipos de rutas para el mismo par de nodos origen-destino.
El camino ms corto entre A y B segn la mtrica normal IGP es el que tiene slo dos saltos,
pero puede que el exceso de trfico sobre esos enlaces o el esfuerzo de los routers
correspondientes haga aconsejable la utilizacin del camino alternativo indicado con un
salto ms. MPLS es una herramienta efectiva para esta aplicacin en grandes backbones,
ya que:
Permite al administrador de la red el establecimiento de rutas explcitas,
especificando el camino fsico exacto de un LSP.

Permite obtener estadsticas de uso LSP, que se pueden utilizar en la planificacin


de la red y como herramientas de anlisis de cuellos de botella y carga de los
enlaces, lo que resulta bastante til para planes de expansin futura.

Permite hacer "encaminamiento restringido" (Constraint-based Routing, CBR), de


modo que el administrador de la red pueda seleccionar determinadas rutas para
servicios

especiales (distintos niveles de calidad). Por ejemplo, con garantas explcitas de


retardo, ancho de banda, fluctuacin, prdida de paquetes, etc.

La ventaja de la ingeniera de trfico MPLS es que se puede hacer directamente sobre una
red IP, al margen de que haya o no una infraestructura ATM por debajo, todo ello de manera
ms flexible y con menores costes de planificacin y gestin para el administrador, y con
mayor calidad de servicio para los clientes.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Clases de servicio (CoS)


MPLS est diseado para poder cursar servicios diferenciados, segn el Modelo DiffServ
del IETF. Este modelo define una variedad de mecanismos para poder clasificar el trfico
en un reducido nmero de clases de servicio, con diferentes prioridades. Segn los
requisitos de los usuarios, DiffServ permite diferenciar servicios tradicionales tales como el
WWW, el correo electrnico o la transferencia de ficheros (para los que el retardo no es
crtico), de otras aplicaciones mucho ms dependientes del retardo y de la variacin del
mismo, como son las de vdeo y voz interactiva. Para ello se emplea el campo ToS (Type
of Service), rebautizado en DiffServ como el octeto DS. (Vase ms informacin sobre el
modelo DiffServ en las referencias correspondientes a QoS). Esta es la tcnica QoS de
marcar los paquetes que se envan a la red.
MPLS se adapta perfectamente a ese modelo, ya que las etiquetas MPLS tienen el campo
EXP para poder propagar la clase de servicio CoS en el correspondiente LSP. De es te
modo, una red MPLS puede transportar distintas clases de trfico, ya que:
el trfico que fluye a travs de un determinado LSP se puede asignar a diferentes
colas de salida en los diferentes saltos LSR, de acuerdo con la informacin
contenida en los bits del campo EXP

entre cada par de LSR exteriores se pueden provisionar mltiples LSPs, cada uno
de ellos con distintas prestaciones y con diferentes garantas de ancho de banda.
P. ej., un LSP puede ser para trfico de mxima prioridad, otro para una prioridad
media y un tercero para trfico best-effort, tres niveles de servicio, primero,
preferente y turista, que, lgicamente, tendrn distintos precios.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

Como resumen, las ventajas que MPLS ofrece para IP VPNs son:
proporcionan un modelo "acoplado" o "inteligente", ya que la red MPLS "sabe" de la
existencia de VPNs (lo que no ocurre con tneles ni PVCs)

evita la complejidad de los tneles y PVCs

la provisin de servicio es sencilla: una nueva conexin afecta a un solo router

tiene mayores opciones de crecimiento modular

permiten mantener garantas QoS extremo a extremo, pudiendo separar flujos de


trfico por aplicaciones en diferentes clases, gracias al vnculo que mantienen el
campo EXP de las etiquetas MPLS con las clases definidas a la entrada

permite aprovechar las posibilidades de ingeniera de trfico para poder garantizar


los parmetros crticos y la respuesta global de la red (ancho banda, retardo,
fluctuacin...), lo que es necesario para un servicio completo VPN.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

CONCLUSIONES

La evolucin imparable de las tecnologas de redes hace extenuante la labor de anlisis y


recopilacin de soluciones para la red. Ms cuando hablamos de ideas abiertas a opiniones
y expuestas a posibles (y probables) modificaciones.
En lo que respecta a la integracin de IP sobre ATM, nunca podremos dar un "s" rotundo
y sin objeciones a una solucin.
MPLS apareci solventando los problemas y aportando escalabilidad y control sobre la red.
De modo que una de las mayores dudas que se plantean ahora es cunto tiempo podr
estar MPLS en la cabeza de las propuestas IP - ATM?. Batir record de permanencia
como IP , que va a cumplir 25 aos?.
Igualmente, la idea con la que partamos hace ya un ao, de que la principal ventaja que
aportaban los switches era la velocidad, ha pasado a un segundo plano. La aparicin de los
gigabit routers hace que el problema de la velocidad en el routing sea un mal menor.
La creatividad de los ingenieros y diseadores de redes nos ha enseado que el paradigma
de la conmutacin aporta mayor escalabilidad de redes, mayor control en la QoS y , lo que
ms importa a las empresas, mayor control sobre la Ingeniera del Trfico (accounting y
gestin de recursos). Siendo MPLS, a m nuestro parecer, el ejemplo que engloba todas
estas caractersticas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA

REFERENCIAS BIBLIOGRFICAS

Barbieri, A. (2016). Modelo extendido de QoS sobre IPv6. Recuperado


de http://sedici.unlp.edu.ar/bitstream/handle/10915/53028/Documento_completo__.pdf-
PDFA.pdf?sequence=3
Marsic, I. (2013). Computer Networks Performance and Quality of Service. Recuperado
de https://es.scribd.com/doc/282202546/Book-CN-Marsic
Alarcn, A. V., & Martnez, S. J. C. (2008). Introduccin a Redes MPLS. Crdoba, AR: El
Cid Editor. Recuperado
de http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/reader.action?ppg=1&docID=10232
356&tm=1497374217633
Coloms, P. [Paulo Coloms]. (2017). Conceptos de Calidad de Servicio (QoS).
recuperado de https://www.youtube.com/watch?v=mqT7MB29BJM
https://www.cisco.com/c/en/us/td/docs/ios/12_2/qos/configuration/guide/fqos_c/qcfwfq.html
https://supportforums.cisco.com/t5/routing-y-switching-blogs/fundamentos-de-qos-calidad-
de-servicio-en-capa-2-y-capa-3/ba-p/3103715?dtid=osscdc000309
https://www.cisco.com/c/en/us/support/docs/asynchronous-transfer-mode-atm/ip-to-atm-
class-of-service/10049-wfq-illustrated.html

You might also like