You are on page 1of 66

InformeFinal

ClusterGRIDProject

Grupo7

JessAlejandroNogueraBalln
CamiloAntonioAlbarracnCanon
ErinStevenRincnPrieto

UniversidadNacionaldeColombia
FacultaddeIngeniera,DepartamentoSistemasyComputacin
ComputacinParalelayDistribuida
Bogot,Colombia2015

Contenido

Introduccin
Desarrollo
ConfiguracionesSwitchesyRouters
Conclusiones
CLUSTER
GRID
Inconvenientesysoluciones

3
3
5
7
8
62
66

Introduccin
El Grid es un sistema de computacin distribuido, que permite compartir recursos, los
cuales no necesariamente se encuentran centrados geogrficamente, para resolver
problemas de gran escala. Para el desarrollo del proyecto, losrecursoscompartidosfueron
ordenadoresloscualesfueronvirtualizadossobreequiposporttilesdegranpotencia.

La potencia que ofrecen multitud de computadores conectados en red usando grid es


prcticamente ilimitada, adems es una solucin altamente escalable, potente yflexible,ya
queevitaproblemascomolafaltaderecursos(cuellosdebotella).

Los recursossondistribuidosenlareddeformatransparente.Su objetivoes eldecompartir


una serie de recursosenlareddemanerauniforme,segura,transparente,eficiente yfiable,
ofreciendo un nico punto de acceso a un conjunto de recursos distribuidos
geogrficamente.

Desarrollo
Para eldesarrollodelproyectoGrid,secontinuconellaboratoriodeClusterrealizadoenla
primera parte del curso Computacin Paralela y Distribuida, pero sta vez se llev a gran
escala, dividiendo dos mesas del laboratorio en dos segmentos de red (Clusters)
geogrficamente separados (
Figura 1
) de forma que cada par de los 10 grupos se
conectabaentresgraciasalusodedosroutersydosswitches.

Figura1.Direccionamientoyconfiguracindelared.

Para nuestro proyecto nuestro grupo 7 (


Figura 2
) se uni con el grupo 4
(
Figura 3
), cada
grupo mantiene su configuracin de direccionamiento planeada en el primer laboratorio,
paranuestrogrupo(7)eslasiguiente:
192.168.0.96/255.255.255.240

192.168.0.97/28
(first)(gateway)

192.168.0.110/28
(last)

Broadcast
192.168.0.111

PCESXi:
192.168.0.104(Nodo3)

Figura2.Instalacingrupo7.

Figura3.Instalacingrupo4.

Como primera medida, se desarrollaron simulaciones de configuracin y conexin en el


software Packet Tracer (
Figura 4
), para as asegurar un ambiente completamente
comunicado y seguro de acuerdo a las especificaciones dadas por el instructor de la
materia.

Figura4.Instalacinysimulacindeconeccion
delaredconelsoftwarePacketTracer.

Las configuraciones (scripts) de los equipos de red que permitieron el desarrollo del
proyectoseencuentranacontinuacin.

SwitchSW

enable
configt
interfacefastEthernet0/1
switchportaccessvlan2
interfacefastEthernet0/2
switchportaccessvlan2
interfacefastEthernet0/3
switchportaccessvlan3
interfacefastEthernet0/4
switchportaccessvlan3
interfacefastEthernet0/5
switchportaccessvlan4
interfacefastEthernet0/6
switchportaccessvlan4
interfacefastEthernet0/7
switchportaccessvlan5
interfacefastEthernet0/8
switchportaccessvlan5
interfacefastEthernet0/9
switchportaccessvlan6
interfacefastEthernet0/10
switchportaccessvlan6
interfacefastEthernet0/11
switchportaccessvlan13
interfacefastEthernet0/12
switchportaccessvlan13
interfacefastEthernet0/23
switchportmodetrunk
interfacefastEthernet0/24
switchportmodetrunk
end
wr

SwitchNE

enable
configt
interfacefastEthernet0/1
switchportaccessvlan7
interfacefastEthernet0/2
switchportaccessvlan7
interfacefastEthernet0/3
switchportaccessvlan8
interfacefastEthernet0/4
switchportaccessvlan8
interfacefastEthernet0/5
switchportaccessvlan9
interfacefastEthernet0/6
switchportaccessvlan9
interfacefastEthernet0/7
switchportaccessvlan10
interfacefastEthernet0/8
switchportaccessvlan10
interfacefastEthernet0/9
switchportaccessvlan11
interfacefastEthernet0/10
switchportaccessvlan11
interfacefastEthernet0/11
switchportaccessvlan12
interfacefastEthernet0/24
switchportmodetrunk
end
wr

RouterSW

RouterNE

enable
configt
hostnameRT_SW
linevty05
passwordcisco
login

intf0/0.2
encapsulationdot1q2
ipaddress192.168.0.1
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.3
encapsulationdot1q3
ipaddress192.168.0.17
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.4
encapsulationdot1q4
ipaddress192.168.0.33
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.5
encapsulationdot1q5
ipaddress192.168.0.62
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.6
encapsulationdot1q6
ipaddress192.168.0.65
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.7
encapsulationdot1q13
ipaddress192.168.0.177
255.255.255.240
iphelperaddress192.168.0.2

intf0/0
noshutdown

enable
configt
hostnameRT_NE
linevty05
passwordcisco
login

intf0/0.11
encapsulationdot1q11
ipaddress192.168.0.94
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.7
encapsulationdot1q7
ipaddress192.168.0.97
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.8
encapsulationdot1q8
ipaddress192.168.0.113
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.9
encapsulationdot1q9
ipaddress192.168.0.129
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.10
encapsulationdot1q10
ipaddress192.168.0.145
255.255.255.240
iphelperaddress192.168.0.2

intf0/0.12
encapsulationdot1q12
ipaddress192.168.0.161
255.255.255.240
iphelperaddress192.168.0.2

intf0/0
noshutdown

ints0/0/0
encapsulationhdlc
ipaddress200.200.200.1
255.255.255.252
noshutdown

routerospf10

network192.168.0.00.0.0.15
network192.168.0.160.0.0.15
network192.168.0.320.0.0.15
network192.168.0.480.0.0.15
network192.168.0.640.0.0.15
network192.168.0.1760.0.0.15
network200.200.200.00.0.0.3
end
wr

ints0/0/0
encapsulationhdlc
ipaddress200.200.200.2
255.255.255.252
noshutdown

routerospf10

network192.168.0.800.0.0.15area0
network192.168.0.960.0.0.15area0
network192.168.0.1120.0.0.15area
0
network192.168.0.1280.0.0.15area
0
network192.168.0.1440.0.0.15area
0
network192.168.0.1600.0.0.15area
0
network192.168.0.1600.0.0.15area
0
network200.200.200.00.0.0.3area0
end
wr

Adems, se cre un Servidor DNSparatodo ellaboratorioyunServidorDNSalternativoen


otramesa,cadamesarepresentaunazonacompletamentealejadadelaotra.

Debido a que el primer laboratorio cada grupo hizo un montaje de un cluster, entonces,
cada grupo ya conoca el montaje bsico para la prueba de grid. Para nuestro laboratorio,
nuestro grupo (7) aport una mquina ESXi (nodo 2) al grupo 3, en el cual se hallaba el
nodo principal (Nodo 1) y un nodo adicional (Nodo 3). A todoslosnodos selesconfigurel
SistemaOperativoUbuntuensuversin14.0,servicioSSH.

Al momento de ejecutar la aplicacin compartida (Multiplicacin de nmeros primos), se


present un problema en el cual noreconocaunodelosnodosademsdenoreconocerel
SSH. Tras varios intentos fallidostratandodesolucionarelproblemareconfigurandoelSSH
y dems, se procedi a reiniciar el servidor(Nodo Maestro) y el problema se solucion y la
aplicacincorricorrectamente.

Conclusiones
GraciasalusodeMPIesposiblehacerdistribucindeltrabajodeunsoftwareaprovechandolos
recursos de varias mquinas, hay que aclarar que no importa la versin de MPICH que se

utilice, sta debe ser configurada con los nombres de cada versin, sta fue una leccin
aprendida,yaquegracias aqueusamoscomoguauntutorialdeMPICH 2peroinstalamosla
versin ms reciente (MPICH 3), lo cual era de sumo cuidado, debido a que los nombresde
direccionamiento no podan ser los mismos, sino de acuerdo a laversin.Ademses posible
crearprogramasqueaprovechenlosbeneficiosqueMPIysusprimitivasofrecen.

Las conexiones entrelasmquinasyloselementosdered,talescomo,routers,switchesyotras


mquinas,serealizaronentrerouters(cableserial,luegocablecruzado)tambincables

CLUSTER
Elprocesodeinstalacinenel
PC(Server):

PrimeroseinstalelWindowsServerluegodehaberinstaladovmWareenelequipo

InstalacindeActiveDirectoryyServidorDNS:

LuegoseinstalelESXi

Elprocesodeinstalacinenel
PC(vCenter):

PrimeroseinstalelWindowsServerluegodehaberinstaladovmWareenelequipo

Enprocesodeinstalacinde
vSphereClient
enel
PC(Server)
,ascomoeldelacreacinde
los3NodosenUbuntu,instalacindeMPIySSHypruebadeaplicacin

fue
:

Debido aque usamos lainfraestructuradereddelasala(laboratorio)almismotiempoqueotros


compaeros de otros grupos realizaban pruebas desaturacinde redcomoloespecificabael
laboratorioanterior, segeneraronalgunoserrores deconeccion,muy seguramenteelswitchde
la sala al recibir una gran cantidad de solicitudes sobre lared,dabadebajaporunmomento
algunasestacionesde trabajo,loque dabacomoresultado quesecayeranmomentneamente
lasconeccionesdelosNodos,comopodemosobservarenlassiguientesimgenes.

Para dar solucin a ste problema fue necesario realizar una interconexin entre los
computadores de nuestro grupo, de forma que estuvieran aislados del trfico de la red de la
sala.

Ahora,veremoslaaplicacinenC(Sumadenmerosaleatorios)funcionandoconlos
respectivosrecursosgastadosencadanodo:

Nodosenreposo:

Aplicacinejecutando:

Nodogastandorecursos:

GRID
Unavezseharealizadoelmontajeporpartedecadagrupodesupartedelcluster,
podemosobservarqueseencuentranmontadoslos3nodosyelClusterD(queeselque
perteneceanuestrogrupo7yelgrupo4)

Unavezconectados,hacemoslaverificacindeladistribucindelosprocesosdelas
mquinas,conunscriptquerealizalacuentadelacantidaddenmerosprimos(Pi)desde
0hastaelnmeroN.

Ahoraverificamoselrendimientodelasmquinas:

Comoobservamoslacargaesdistribuidaatravsdelosnodos,aunquestosse
encuentrenseparadosgeogrficamente.

Inconvenientesysoluciones
Algunosinconvenientesysussolucionesencontradosdurantelarealizacindelos
laboratorios,fueron:

Problema:
Demasiadotrficosobrelared,loquehacequeelswitchdellaboratorio
dedebajaalgunasdireccionesip.
Solucin:
Parasolucionarsto,hayqueaislarlos
equipos,paraelloseconectaronentreellospormediodeuncabledered.

Problema:
VersionynombresdeMPICH.
Solucin:
Tenercuidadoconlos
nombresdeMPICHysuversin,paranuestrocasofunecesarioinstanciarlas
variablesparadelsistemacorrectamenteconelnombredeMPICH3.

Problema:
Erroresdeconeccion,reconocimientodelosnodosydistribucinde
cargaatravsdelosmismos.
Solucin:
Aunquesuenegracioso,lasolucinpara
steproblemaencontradojustoantesdelapresentacindellaboratorioanteel
profesor,fuesimplementereiniciandoelservidordelVSPHERE.

You might also like