Professional Documents
Culture Documents
Introduccin.
(C)j@gm
Avances tecnolgicos:
Aumento de prestaciones. Aumento de la demanda de recursos.
Computador utilizado para abordar problemas mas complejos.
de
la
Inters por tcnicas que aumenten las prestaciones sin disparar coste.
Introduccin.
(C)j@gm
mbito de aplicacin:
Desde la conexin de procesadores. Hasta la conexin de computadores.
Objetivo:
Aspectos bsicos y generales proceso de paralelizacin. del
Introduccin.
(C)j@gm
Aspectos bsicos sobre computacin paralela Diseo de Arquitecturas paralelas. Obvio. Diseo de algoritmos paralelos eficaces
Difieren de los algoritmos secuenciales.
Lenguajes paralela.
herramientas
de
programacin
Portabilidad y reusabilidad.
Todava un poco verde.
Tipos y clasificacin.
(C)j@gm
gran
procesamiento
Acelerar la ejecucin de un programa mediante su descomposicin en fragmentos que pueden ejecutarse de forma simultnea en su propia unidad de proceso.
N fragmentos en N computadores. N veces la velocidad de un computador.
Conceptos.
(C)j@gm
N = grado de paralelismo.
N es un valor ideal.
Debe existir partes. interaccin entre las N
en
diferentes
No obstante:
Siempre se pueden conseguir mejoras con la computacin paralela. Siempre se podr beneficiar de los progresos y avances de los sistemas monoprocesadores.
Un poco de historia.
(C)j@gm
ei.cs.vt.edu/~history/Parallel.html 1955: IBM704 (FPU) Gene Amdahl 1956: IBM STRETCH ( 1961 ) 1962: 1965: 1966: 1968: 1969: Burroughs D825 (1 a 4 CPUs) Dijkstra (R.C.) Cooley & Tukey (FFT) Taxonomia de Flynn Dijkstra (Semforos) MULTICS (con 8 CPUs)
(C)j@gm
Segn la paralelo:
definicin
de
computacin
Un sistema de procesamiento paralelo puede realizarse de multitud de formas. La complejidad de las diversas posibilidades, hace que existan diferentes taxonomas.
Taxonoma de Flynn. Segn el sistema de almacenamiento. Otras.
NOTA:
No existe una clasificacin definitiva.
Taxonoma de Flynn.
(C)j@gm
Clasificacin segn el flujo (secuencia de elementos) de instrucciones y flujo de datos que se desarrolla en los computadores.
SISD
Single Instruction Single Data.
SIMD
Single Instruction Multiple Data.
MISD
Multiple Instruction Single Data.
MIMD
Multiple Instruction Multiple Data.
SISD.
(C)j@gm
SIMD.
(C)j@gm
Ejemplos reales:
ILLIAC IV Mquina de conexin
SIMD.
(C)j@gm
ILLIAC IV.
(C)j@gm
MISD.
(C)j@gm
MISD.
(C)j@gm
MIMD.
(C)j@gm
Instrucciones mltiples.
mltiples,
datos
Se incluyen la mayora de los sistemas multiprocesadores y multicomputadores. Un computador MIMD implica interacciones entre varios procesadores. Ejemplos:
Cray-2 IBM 370 UNIVAC 1100/80
MIMD.
(C)j@gm
IBM 370.
(C)j@gm
UNIVAC 1100.
(C)j@gm
En esencia.
(C)j@gm
Atendiendo a la clasificacin del Flynn, las arquitecturas paralelas pueden ser esencialmente de dos tipos:
SIMD. MIMD.
Tradicionales
Modelo SIMD.
(C)j@gm
Cada procesador ejecuta la misma operacin, en sincronismo, sobre su propio conjunto de datos.
Las instrucciones se envan a ms de un procesador.
Acta como un procesador ALU, sin unidad de control.
es a
la las los
Modelo SIMD.
(C)j@gm
reas de aplicacin:
Tratamientos de arrays en bucles:
Simulaciones de sistemas. Procesamiento de imgenes.
Ejemplo clsico:
Connection Machine.
1985. 65536 procesadores con 4KB de memoria.
Problemas:
Tratamiento de sentencias de seleccin.
Realizar una operacin diferente dependiendo del dato que se tenga.
Modelo MIMD.
(C)j@gm
forma
ejecutando
un
Existe gran intercambio de informacin entre los procesadores. Son ms generales y eficaces que los SIMD.
(C)j@gm
computacin
El ancho de banda.
Nmero de bits que se pueden enviar por unidad de tiempo.
Se satisface:
Latencia de red baja. Ancho de banda alto.
Memoria
UMA:
Escalabilidad limitada.
Nmero mximo de procesadores: 16 a 32.
Mejoras:
Memoria local para los procesadores.
Se evitan accesos a memoria a travs de la red.
El acceso a memoria ya no es uniforme. Nacen los sistemas con memorias de acceso no uniforme: NUMA.
NUMA:
El tiempo de acceso a memoria difiere entre palabras.
La informacin est distribuida.
Red de interconexin
La red de fundamental.
interconexin
es
los
la la
Las variables compartidas se reparten directamente por el programador o por el sistema operativo. La coherencia se mantiene mediante los directorios.
Idea bsica:
La memoria local de cada nodo cach del resto del sistema. es la
Ventajas:
Un fallo de acceso remoto se resuelve distribuyendo automticamente por el sistema los datos que est utilizando la aplicacin.
Problemas (desventajas):
Complejidad para mantener la coherencia de las copias de los datos a lo largo de todo el sistema.
Existe MIMD.
tanto
en
sistemas
SIMD
como
La red de interconexin:
Facilita el paso de mensajes entre los procesadores nodo.
Memoria distribuida.
(C)j@gm
La red de interconexin.
Puede ser de latencia alta. Ancho de banda:
Complejo. Hay analizar otros factores: Por ejemplo:
La granularidad del computador paralelo.
MIMD
de
Los MIMD de memoria distribuida con arquitectura de paso de mensaje se conocen como multicomputadores.
Memoria distribuida.
(C)j@gm
Puede ser mltiples computadores enlazados por una red de interconexin ms o menos rpida.
Clusters:
Con computadores dedicados: Beowulf. Con computadores no dedicados: NOW (Network Of Workstations).
Beowulf es un conjunto de nodos minimalistas (Placa base, CPU, memoria y algn dispositivo de E/S), conectados por un medio de comunicacin barato, con una topologa de red influenciada por el problema a resolver. Cada nodo se dedica nicamente a procesos del supercomputador. En una red NOW suele existir un switch central para realizar las comunicaciones, mientras que en un Beowulf el mecanismo es ms rudimentario: conexiones placa a placa mediante RJ-45 cruzado. La programacin Beowulf depende de la arquitectura, y siempre se realiza por paso de mensaje.
Memoria distribuida.
(C)j@gm
Beowulf.
(C)j@gm
(C)j@gm
NOW.
(C)j@gm
NOW.
(C)j@gm
punto
las
punto
de
entre
paso de
arquitecturas
Dinmicas.
Se construyen con switches, hubs o enlaces de comunicacin.
Se denominan indirectas. Se utilizan para los sistemas compartida. de memoria
nmero
de
En resumen.........
(C)j@gm
Redes de interconexin.
(C)j@gm
Importantes:
Medio para el intercambio informacin entre los elementos forman un computador paralelo. de que
Cundo es eficaz?
Cuando la capacidad de clculo est equilibrada con respecto a la capacidad de transmisin de la red.
Las mejoras en su capacidad estn ligadas a los avances en tecnologa VLSI. Hay algunas limitaciones.
El caso ideal de una red de enlaces individuales entre todos los elementos de clculo seria muy costoso.
Existen retardos comunicacin. inherentes a todo el sistema de
Los avances en los elementos de clculo hacen responsable a la red de los lmites en la velocidad de los sistemas paralelos.
Debido a un tiempo de acceso elevado. La cantidad de informacin que pueden desbordarse es demasiado baja. tratar sin
Mltiples estructuras.
Desde estructuras coste. sencillas de bajo
(C)j@gm
conmutacin de
de
la
Almacenar y remitir.
Cada paquete se almacena completamente en los nodos intermedios, antes de ser reenviado al siguiente nodo de la ruta, en busca del nodo destino. La distancia topolgica aumenta la latencia de los mensajes.
(C)j@gm
Desventaja:
Nivel de ocupacin equilibrados. de los recursos no
Encaminamiento adaptativo:
La eleccin del camino depende de los nodos origen y destino, y del estado de la red. Desventajas:
Caros, complejos, bajos en rapidez.
(C)j@gm
Implementan el algoritmo de encaminamiento junto a los dems factores de una red de interconexin. Pueden realizarse mediante cualquier combinacin de esos factores.
Hay combinaciones limitaciones: no vlidas o con
Interbloqueo: Debido al tipo de topologa, control de flujo y encaminamiento elegido, puede inutilizarse el sistema de interconexin. Starvation: Ausencia de datos en el procesador.
Ejemplo. Myrinet.
(C)j@gm
(C)j@gm
Multiprocesadores.
(C)j@gm
Multicomputadores.
(C)j@gm