You are on page 1of 8

1. Responda V o F, justificando las Falsas.

1. La diferencia fundamental entre modulacin angular y modulacin de amplitud es


que la primera es de tipo lineal y la segunda es del tipo no-lineal.
Falso.
Suponemos que tenemos un mensaje que est definido como:
(1) () = 1 () + 2 ()
Con a y b nmeros reales.
Luego, la modulacin de amplitud ASK est definida como:
(2) () = ()cos(2 )
De (1) en (2):
() = (1 () + 2 ())cos(2 )
() = 1 ()cos(2 ) + 2 ()cos(2 )
Luego
() = 1 () + 2 ()
Por lo tanto la modulacin de amplitud es del tipo lineal, por lo que el enunciado no puede
ser verdadero.
2. Visto del punto de vista del canal, la informacin que sale de la fuente de
informacin es aleatoria y vara en el tiempo.
Verdadero.
3. Al mediar la cantidad de informacin de un mensaje, podemos decir que un
mensaje menos probable es el que posee menor informacin.

2. Resuelva
Una Cara Virtual, la que se muestra en la Fig. 1 se desea transmitir a travs de un canal
de comunicaciones, cuyos 4 elementos que la componen [o, , -, esp] (tal que esp es el
2 1 3 3

espacio en blanco) tienen las siguientes distribuciones de probabilidad [ , , , ].


9 9 9 9
1. Calcule la informacin promedio (entropa) asociado a la fuente de generacin de estos
smbolos.
La entropa asociada a la fuente est definida como:

() = ( ) log 2 ( )
=1

Donde n=4, entonces se tiene que la entropa asociada a la fuente de generacin de estos
smbolos es:
() = (1 ) log 2 (1 ) (2 ) log 2 (2 ) (3 ) log 2 (3 ) (4 ) log 2 (4 )
() = 0.4822 + 0.3522 + 0.5283 + 0.5283 = 1.891

2. Si despus de un anlisis estadstico se determin que las probabilidades de recibir


cierto elemento, dado que se ha enviado otro elemento, son las que se muestran a
continuacin, entonces:
a) Dibuje el diagrama de ramas del canal de comunicaciones, con los smbolos y
probabilidades condicionales dadas.

Fig. 1 Diagrama de ramas

b) Dibuje la Cara Virtual ms probable de obtener a la salida del canal:


Si la cara transmitida es:

Fig. 2 Cara transmitida.

La cara virtual ms probable, teniendo en cuenta las probabilidades condicionales de


enviar cada smbolo, ser la
siguiente:

O
-

O
-

O
-

Fig. 3 Cara virtual obtenida en la salida

3. Responda y/o simule (1.5ptos.)


1. Indique 3 tcnicas para realizar modulacin digital va carrier y mencione sus
diferencias fundamentales.
Las 3 tcnicas para realizar la modulacin digital va carrier son:
Modulacin de amplitud, ASK.
Consiste en establecer una variacin de la amplitud de a la portadora segn los estados
significativos de la seal de datos, suele utilizarse en enlaces por fibras pticas.

Fig. 4 Modulacin ASK. La primera seal es el mensaje en binario, mientras que es la segunda es
su modulacin ASK.

Modulacin de fase, PSK.


Consisten en asignar variaciones de fase de una portadora segn los estados
significativos de la seal de datos, cuando es 0 el desfase es 0, cuando es 1 el
desfase es 180.
La modulacin PSK es el mtodo ms eficiente para transmitir datos binarios en presencia
de ruido La potencia de la fuente es constante, lo que simplifica el diseo de
amplificadores y etapas receptoras (reduciendo costos). Su principal desventaja es que el
diseo del emisor y receptor es ms complejo. Es ideal para comunicaciones Sncronas.

Fig. 5 Modulacin PSK. La primera seal es el mensaje en binario, mientras que es la segunda es
su modulacin PSK.

Modulacin de frecuencia FSK


Consiste en asignar una frecuencia diferente a cada estado significativo de la seal de
datos. La modulacin FSK se emplea normalmente en enlaces asncronos. Es el sistema
ideal para operar a baja velocidad. La gran desventaja de la modulacin FSK es el gran
ancho de banda que consume.

Fig. 6 Modulacin FSK. La primera seal es el mensaje en binario, mientras que es la segunda es
su modulacin FSK.

2. Grafique la entropa vs p, para una fuente binaria, tal que la probabilidad de los
elementos son 1 = y 2 = 1 . Cmo se modifica este grfico si ahora la
fuente provee tres elementos? Asigne valores a las probabilidades.
Se cre el siguiente cdigo en matlab, el cual grfica la entropa vs la probabilidad para
una fuente binaria.
%Fuente binaria
%Probabilidad de cada elemento.
p=0:0.001:1;
q=1-p;
%Probabilidad de cada elemento.
p=0:0.01:1;
q=1-p;
%Formula entropia para fuente binaria
H2=p.*log2(1./p)+q.*log2(1./q);
%Grafico H(x) vs p
figure(1)
plot(p, H2)
xlabel('Probabilidad')
ylabel('Entropa H(x) [Bits/simbolo]')
title('Entropa de una fuente binaria')

Y se gener el siguiente grfico:


Entropa de una fuente binaria
1
0.9

Entropa H(x) [Bits/simbolo]

0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0

0.1

0.2

0.3

0.4
0.5
0.6
Probabilidad

0.7

0.8

0.9

Para la fuente de 3 elementos, se gener el siguiente cdigo en matlab, que grafica la


entropa vs la probabilidad de est:
%Fuente 3 elementos
%Probabilidad de cada elemento.
p=0:0.001:1;
q=1-p;
%Probabilidad de cada elemento
p1=p;
p2=0.6*q;
p3=0.4*q;
%Formula entropia para fuente de 3 elementos
H3=p1.*log2(1./p1)+p2.*log2(1./p2)+p3.*log2(1./p3);
%Grafico H(x) vs p
figure(2)
plot(p, H3)
xlabel('Probabilidad')
ylabel('Entropa H(x) [Bits/simbolo]')
title('Entropa de una fuente de 3 elementos')

Generando el siguiente grfico:


Entropa de una fuente de 3 elementos
1.6

Entropa H(x) [Bits/simbolo]

1.4
1.2
1
0.8
0.6
0.4
0.2
0

0.1

0.2

0.3

0.4
0.5
0.6
Probabilidad

0.7

0.8

0.9

3. Grafique el comportamiento de la capacidad de canal = max([; ]) para un


canal binario simtrico, tal que la entrada tiene probabilidades 1 = y 2 = 1 .
Tenemos que para un canal binario simtrico, se cumple el siguiente diagrama de ramas:

x1

y1

x2

y2

Donde la entrada y salida tienen las siguientes probabilidades:


(1 ) =
(1 ) = 1
(1 ) =
(1 ) = 1
Adems se cumple las siguientes probabilidades condicionales:
(1 |1 ) =
(1 |2 ) = = 1
(2 |1 ) = = 1
(2 |2 ) =
Por lo tanto se pueden definir las siguientes probabilidades conjuntas:
(1 , 1 ) = (1 |1 )(1 ) =
(1 , 2 ) = (2 |1 )(1 ) =
(2 , 1 ) = (1 |2 )(2 ) = (1 )
(2 , 2 ) = (2 |2 )(2 ) = (1 )
Luego por definicin de transinformacin:
(; ) = () (|)
Por definicin:

(|) = ( , ) log 2 ( | )
=1 =1

(|) = [(1 , 1 ) log 2 (1 |1 ) + (1 , 2 ) log 2 (2 |1 ) + (2 , 1 ) log 2 (1 |2 )


+ (2 , 2 ) log 2 (2 |2 )]
(|) = [ log 2() + 2 () + (1 ) 2 (q) + (1 ) 2 ()]
(|) = [ 2 () + 2 ()]

Por otra parte, por definicin tambin se tiene que:

() = ( ) log 2 ( )
=1

() = log 2 (1 ) log 2 (1 )
Finalmente, la capacidad de un canal se define como:
= max[(; )]
= max[ log 2 (1 ) log 2 (1 )] + 2 () + 2 ()
Luego se llev lo anterior a matlab, y se cre el siguiente cdigo para la simulacin.
%Capacidad canal binario simetrico.
%Probabilidad de cada elemento.
p=0:0.001:1;
q=1-p;
%Maximo valor de H(y)
maxHy=max(-p.*log2(p)-(1-p).*log2(1-p));
maxIxy=maxHy+p.*log2(p)+q.*log2(q);
%Grafico Capacidad vs p
figure(3)
plot(p, maxIxy)
xlabel('Probabilidad')
ylabel('Capacidad de canal')
title('Capacidad de canal binario simtrico')

Y se gener el siguiente grfico:


Capacidad de canal binario simtrico
1
0.9
0.8

Capacidad de canal

0.7
0.6
0.5
0.4
0.3
0.2
0.1
0

0.1

0.2

0.3

0.4
0.5
0.6
Probabilidad

0.7

0.8

0.9

You might also like