You are on page 1of 13

Información y computación cuántica

Pedro Gallego Franco


Información y computación cuántica Pedro Gallego Franco

1.2//Nine cars participate in a car race. Their winning probabilities are:

X = (1/2, 1/22 , 1/23 , 1/24 , 1/25 , 1/27 , 1/27 , 1/27 , 1/27 )


If you wish to send a message with just a binary string indicating which car won the race, what
is the shortest expected length of the message?

Respuesta: En clase vimos una cota inferior para la longitud esperada de los mensajes usando
la entropía media:

H(A) ≤ L(C)
Por tanto, calculando la entropía media del .Alfabeto"de que disponemos podemos estimar la
longitud mínima:
X 1
H(A) = pi log2 ( )
pi
En este caso se obtiene:

H(A) = 2
Por lo tanto, la longitud esperada del mensaje será de 2 bits.

1.4// If a six-sided fair die is cast, 1/ what is the mutual information between the top and
bottom sides of the die? And 2/ what is the mutual information between the top side and the front
face?

Respuesta: La definición de información mutua es:

I(X : Y ) = H(X) − H(X|Y ) = H(Y ) − H(Y |X)


Por tanto, puesto que la probabilidad de sacar un número cualquiera es de 1/6 y que al fijar el
número de la cara superior queda fijado el de la inferior ( es decir, H(X|Y ) = 1/6) obtenemos para
la primera pregunta el siguiente resultado:

1
I(X : Y ) = log2 6 = 0,4308271
6
Para la segunda parte es necesario percatarse de que, dado un número fijo en la parte superior,
1
en el lateral hay cuatro posibilidades, por tanto H(X|Y ) = 6·4 log2 (6 · 4).

1.5// A discrete memoryless source emits binary digits with probabilities p(0) = 0.99, p(1) =
0.01. Messages of length N = 250 are given a binary code whenever they contain 10 or fewer 1s.
Suppose that all these binary codewords are the same length l. 1/ What is the minimal length l

1
Información y computación cuántica Pedro Gallego Franco

necessary to provide different codewords to different messages of length N = 250 with 10 or fewer
1s? 2/ What is the probability p for the source to emit a message of length 250 with no assigned
codeword?

Respuesta:
Para calcular la primera parte, es necesario conocer cuantas posibilidades hay de que haya 10
1‘s en 250 bits, 9 1´s... Para calcularlo basta con pensar en algún símil más sencillo, usando la
combinatoria. Por tanto si pensamos en 10 bolas blancas y 240 negras, y vamos colocando bola a
bola, la primera bola blanca tendrá 250 posibilidades. La segunda tendrá 249. Sin embargo, puesto
que no nos importa el orden, hay que dividir entre dos. Siguiente este razonamiento llegamos a que
colocando n 1´s en una cadena de 250 huecos tenemos las siguiente posibilidades:

250!
Cn =
(250 − n)!n!
Puesto que conocemos las posibilidades, el número de bits necesario será el logaritmo de esa
cantidad:

n=10
X
N = log2 ( )Cn ≈ 58
n=0

Por lo que podremos enviar mensajes con una longitud de 58 bits, sin pérdida de información,
mientras el código contenta solo diez o menos unos.
La probabilidad de error será la probabilidad de que salgan más de 10 unos, y puesto que el uno
está tan suprimido (p(1)=0.01), será aproximadamente la probabilidad de que salgan 11 unos (al
menos en orden de magnitud). Usando la distribución binomial es sencillo calcular esa probabildad:

perror = C10 (0,01)11 (0,99)239 + C11 ... ≈ 5 · 10−5


Con lo que la probabilidad es pequeña, pero si se generan muchos bits puede llegar a ser consi-
derable el error cometido.

P
1.6//Let the random variable Spanish = {?, A, B, C, ..., X, Y, Z} have the probability dis-
tribution contained in the following array (View Problem Sheet).
P
1/ Find a binary Huffman code for Spanish and its expected length. 2/ Apply this code to the
plain message MAS-OBRAN-QUINTAESENCIAS-QUE-FARRAGOS. 3/ Uncode the binary string
of catenated Huffman codewords

0111101011100101000011110110010001110110100010
1111100110001001000000101001000001110101011101
1100010101100101010000100100

Respuesta:

2
Información y computación cuántica Pedro Gallego Franco

Puesto que conocemos las frecuencias de aparición de cada letra lo único que hay que hacer es
utilizar el algoritmo visto en clase para crear el código. Puesto que son 28 letras, hay mucho cálculo
intermedio (Ver Hoja excel añadida), pero resumiendo llegamos al siguiente resultado:

Letra Código Letra Código


- 000 B 010001
E 100 P 010011
A 101 Q 110100
O 0011 Y 110101
S 0110 H 0100001
N 0111 G 0100100
R 1100 V 01000000
L 1110 F 01001010
I 1111 J 01001011
D 00100 Z 010000010
U 00101 Ñ 0100000110
C 01010 X 01000001110
T 01011 K 010000011110
M 11011 W 010000011111

Usando este código para codificar la frase MAS-OBRAN-QUINTAESENCIAS-QUE-FARRAGOS


obtenemos:

11011101011000000110100011100101011100011010000101111101110
10111011000110100011101010111110101100001101000010110000001
00101010111001100101010010000110110

Y puesto que es un código prefijo, es muy fácil descodificar el mensaje:

0111101011100101000011110110010001110110100010
1111100110001001000000101001000001110101011101
1100010101100101010000100100

Obteniendo: NANU_NAEENSETLSDE_CXANN_ASCEDE

1.7// Consider a channel with channel matrix:


 
1 0 0
0 1 1
Prove that for this channel there are infinitely many optimal input probability distributions.

Respuesta: Se define la distribución de probabilidad óptima como aquella para la cual se alcanza
el supremo de las informaciones mutuas. Puesto que el supremo siempre se alcanza, simplemente
debemos encontrar el máximo:

3
Información y computación cuántica Pedro Gallego Franco

X 1 X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( )− P (x)P (y|x)log2( ))
y
PY xy
P (y|x)

Puesto que P(y|x) lo conocemos de la matriz del canal, obtenemos:


X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( ))
y
PY

Puesto que la salida consta de dos elementos, el máximo se alcanzará, como vimos en clase, para
la distribución uniforme con probabilidades 0.5 para cada elemento. Pero no hay que maximizar
respecto a la distribución de salida, sino respecto a la de entrada, y puesto que son tres elementos
tenemos infinitas maneras de obtener una distribución uniforme a la salida. En otras palabras, si el
primer elemento de la entrada, con probabilidad 0.5 va a la primera salida, hay infinitas posibilidades
para las otras dos probabilidades de manera que sumen 0.5 para el segundo elemento de la salida,
y así, maximizar esa cantidad.

1.8// Consider the following noisy four-symbol channel:


 
1/2 0 0 1/2
 1/2 1/2 0 0 
 
 0 1/2 1/2 0 
0 0 1/2 1/2
which either lets each symbol go through unchanged with probability 1/2 or changes it with the
same probability to the next symbol. It is clear that if we use only the symbols 1 and 3, the output
allows to identify the input without ambiguity. Thus this channel can be used as a noiseless channel
which transmits a bit per use. Its operational capacity is thus 1. Show, in fact, that its information
capacity is also C(Q) = 1.

Respuesta: Aplicando la definición de capacidad del canal:

X 1 X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( )− P (x)P (y|x)log2( ))
y
PY xy
P (y|x)

Puesto que conocemos los elementos P(y|x), ya que son los elementos de la matriz del canal,
llegamos a:

X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( ) − Px (1) − Px (2) − Px (3) − Px (4))
y
P Y

Puesto que, para cualquier distribución de probabilidad para X tenemos que la suma de todas
las probabilidades es uno tenemos:

4
Información y computación cuántica Pedro Gallego Franco

X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( ) − 1)
y
PY

Puesto que conocemos el máximo de la entropía media, y puesto que sabemos que el supremo
se alcanza en este caso, y no es otro que el máximo, tenemos que:

C(Q) := supPX I(X : Y ) = log2|X| − 1


Como la entrada tiene 4 elementos, tenemos que:

C(Q) := supPX I(X : Y ) = log2|X| − 1 = 1


Por lo que llegamos a que la capacidad operativa es la misma que la capacidad del canal,
resultado que por otro lado nos confirmaba el teorema de Shanon.

1.8// Consider the linear code [n = 15,k = 11]q=2 with rate 11/15, given by binary Hamming
code H2(4), with parity-check matrix
 
0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 
H=
 0

1 1 0 0 1 1 0 0 1 1 0 0 1 1 
1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
and generating matrix
 
1 1 0 1 0 0 0 1 0 0 0 0 0 0 1

 0 1 0 1 0 0 0 1 0 0 0 0 0 1 0 


 1 0 0 1 0 0 0 1 0 0 0 0 1 0 0 


 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 

1 1 0 0 0 0 0 1 0 0 1 0 0 0 0
 
 
G= 0 1 0 0 0 0 0 1 0 1 0 0 0 0 0
 

1 0 0 0 0 0 0 1 1 0 0 0 0 0 0
 
 
1 1 0 1 0 0 1 0 0 0 0 0 0 0 0
 
 
 
 0 1 0 1 0 1 0 0 0 0 0 0 0 0 0 
 
 1 0 0 1 1 0 0 0 0 0 0 0 0 0 0 
1 1 1 0 0 0 0 0 0 0 0 0 0 0 0
The rows of G are orthogonal to the rows of H and span the subspace of codewords.
1/ Encode with this Hamming code H2(4) the message pb consisting of the binary expression
of the prime integer

P = 2308573719349571952761821755628171
prepended with a suitable number of 0s for the total number of binary digits to be an exact
multiple of k.

5
Información y computación cuántica Pedro Gallego Franco

2/ The binary expression of a certain integer N is encoded with H2(4) and it is received as the
binary string

r = 101001111000000111100111110010011101011010101
where each codeword may have one bit corrupted. Clean the received message r, decode it, and
find N.

Respuesta: Lo primero es pasar a binario el número, usando cualquier aplicación para el uso.
El número en binario es el siguiente:

000000000011100011101001001001011111111110100101110011111010110110

0010011110110001110111010001000011110000101101010001011
Usando el mismo algoritmo visto en clase, solo que de mayor dimensión, dividimos el mensaje
en partes de 11 bits, y cada parte nos dirá de que manera sumar las filas de la matriz G. Así las
partes son:

e1 = 00000000001

e2 = 11000111010

e3 = 01001001011

e4 = 11111111010

e5 = 01011100111

e6 = 11010110110

e7 = 00100111101

e8 = 10001110111

e9 = 01000100001

e10 = 11100001011

6
Información y computación cuántica Pedro Gallego Franco

e11 = 01010001011
Donde he añadido 10 ceros al principio para que se quedara múltiplo de 11. Por tanto, e1 nos
indica que solo hay que coger la columna 11, e2 la primera, segunda, sexta, septima, octava y décima
y así con el resto. Omitiendo la parte de cálculos, que al fin y al cabo son sumas, llegamos a:

e1 = 00000000001 → 111000000000000

e2 = 11000111010 → 000110101100011

e3 = 01001001011 → 001110100010010

e4 = 11111111010 → 010011111111111

e5 = 01011100111 → 111011000111010

e6 = 11010110110 → 100111011101011

e7 = 00100111101 → 001101111100100

e8 = 10001110111 → 111111001110001

e9 = 01000100001 → 111100000100010

e10 = 11100001011 → 101110110000111

e11 = 01010001011 → 111010100001010


Obtenido de mensaje codificado esa matriz, solo que ahora en vez de tener 11x11, tiene 15x11.
Para comprobar el apartado dos, basta con dividir el mensaje en partes de 15 y multiplicarlas
por H. El resultado, si es distinto de cero, nos indicará que bit está corrupto:

e1 = 101001111000000
e2 = 111100111110010
e3 = 011101011010101
Al hacer la multiplicación obtenemos:

He1 = (0, 01, 0)

7
Información y computación cuántica Pedro Gallego Franco

He2 = (1, 1, 0, 1)

He3 = (1, 0, 1, 1)
Por tanto tenemos errores en el 2 bit de e1, el 13 de e2 y el 11 de e3. Corrigiendo esos bits
llegamos a :

e1 = 10111000000
e2 = 10011110110
e3 = 10101000101
Para decodificarlo basta con quitar los bits de corrección de errores (las potencias de 2: 1,2,4,8)
y darle la vuelta al número:

c1 = 00000011101
c2 = 01101111001
c3 = 10100010101
000000111010110111100110100010101 Que, pasado a decimal, es el siguiente número:

123456789
1.8// Let A be the following logic operator:

A : (x, y, z) → (x0 , y 0 )
where

x0 := x − z

y 0 := y(1 − x + xz)
Find a logical circuit involving at most the gates AND, NOT, OR, COPY which implements A.

Respuesta: Antes de realizar el circuito es conveniente ver como implementar la resta lógica.
Para ello calculo la tabla de la verdad para esa operación:

x y x-y Acarreo
0 0 0 0
0 1 1 1
1 0 1 0
1 1 0 0

8
Información y computación cuántica Pedro Gallego Franco

Como se aprecia, la tabla de la verdad para la salida es la misma que si hicieramos la operación:
xz + zx, y la parte del acarreo se puede implementar fácilmente usando una puerta NOT y una
AND. Como no podemos usar una puerta XOR va a resultar un poco más engorroso, puesto que para
suplirla usaré dos AND, dos NOT, y una OR. Para la primera parte (no dibujo las dos superpuestas
para no causar confusión):

Y para la segunda:

9
Información y computación cuántica Pedro Gallego Franco

Donde las salidas C1 y C2 son las correspondientes a los acarreos de las restas, por si fueran
necesarios para operaciones posteriores.


2.2/ Consider a particle of spin 1 , of which we know sz := <Sz>, sa :=< Sa := (Sz+ 3Sx)/2 >
. 1/ Find the most likely ρ. 2/ Somebody has provided you with the following data he has inferred
from a certain experiment: sz = 0.27, sa = 0.48. Comment.

Respuesta:
Puesto que podemos tomar como base de matrices 2x2 las matrices de Pauli, junto con la
identidad, tendremos que, en general:

ρ = dI + aσz + bσx + cσy


Pero, puesto que es una matriz densidad, su traza deberá ser 1, por lo que obtenemos, renom-
brando constantes podemos obtener:

1
ρ = (I + aσz + bσx + cσy )
2
Que además es autoadjunto trivialmente. Lo único que falta comprobar es que es positivo, pero
la diagonalización de ese estado es sencilla, obteniendo:

λ=1±∆

10
Información y computación cuántica Pedro Gallego Franco

Con ∆ = a2 + b2 + c2 . Por tanto, cuando ∆=1 tendremos un estado puro, y cuanto más pequeño
sea más alejado de la puricidad estará. De alguna manera, este ∆ es un indicador del desconocimiento
del estado.
Por otro lado, si calculamos los valores esperados de las matrices de Pauli obtenemos:

< σz >= tr(ρσz ) = tr(dI + aσz2 + bσx σz + cσy σz )


Y puesto que la única de traza no nula es σz2 tenemos que:

< σz >= a
Para el resto de casos, usando los mismo cálculos, se obtiene:

< σx >= b

< σy >= c
Volviendo al ejercicio propuesto, conocemos < σz > y < σa >, pero por linealidad en el valor
esperado (o lo que es lo mismo, en la traza) tenemos que:

1
< σx >= (2 < σa > − < σz >) √
3
Por lo que conocemos los valores esperados, es decir, conocemos a y b. ¿Cuál sería un valor
óptimo esperado para c? Puesto que desconocemos su valor, y nos pregunta por el estado más
posible, será aquel que maximice la entropía, o lo que es lo mismo, el que minimice ∆. Por lo tanto
el valor más probable para c será 0. Obteniendo como estado mas probable:

1
ρ = (I + aσz + bσx )
2

a =< σz >

1
b =< σx >= (2 < σa > − < σz >) √
3
Particularizando para el caso del enunciado:

a =< σz >= 0,27

b =< σx >= 0,398

1
ρ = (I + 0,27σz + 0,398σx )
2
Este sería el estado más probable compatible con esas medidas.

11
Información y computación cuántica Pedro Gallego Franco

2.2/ Given a positive and non-idempotent operator 0 ≤ E ≤ 1, prove that there is no ortho-
gonal projection P such that < P >ψ =< E >ψ for any state vector ψ. Consequently, the class of
generalized measurements is a nontrivial extension of the class of projective measurements.

Respuesta: Sea una base de autovectores de E: {|i >}N


i=1 , de tal forma que:

N
X
E= ai |i >< i|
i=1

Y el operador E2 tendrá una descomposición similar:

N
X
E2 = a2i |i >< i|
i=1

Y puesto que E 6= E 2 por hipótesis, tenemos que ai 6= a2i ∀i = 1...N . Esto nos viene a decir
que ninguno de ellos vale 1 o 0, por lo que tendremos que E no podrá ser en ningún caso un único
proyector (cosa que ya sabíamos por no ser idempotente), al menos tendrá que ser la suma de dos
proyectores.
Supongamos ese caso sencillo en que es la suma de dos proyectores:

E = a1 |1 >< 1| + a2 |2 >< 2|
Y supongamos el proyector P = |1 >< 1|. Sea el estado ψ, por ejemplo, |1 > . Tendremos que:

< E >ψ = a1 6= 1

< P >ψ = 1
Y como vemos, hemos encontrado un ψ para el cual no se cumple la igualdad, por lo que, en
general, no podremos decir que < P >ψ =< E >ψ

12

You might also like