Professional Documents
Culture Documents
Respuesta: En clase vimos una cota inferior para la longitud esperada de los mensajes usando
la entropía media:
H(A) ≤ L(C)
Por tanto, calculando la entropía media del .Alfabeto"de que disponemos podemos estimar la
longitud mínima:
X 1
H(A) = pi log2 ( )
pi
En este caso se obtiene:
H(A) = 2
Por lo tanto, la longitud esperada del mensaje será de 2 bits.
1.4// If a six-sided fair die is cast, 1/ what is the mutual information between the top and
bottom sides of the die? And 2/ what is the mutual information between the top side and the front
face?
1
I(X : Y ) = log2 6 = 0,4308271
6
Para la segunda parte es necesario percatarse de que, dado un número fijo en la parte superior,
1
en el lateral hay cuatro posibilidades, por tanto H(X|Y ) = 6·4 log2 (6 · 4).
1.5// A discrete memoryless source emits binary digits with probabilities p(0) = 0.99, p(1) =
0.01. Messages of length N = 250 are given a binary code whenever they contain 10 or fewer 1s.
Suppose that all these binary codewords are the same length l. 1/ What is the minimal length l
1
Información y computación cuántica Pedro Gallego Franco
necessary to provide different codewords to different messages of length N = 250 with 10 or fewer
1s? 2/ What is the probability p for the source to emit a message of length 250 with no assigned
codeword?
Respuesta:
Para calcular la primera parte, es necesario conocer cuantas posibilidades hay de que haya 10
1‘s en 250 bits, 9 1´s... Para calcularlo basta con pensar en algún símil más sencillo, usando la
combinatoria. Por tanto si pensamos en 10 bolas blancas y 240 negras, y vamos colocando bola a
bola, la primera bola blanca tendrá 250 posibilidades. La segunda tendrá 249. Sin embargo, puesto
que no nos importa el orden, hay que dividir entre dos. Siguiente este razonamiento llegamos a que
colocando n 1´s en una cadena de 250 huecos tenemos las siguiente posibilidades:
250!
Cn =
(250 − n)!n!
Puesto que conocemos las posibilidades, el número de bits necesario será el logaritmo de esa
cantidad:
n=10
X
N = log2 ( )Cn ≈ 58
n=0
Por lo que podremos enviar mensajes con una longitud de 58 bits, sin pérdida de información,
mientras el código contenta solo diez o menos unos.
La probabilidad de error será la probabilidad de que salgan más de 10 unos, y puesto que el uno
está tan suprimido (p(1)=0.01), será aproximadamente la probabilidad de que salgan 11 unos (al
menos en orden de magnitud). Usando la distribución binomial es sencillo calcular esa probabildad:
P
1.6//Let the random variable Spanish = {?, A, B, C, ..., X, Y, Z} have the probability dis-
tribution contained in the following array (View Problem Sheet).
P
1/ Find a binary Huffman code for Spanish and its expected length. 2/ Apply this code to the
plain message MAS-OBRAN-QUINTAESENCIAS-QUE-FARRAGOS. 3/ Uncode the binary string
of catenated Huffman codewords
0111101011100101000011110110010001110110100010
1111100110001001000000101001000001110101011101
1100010101100101010000100100
Respuesta:
2
Información y computación cuántica Pedro Gallego Franco
Puesto que conocemos las frecuencias de aparición de cada letra lo único que hay que hacer es
utilizar el algoritmo visto en clase para crear el código. Puesto que son 28 letras, hay mucho cálculo
intermedio (Ver Hoja excel añadida), pero resumiendo llegamos al siguiente resultado:
11011101011000000110100011100101011100011010000101111101110
10111011000110100011101010111110101100001101000010110000001
00101010111001100101010010000110110
0111101011100101000011110110010001110110100010
1111100110001001000000101001000001110101011101
1100010101100101010000100100
Obteniendo: NANU_NAEENSETLSDE_CXANN_ASCEDE
Respuesta: Se define la distribución de probabilidad óptima como aquella para la cual se alcanza
el supremo de las informaciones mutuas. Puesto que el supremo siempre se alcanza, simplemente
debemos encontrar el máximo:
3
Información y computación cuántica Pedro Gallego Franco
X 1 X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( )− P (x)P (y|x)log2( ))
y
PY xy
P (y|x)
Puesto que la salida consta de dos elementos, el máximo se alcanzará, como vimos en clase, para
la distribución uniforme con probabilidades 0.5 para cada elemento. Pero no hay que maximizar
respecto a la distribución de salida, sino respecto a la de entrada, y puesto que son tres elementos
tenemos infinitas maneras de obtener una distribución uniforme a la salida. En otras palabras, si el
primer elemento de la entrada, con probabilidad 0.5 va a la primera salida, hay infinitas posibilidades
para las otras dos probabilidades de manera que sumen 0.5 para el segundo elemento de la salida,
y así, maximizar esa cantidad.
X 1 X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( )− P (x)P (y|x)log2( ))
y
PY xy
P (y|x)
Puesto que conocemos los elementos P(y|x), ya que son los elementos de la matriz del canal,
llegamos a:
X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( ) − Px (1) − Px (2) − Px (3) − Px (4))
y
P Y
Puesto que, para cualquier distribución de probabilidad para X tenemos que la suma de todas
las probabilidades es uno tenemos:
4
Información y computación cuántica Pedro Gallego Franco
X 1
C(Q) := supPX I(X : Y ) = supPX ( PY log2( ) − 1)
y
PY
Puesto que conocemos el máximo de la entropía media, y puesto que sabemos que el supremo
se alcanza en este caso, y no es otro que el máximo, tenemos que:
1.8// Consider the linear code [n = 15,k = 11]q=2 with rate 11/15, given by binary Hamming
code H2(4), with parity-check matrix
0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
H=
0
1 1 0 0 1 1 0 0 1 1 0 0 1 1
1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
and generating matrix
1 1 0 1 0 0 0 1 0 0 0 0 0 0 1
0 1 0 1 0 0 0 1 0 0 0 0 0 1 0
1 0 0 1 0 0 0 1 0 0 0 0 1 0 0
0 0 0 1 0 0 0 1 0 0 0 1 0 0 0
1 1 0 0 0 0 0 1 0 0 1 0 0 0 0
G= 0 1 0 0 0 0 0 1 0 1 0 0 0 0 0
1 0 0 0 0 0 0 1 1 0 0 0 0 0 0
1 1 0 1 0 0 1 0 0 0 0 0 0 0 0
0 1 0 1 0 1 0 0 0 0 0 0 0 0 0
1 0 0 1 1 0 0 0 0 0 0 0 0 0 0
1 1 1 0 0 0 0 0 0 0 0 0 0 0 0
The rows of G are orthogonal to the rows of H and span the subspace of codewords.
1/ Encode with this Hamming code H2(4) the message pb consisting of the binary expression
of the prime integer
P = 2308573719349571952761821755628171
prepended with a suitable number of 0s for the total number of binary digits to be an exact
multiple of k.
5
Información y computación cuántica Pedro Gallego Franco
2/ The binary expression of a certain integer N is encoded with H2(4) and it is received as the
binary string
r = 101001111000000111100111110010011101011010101
where each codeword may have one bit corrupted. Clean the received message r, decode it, and
find N.
Respuesta: Lo primero es pasar a binario el número, usando cualquier aplicación para el uso.
El número en binario es el siguiente:
000000000011100011101001001001011111111110100101110011111010110110
0010011110110001110111010001000011110000101101010001011
Usando el mismo algoritmo visto en clase, solo que de mayor dimensión, dividimos el mensaje
en partes de 11 bits, y cada parte nos dirá de que manera sumar las filas de la matriz G. Así las
partes son:
e1 = 00000000001
e2 = 11000111010
e3 = 01001001011
e4 = 11111111010
e5 = 01011100111
e6 = 11010110110
e7 = 00100111101
e8 = 10001110111
e9 = 01000100001
e10 = 11100001011
6
Información y computación cuántica Pedro Gallego Franco
e11 = 01010001011
Donde he añadido 10 ceros al principio para que se quedara múltiplo de 11. Por tanto, e1 nos
indica que solo hay que coger la columna 11, e2 la primera, segunda, sexta, septima, octava y décima
y así con el resto. Omitiendo la parte de cálculos, que al fin y al cabo son sumas, llegamos a:
e1 = 00000000001 → 111000000000000
e2 = 11000111010 → 000110101100011
e3 = 01001001011 → 001110100010010
e4 = 11111111010 → 010011111111111
e5 = 01011100111 → 111011000111010
e6 = 11010110110 → 100111011101011
e7 = 00100111101 → 001101111100100
e8 = 10001110111 → 111111001110001
e9 = 01000100001 → 111100000100010
e1 = 101001111000000
e2 = 111100111110010
e3 = 011101011010101
Al hacer la multiplicación obtenemos:
7
Información y computación cuántica Pedro Gallego Franco
He2 = (1, 1, 0, 1)
He3 = (1, 0, 1, 1)
Por tanto tenemos errores en el 2 bit de e1, el 13 de e2 y el 11 de e3. Corrigiendo esos bits
llegamos a :
e1 = 10111000000
e2 = 10011110110
e3 = 10101000101
Para decodificarlo basta con quitar los bits de corrección de errores (las potencias de 2: 1,2,4,8)
y darle la vuelta al número:
c1 = 00000011101
c2 = 01101111001
c3 = 10100010101
000000111010110111100110100010101 Que, pasado a decimal, es el siguiente número:
123456789
1.8// Let A be the following logic operator:
A : (x, y, z) → (x0 , y 0 )
where
x0 := x − z
y 0 := y(1 − x + xz)
Find a logical circuit involving at most the gates AND, NOT, OR, COPY which implements A.
Respuesta: Antes de realizar el circuito es conveniente ver como implementar la resta lógica.
Para ello calculo la tabla de la verdad para esa operación:
x y x-y Acarreo
0 0 0 0
0 1 1 1
1 0 1 0
1 1 0 0
8
Información y computación cuántica Pedro Gallego Franco
Como se aprecia, la tabla de la verdad para la salida es la misma que si hicieramos la operación:
xz + zx, y la parte del acarreo se puede implementar fácilmente usando una puerta NOT y una
AND. Como no podemos usar una puerta XOR va a resultar un poco más engorroso, puesto que para
suplirla usaré dos AND, dos NOT, y una OR. Para la primera parte (no dibujo las dos superpuestas
para no causar confusión):
Y para la segunda:
9
Información y computación cuántica Pedro Gallego Franco
Donde las salidas C1 y C2 son las correspondientes a los acarreos de las restas, por si fueran
necesarios para operaciones posteriores.
√
2.2/ Consider a particle of spin 1 , of which we know sz := <Sz>, sa :=< Sa := (Sz+ 3Sx)/2 >
. 1/ Find the most likely ρ. 2/ Somebody has provided you with the following data he has inferred
from a certain experiment: sz = 0.27, sa = 0.48. Comment.
Respuesta:
Puesto que podemos tomar como base de matrices 2x2 las matrices de Pauli, junto con la
identidad, tendremos que, en general:
1
ρ = (I + aσz + bσx + cσy )
2
Que además es autoadjunto trivialmente. Lo único que falta comprobar es que es positivo, pero
la diagonalización de ese estado es sencilla, obteniendo:
λ=1±∆
10
Información y computación cuántica Pedro Gallego Franco
Con ∆ = a2 + b2 + c2 . Por tanto, cuando ∆=1 tendremos un estado puro, y cuanto más pequeño
sea más alejado de la puricidad estará. De alguna manera, este ∆ es un indicador del desconocimiento
del estado.
Por otro lado, si calculamos los valores esperados de las matrices de Pauli obtenemos:
< σz >= a
Para el resto de casos, usando los mismo cálculos, se obtiene:
< σx >= b
< σy >= c
Volviendo al ejercicio propuesto, conocemos < σz > y < σa >, pero por linealidad en el valor
esperado (o lo que es lo mismo, en la traza) tenemos que:
1
< σx >= (2 < σa > − < σz >) √
3
Por lo que conocemos los valores esperados, es decir, conocemos a y b. ¿Cuál sería un valor
óptimo esperado para c? Puesto que desconocemos su valor, y nos pregunta por el estado más
posible, será aquel que maximice la entropía, o lo que es lo mismo, el que minimice ∆. Por lo tanto
el valor más probable para c será 0. Obteniendo como estado mas probable:
1
ρ = (I + aσz + bσx )
2
a =< σz >
1
b =< σx >= (2 < σa > − < σz >) √
3
Particularizando para el caso del enunciado:
1
ρ = (I + 0,27σz + 0,398σx )
2
Este sería el estado más probable compatible con esas medidas.
11
Información y computación cuántica Pedro Gallego Franco
2.2/ Given a positive and non-idempotent operator 0 ≤ E ≤ 1, prove that there is no ortho-
gonal projection P such that < P >ψ =< E >ψ for any state vector ψ. Consequently, the class of
generalized measurements is a nontrivial extension of the class of projective measurements.
N
X
E= ai |i >< i|
i=1
N
X
E2 = a2i |i >< i|
i=1
Y puesto que E 6= E 2 por hipótesis, tenemos que ai 6= a2i ∀i = 1...N . Esto nos viene a decir
que ninguno de ellos vale 1 o 0, por lo que tendremos que E no podrá ser en ningún caso un único
proyector (cosa que ya sabíamos por no ser idempotente), al menos tendrá que ser la suma de dos
proyectores.
Supongamos ese caso sencillo en que es la suma de dos proyectores:
E = a1 |1 >< 1| + a2 |2 >< 2|
Y supongamos el proyector P = |1 >< 1|. Sea el estado ψ, por ejemplo, |1 > . Tendremos que:
< E >ψ = a1 6= 1
< P >ψ = 1
Y como vemos, hemos encontrado un ψ para el cual no se cumple la igualdad, por lo que, en
general, no podremos decir que < P >ψ =< E >ψ
12