Professional Documents
Culture Documents
Philippe Ciblat
Introduction
Objectif
Transmettre le maximum de données (débit %) avec une fiabilité
maximale (probabilité d’erreur &) sous
des limites théoriques (Shannon)
des contraintes physiques (propagation)
des contraintes économiques (énergie et complexité)
Système analogique
x (t) = f (s(t))
Avantages
faible complexité du modem
Inconvénients
pas adapté aux transmissions de données numériques
accès multiple temporel délicat
performances/qualité de réception mauvaises
traitement de l’information délicate
Introduction
Schéma basique d’un système de communication (sans mémoire) :
Paradigme de Shannon (1948)
S X Canal Y Ŝ
Source Encodeur Décodeur Destinataire
0
Source discrète : S ∈ AN
A : alphabet
L = card(A) : taille de l’alphabet
exemple : A = {1, · · · , L}.
Notion d’information
Idée
l’information reçue est « quelque chose » d’émis que le récepteur ne
pouvait connaître avant la transmission
Entropie (discrète)
Soit X une variable aléatoire discrète scalaire prenant les valeurs
dans {x1 , · · · , xM }. On note pm = P(X = xm ).
L’information contenue dans la v.a. X , nommée entropie, est la
moyenne de celle présente dans chaque événement
Entropie
M
X
H(X ) = Ex [I(X = x )] = − pm log2 (pm )
m=1
Exemples
0.9
0.8
0.7
Entropie (bits/symbol)
0.6
0.5
0.4
0.3
0.2
0.1
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Probabilite p
H(X ) = 1, 75
Autres entropies
X X
H(X1 , · · · , Xn ) = − ··· p(x1 , · · · , xn ) log2 (p(x1 , · · · , xn ))
x1 ∈A1 xn ∈An
X
H(Y |X ) = −EX [ p(y |x ) log2 (p(y |x ))]
y ∈Ay
X X
= − p(x , y ) log2 (p(y |x ))
x∈Ax y ∈Ay
Information mutuelle
H(X, Y )
H(X|Y )
H(Y |X)
I(X; Y )
H(Y )
H(X) .
Exemple :
Si Y = X , alors I(X , Y ) = H(X )
Si Y et X ind., alors I(X , Y ) = 0
Séquence typique
Soit X = [X1 , · · · XN ] un vecteur de variables aléatoires/séquence
aléatoire i.i.d. d’entropie H(X ).
Théorème
Quand N → ∞, il y a approximativement 2NH(X ) valeurs probables de
X sur les M N possibles.
p!(N − p)!
Théorème de la compression
Théorème
Si le nombre de bits par symbole utilisé pour représenter la
source est inférieur à H(X ), il y a nécessairement perte
d’information (théorie de la distorsion).
Dans le contrainte, une compression sans perte est
théoriquement réalisable.
Définition
La capacité d’un canal est égal au nombre maximal de bits
d’information par utilisation de canal offrant une communication fiable
(sans erreur).
Définition mathématique
Soit C la capacité d’un canal, alors
C = max I(X , Y )
p(X )
Théorème de la capacité
Il existe un codage de taux d’information T et de longueur N tel que
T < C pour lequel
lim Pe = 0
N→∞
p
p
’1’ ’1’
1−p .
C = 1 − H(p)
1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
Capacite
Capacite
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 1 2 3 4 5 6 7 8 9 10
p Eb/N0 (en dB)
’1’ ’1’
1−p .
C = 1−p
Capacité nulle si p = 1
Il existe un « code » permettant une transmission fiable dès que
p 6= 1
Canal gaussien :
y =x +b
avec b un bruit gaussien
Comme Ec = T × Eb et T < C,
T →0
Eb /N0 ≥ (22T − 1)/(2T ) ≥ ln(2) (−1.6dB)
6
Capacite (bits/s/Hz)
0
-5 0 5 10 15 20 25 30 35 40 45
Eb/N0 (en dB)
.
x(t)
S X
Encodeur Mise en forme
.
1
≥B
Te
Dans le cas contraire, il y a perte d’information
On considère
y (t) = x (t) + b(t)
avec une bande de largeur B.
On émet à une puissance fixe P.
Encodeur
Canal
Physique
Décodeur
Questions ?
Comment obtient-on la source discrète (binaire) S
Que mettre dans les boitiers « codage de canal »,
« modulation » et « mise en forme »
Philippe Ciblat Introduction aux communications numériques 21 / 37
Introduction Théorie de l’information Conception d’un système
Signal source
Dans le cas d’une source analogique
Echantillonnage (théorème de Nyquist-Shannon)
Quantification (perte d’information)
Exemple
Considérons un signal de parole
bande de [20Hz, 20kHz]
dynamique très large
Quelques systèmes
Codage de canal
Objectif
Rajouter de la redondance pour corriger les erreurs
Modulation (I)
Train de symboles
X
x (t) = sk g(t − kTs ) avec sk ∈ {−A, A}
k
Modulation (II)
Exemple
g(t) est une fonction porte de durée Ts
.
Ts
−A 0 1 1 0 0 1 0 1 0 0 .
Remarque
Modulation binaire admet une efficacité spectrale de 1bit/s/Hz
maximum
Modulation M-aire : un symbole contient plusieus éléments
binaires.
Exemple : M = 4.
0
000 7→ A 0
010 7→ −A 0
100 7→ 3A 0
110 7→ −3A
Modulation (III)
" "
#
< < 8 8
= 9 9
" "
#
< < 8 8
= 9 9
, , * *
- + +
, , * *
- + +
2 6
3 7
2 6
3 7
$ $
! ! % %
$ $
! ! % %
4 4
5 5
4 4
5 5
0 0
. .
( / / 0 0
)
. .
/ /
(
)
> :
? ;
> & :
? ' ;
&
'
P P
Q SR SR UT UT V WV
P P
Q S S U U W
J J
H H @ @ F F
I A A G G J KJ
H H @ @ F F
I A A G G K
D D
B B L L
C C ED ED M
N
O
B B L L
C C E E M
N
O
^ ^ \ \ Z Z X X
_ ] ] [ [ Y
^ ^ \ \ Z Z X X
_ ] ] [ [ Y
P
z(t) = k sk g̃(t − kTs ) + b(t) avec g̃(t) = g(t) ? g(−t)∗
P
z(n) = k sk g̃(n − k ) + b(n) avec g̃(n − k ) = g̃(nTs − kTs )
Filtre de Nyquist
Un filtre de Nyquist t 7→ h(t) est défini comme suit
h(nTs ) = δn,0
Détecteur à seuil
Propriété
Le détecteur optimal, c’est-à-dire celui qui minimise la probabilité
d’erreur, cherche le point de la constellation le plus proche de z(n) au
sens de la norme euclidienne.
Exemple : MAQ-16
.
Efficacité spectrale
Taux d’information T : nombre de bits utiles par utilisation de
canal (s’exprime en Shannon)
T = R ∗ log2 (M)
Performance (I)
Constellation Performance
MDA f = 6 log2 (M)/(M 2 − 1)
MDP f = log2 (M)(1 − cos( 2π
M ))
MAQ f = 3 log2 (M)/(M − 1)
Remarque
MAQ > MDP > MDA
Performance (II)
Taux Erreur Symbole en fonction du Eb/No Taux Erreur Symbole en fonction du Eb/No
1 1
MDP-2 MDP-2
MDP-4 MAQ-16
MDP-8 MDP-16
MDP-16 MDA-16
0.1 0.1
Taux Erreur Symbole
0.001 0.001
0.0001 0.0001
1e-05 1e-05
0 5 10 15 20 0 5 10 15 20
Eb/No (en dB) Eb/No (en dB)
Bande Puissance
(physique) (CEM, Batterie)
Modulation et Codage
Débit symbole
Traitement du Signal
Exemple : le GSM
Accès multiple :
AMRF (125 canaux de 200kHz)
AMRT (8 utilisateurs par sous-canal)
1 utilisateur ≡ 25kHz et 1000 utilisateurs par station
.
Db = 270kbits/s
pour 8 utilisateurs Algorithme de Viterbi
Séquence
d’apprentissage
13kbits/s
10−2 → 10−3
par utilisateur
.
Comparaison théorie/pratique
6
Efficacité spectrale (bit/s/Hz)
5
on
nn
4 ha
eS
it ed DVBT (MAQ64,R=2/3)
3 lim
2
1
GSM
DAB (MDP4,R=1/2)
5 10 15 20 25 30
RSB (dB)
Turbocodes
Code convolutif .
Conclusion
(ρ1, τ1)
(ρ0, τ0)
(ρ2, τ2)
X
y (t) = ρk x (t − τk ) + b(t) = c(t) ? x (t) + b(t)
k