Professional Documents
Culture Documents
et modulations
TCM
Kamel Belloulata
Introduction
Source
analogique
Source
numrique
chantillonnage
Quantification
Codage
Modulations
analogiques
Modulations
numriques
Modulations
chantillonnes
Codage
de canal
Codage
de source
Chiffrage
Canal de transmission
Thorie de linformation
Th. Signaux (GEI 600, GEI 605) : dcrit messages et perturbations
Th. Information (GEI 500) : propose une quantitative de l information et tudie sa
reprsentation, transmission
Modulation (GEI 500) : modifie les signaux pour les propager sur les canaux de
transmission (GEI 540, GEI 460)
lectronique (GEI 210, GEI 215, GEI 240) : ralise les fonctions
A. Techniques de codage
1. Entropie & Capacit ... D4
2. Codage de source . D22
3. Codage de canal . D40
4. Cryptographie . D72
B. Modulations analogiques & numriques
1. Modulations analogiques de signaux analogiques ... D105
2. Modulations chantillonnes D
3. Transmission d un signal numrique sur frquence porteuse . D
Plan
[1] G. Battail, "Thorie de l'information. Application aux techniques de
communication", Ed : Masson, Paris, 1997, 397 p.
[2] A. Spataru, "Fondements de la thorie de la transmission de l'information", Ed :
Presse Polytechnique Romande, Lausanne, 1987, 625 p.
[3] T.M. Cover, J.A. Thomas, "Information theory", Ed : Wiley Interscience, New
York, 1991, 542 p.
[4] G. Brassard, "Cryptologie contemporaine", Ed: Masson, 1993, 122 p.
[5] P. Csillag, "Introduction aux codes correcteur", Ed: Ellipses, 1990, 96p.
[6] P.Lecoy, "Technologies des tlcoms", Ed.: Hermes, 1995, 373 p
[7] Ph. Fraisse et al, "Transmission de l'information", Ed. Ellipses, 1999, 191 p
[8] http://www.multimania.com/xcotton/electron/coursetdocs.htm
De saines lectures
A.1 Entropie & Capacit
Thorie de l information
Les sources ...
Information & Entropie
Les canaux discrets
Transinformation & Capacit
Thorie de l information
Vue densemble dun systme de communication
indpendante des moyens techniques & physiques
1948 : Shannon
Thorie de l'information
Rflexion sur les techniques de communication (XIX)
- Mcanique, accoustique
- Ondes radio-lectrique
- Tlgraphe (code morse)
- Tlphone, .
Systme de communication = fonctions physiques ralisables
Mauvaise comprhension des perturbations, des dbits
GSM
TV Num
codage de source & canal
Rseaux
codage de canal
@business
cryptage
Ca ne sert rien !
1960 / conqute spatiale
codage de source
Aujourd'hui
Entropie
Capacit
Des messages diffrents portent la mme information, le codage
cherche le message avec les meilleures proprits.
Codage de source
supprime la redondance, rduit le cot
Codage de canal
protge contre les perturbations
Chiffrage
protge contre les curieux
Deux thormes fondamentaux :
Codage de source Codage de canal
Les sources ...
Sources dbitant des messages sous forme discrte !
Source discrte d'information : suite de variables alatoires
discrtes X
1
, X
2
, X
n
Mot : succession finie de symboles
Alphabet : totalit des D lettres
[X] = [x
1
,x
2
, ., x
D
]
Symbole ou lettre : lment fondamental irrductible
contenant une information, cad ralisation particulire de la
source d'information.
Message : ralisation particulire parmi
les donnes susceptibles d'tre transmises
Source discrte sans mmoire : source pour laquelle la
probabilit d'apparition d'un symbole ne dpend pas des
symboles prcdents
) ( ,...) , / (
2 1 n n n n
i i i i
x p x x x p
Source sationnaire : source pour laquelle les probabilits
d'apparition des diffrents symboles ne dpendent pas de
l'origine des temps
k x p x p
k n n
i i
+
) ( ) (
Source de Markov : source pour laquelle la probabilit de
gnrer un symbole ne dpend que du symbole l'instant n-1
) / ( ,...) , / (
1 2 1
n n n n n
i i i i i
x x p x x x p
Quantit d'information propre
Proprit de l'information = imprvisibilit
)
) (
1
( ) (
x p
f x h
2 evt. indpendants apportent la somme de leur quantit d'info
) ( ) ( )
) (
1
( )
) (
1
( )
) ( ). (
1
( )
) , (
1
( ) , ( y h x h
y p
f
x p
f
y p x p
f
y x p
f y x h + +
f
n
i
i
p
n
i
i i
n
i
i i
p p p p X h E X H
1 1
) log( . ) 1 log( . )) ( ( ) (
Quantit d'information moyenne associe
chaque symbole de la source = entropie
Ex : Source binaire
p p
p p
1 ) 0 (
) 1 (
'
< <
1 ou 0 si 0
1 0 pour ) 1 log( ). 1 ( ) log( .
) (
p
p p p p p
X H
Redondance
) ( ) (
max
X H X H R
Proprits de l entropie
Continuit : l'entropie est une fonction continue de chaque
variable p
i
.
Additivit : de part la dfinition de l'information propre.
Positive :
Borne :
0 ) ,..., , ( ) (
2 1
n
p p p H X H
) log( )
1
,...,
1
,
1
( ) ( n
n n n
H X H
Entropie & Dbit d information
Le dbit d'information d'une source est donn par le produit
de l'entropie de la source (valeur moyenne de l'info /symbole)
par le nombre moyen de symboles par seconde soit :
k
ime
extension : source S
k
dont l'alphabet Q
kaire
est obtenu
en groupant par bloc de k celui de la source S
Source Qaire
Source Q
aire
: source S dont l'alphabet possde Q lments
symbole un d' moyenne dure avec ) . (
) (
1
s bits
X H
D
X
Les canaux discrets
Canal : milieu de transmission de l'information situ entre la source
et la destination. Le canal opre une transformation entre l'espace
des symboles l'entre et celui de la sortie.
Canal discret : les espaces d'entre et de sortie sont discrets
Canal sans mmoire : si la transformation d'un symbole x
l'entre en un symbole y en sortie ne dpend pas des
transformations antrieures
Canal stationnaire : si les transformations ne dpendent pas de
l'origine des temps
[ ]
1
1
1
1
]
1
m n n n
m
m
y x y x y x
y x y x y x
y x y x y x
Y X
...
... ...
...
.
2 1
2 2 2 1 2
1 2 1 1 1
[ ]
1
1
1
1
]
1
) , ( ... ) , ( ) , (
... ...
) , ( ) , ( ) , (
) , ( ... ) , ( ) , (
) , (
2 1
2 2 2 1 2
1 2 1 1 1
m n n n
m
m
y x p y x p y x p
y x p y x p y x p
y x p y x p y x p
Y X P
m
j
j i i
y x p x p
1
) , ( ) (
n
i
j i j
y x p y p
1
) , ( ) (
Probabilits marginales
)) ( log( . ) ( ) (
1
i
n
i
i
x p x p X H
)) ( log( . ) ( ) (
1
j
m
j
j
y p y p Y H
)) , ( log( . ) , ( ) , (
1 1
j i
n
i
m
j
j i
y x p y x p Y X H
Entropie runie ou conjointe
)) / ( log( . ) , ( ) / (
1 1
j i
n
i
m
j
j i
y x p y x p Y X H
Entropie conditionnelle ou quivoque
Transinformation :
quantit d information moyenne qui traverse le canal
)
) ( ). (
) , (
log( . ) , ( ) ; (
1 1
j i
j i
n
i
m
j
j i
y p x p
y x p
y x p Y X I
) / ( ) ( ) / ( ) ( ) ; (
) , ( ) ( ) ( ) ; (
X Y H Y H Y X H X H Y X I
Y X H Y H X H Y X I
+
) ( ) ( ) , (
0 ) / ( ) / (
Y H X H Y X H
X Y H Y X H
) ( ) ( ) , (
) ( ) / ( et ) ( ) / (
Y H X H Y X H
Y H X Y H X H Y X H
+
Canaux non perturbs
Canaux trs perturbs
Capacit dun canal
Redondance dun canal
Efficacit dun canal
)) ; ( ( Y X I Max C
) ; ( Y X I C Rc
C
Y X I
c
) ; (
Ex
canal binaire
C
Y X I
c
) ; (
1
Transinformation & capacit
A.2 Codage de source
Gnralits
Thorme du codage de source
Codage de Shannon-Fano
Codage binaire de Huffman
Codage Arithmtique
Codage par longueur de plage
Codage de type dictionnaire
Gnralits
Adapter la source au canal
l'alphabet
le dbit
Utiliser la capacit du canal
maximiser I(X,Y)
Hyp : Source stationnaire, canaux sans perturbation
Codeur
de source
Source
initiale
Source
entropie max
Codeur de source
supprimer la redondance
Proprits d'un codeur de source
Rgularit : messages
codes
Dchiffrabilit : sparation des mots non ambigu
Code et Mot-code
[S]=[s
1
,s
2
, , s
N
] [X]=[x
1
,x
2
, , x
D
]
[C]=[c
1
,c
2
, , c
N
]
Exemple
Symbole Code A Code B Code C Code D
S
1
00 0 0 0
S
2
01 10 01 10
S
3
10 110 011 110
S
4
11 1110 0111 111
Code longueur variable / fixe
Code sparable : pas de signe de dmarcation entre les mots
Code instantan ou irrductible : on dtermine les mots-codes
mesure que l'on reoit les lettres de l'alphabet du code.
CNS : Aucun mot-code n'est le prfixe d'un autre !
Arbre & codes
binaires instantans
Longueur moyenne d'un mot-code
N
i
i i
l s p l
1
). (
Limite de la longueur moyenne
min
log
) (
l
D
S H
l
Capacit - Efficacit - Redondance
D X H Max C log )) ( (
D
X H D
log
) ( log
D
X H
log
) (
Ex
c ode opt.
D l
S H
log .
) (
) ( . ) ( ) ( X H l C H S H
Codes optimaux absolus
Codes dont l'efficacit est maximale : = 1
D
S H
l l
log
) (
min
1
1
N
i
l
i
D
Cond. Nces. pour les codes opt. abs.
" Par un codage appropri (codage par groupe de n symboles de
la source), l'information moyenne par lettre de l'alphabet du code
peut tre amene aussi proche que l'on veut de la capacit du
code, c'est--dire qu'il existe toujours un codage optimal
absolu ."
Rq1 : n fix, le code qui donne
max
<1 est dit 'optimal'
Thorme du codage de source
Algorithme de gnration d'un codage optimal absolu, pour
des sources divisibles rcursivement (jusqu' un symbole par
ensemble) en deux sous-ensembles quiprobables.
Symboles Proba
Mots-
codes Longueur
s
k
p(s
k
) c
k
l
k
s
1
0.25 0 00 2
s
2
0.25
0
1 01 2
s
3
0.125 0 100 3
s
4
0.125
0
1 101 3
s
5
0.0625 0 1100 4
s
6
0.0625
0
1 1101 4
s
7
0.0625 0 1110 4
s
8
0.0625
1
1
1
1 1111 4
Codage de Shannon-Fano
- Algorithme de gnration d'un codage optimal symbole par
symbole.
- Code longueur variable
Cration de l'arbre
Codage
Algorithme
Codage binaire de Huffman (1952)
Rq : code d'chappement
= Huffman + fixe
Huffman 1 symbole = 1 mot-code
Arithmtique 1 flot de symboles = nbre en virgule flottante
m=0 ; M=1 ;
Tant que !(fin de fichier)
{
i = symbole suivant;
soit [a
i
; b
i
] associ i ;
s = M-m ;
M = m + s.b
i
;
m = m + s.a
i
;
}
Renvoyer m, le compact du fichier
N = nombre cod ;
Faire
{
trouver i / N [a
i
; b
i
[ ;
sortir i ;
s = b
i
- a
i ;
N = (N - a
i
) / s ;
}
Tant qu'il reste un symbole lire
Codeur Decodeur
Codage arithmtique
Exemple
s
i
p
i
[a
i
; b
i
[ Huff
i
0.1 [0.0 ; 0.1[ 111
A 0.1 [0.1 ; 0.2[ 110
E 0.1 [0.2 ; 0.3[ 101
I 0.1 [0.3 ; 0.4[ 100
B 0.1 [0.4; 0.5[ 0111
G 0.1 [0.5 ; 0.6[ 0110
L 0.2 [0.6 ; 0.8[ 00
S 0.1 [0.8; 0.9[ 0100
T 0.1 [0.9 ; 1.0[ 0101
0.43722077 = ?
10111010 10100100 11011001 01
01111000 00011101 10110010 11010100
Arithmtique Huffman
+ de calcul Proba trs lve 1 bit
Peu de symboles ()
Run Length
Codeurs statistiques
- Dpendants de la qualit de la statistique
- Statistique connue par le dcodeur
Sensibilit au bruit
Codage de canal
Conclusion sur le codage de source
A.3 Codage de canal
Gnralits
Thorme du codage de canal
Codes linaires
Codes cycliques
Codes convolutifs
Gnralits
Codeur de canal
introduire une redondance utilisable
011001001001100100101001010
011001101100101101000010
125 . 0
24
3
e
T
Probabilit d'erreur
r n r r
n n erreurs r
p p C P
) 1 .( .
/
n
corrects bits n
p P ) 1 (
Taux de codage
n
k
R
- k taille du mot d information (avant codage)
- n taille du mot-code (aprs codage)
" Pour une source dbit d'information de R bit/s et un canal de
capacit C bit/s, si R<C, il existe un code ayant des mots de
longueur n, de sorte que la probabilit d'erreur de dcodage p
E
vrifie :
) ( .
2
R E n
E
p
"
Rq1 : un rsultat inatendu !
Rq2 : existance ss mthode ...
Rq3 : p
E
constant, n augmente si R
tend vers C.
Rq4 : en pratique, si R<0.5 C, des
codes existent avec p
E
faible.
Thorme du codage de canal
VRC (Vertical Redundancy Check)
Asynchrone
LRC (Longitudinal Redundancy Check)
Synchrone
Dtection d erreur par bit de parit
CS CC Canal
P
DC
i v
v
] [ ] .... .... [
2 1 2 1
i c a a a a a a v
n m m m
+ +
[ c ] : m symboles de contrle
[ i ] : k =n-m symboles d'information
[ ]
n
..... .
2 1
i i i i
v v v v
1
]
1
sinon 0
position ime la erreur si 1
i
Mot-code : v
Mot-erreur :
Notations
Codes linaires
Distance de Hamming
) ( .... ) ( ) ( ) , (
2 2 1 1 jn in j i j i j i
a a a a a a v v D + + +
Le nombre de coordonnes par lesquels les 2
mots diffrent
Proprits des codes linaires
Les symboles de contrle sont obtenus par une combinaison
linaire des symboles d information.
un code linaire contient v=[0 0 0]
Code systmatique
Les symboles d information et de contrle sont spars.
Illustration spatiale : modle code groupe
W = ensemble des N = 2
n
mots
V = ensemble des S = 2
k
mots ayant un sens (mot-code)
W
V
Un mot = un vecteur dans un espace n dimensions !
w=[a
1
a
2
... a
n
]
i i
W v Rgion Rgion
0
W
quidistant
Dtection et correction si W
i
grand
Ex
Hamming(S
4
)
Capacit de dtection et rgion de dcision
Dtecter d erreurs
D
min
= d+1
Corriger e erreurs
D
min
= 2e+1
D
min
= 2e + d + 1
Thorme de Hamming
Principe de dtection et correction
k
i
S i v 2 1 pout tout 0 ) (
erreur d' pas alors 0 ) ( Si
i
i i
v v v
z v
i
D(z) connu est z Si
erreur d' correction +
i i
v v
D : oprateurs Deux
Dcodage et matrice de contrle
[ ]
1
1
1
1
]
1
mn 2 m 1 m
n 2 22 21
n 1 12 11
h ... h h
... ...
h h h
h ... h h
H
Soit H
(m,n)
la matrice de contrle,
1
1
1
]
1
m
1
T
z
:
z
v . H z
Soit z le syndrome (ou correcteur),
[ ]
n 2 1
a ... a a v
Si z=[0] pas d erreur, sinon erreur et +- correction
Codage et matrice gnratrice
G . i v
Soit G
(k,n)
la matrice gnratrice,
0 H . G
t
1
1
1
]
1
:
A : I
:
G
m , k k
1
1
1
]
1
:
I : A
:
H
m
m , k
t
[ ]
k 2 1
i ... i i i
[ ]
1
1
1
1
]
1
kn 2 k 1 k
n 2 22 21
n 1 12 11
g ... g g
... ...
g g g
g ... g g
G
Les matrices H et G sont lies par :
et peuvent se mettrent sous la forme systmatique
Exemple k=2, m=1, n=3
[ ] 1 1 1 ] H [
[ ] [ ] 0 0 0
1 0 1
1 1 0
0 0
1
]
1
[ ] [ ] 1 1 0
1 0 1
1 1 0
1 0
1
]
1
[ ] [ ] 1 0 1
1 0 1
1 1 0
0 1
1
]
1
[ ] [ ] 0 1 1
1 0 1
1 1 0
1 1
1
]
1
1
]
1
1 0 1
1 1 0
] G [
1
[ ] [ ] 0 0 0
1 0 1
1 1 0
0 0
1
]
1
[ ] [ ] 1 0 1
1 0 1
1 1 0
1 0
1
]
1
[ ] [ ] 1 1 0
1 0 1
1 1 0
0 1
1
]
1
[ ] [ ] 0 1 1
1 0 1
1 1 0
1 1
1
]
1
1
]
1
1 1 0
1 0 1
] G [
2
Code de Hamming groupe
[ ] [ ]
1
1
1
1
]
1
... 1 0 1
... 1 1 0
... : : :
... 0 0
...
2 1 n
h h h H
avec ) (i bin h
i
Mot-erreur :
[ ] .... ....
i
i
T
j j j
h z H v H z v v
. .
Hamming
'
+ +
+ +
+ +
7 6 5 4
7 6 3 2
7 5 3 1
i i i c
i i i c
i i i c
1
1
1
]
1
1 0 1 0 1 0 1
1 1 0 0 1 1 0
1 1 1 1 0 0 0
H
[ ]
7 6 5 4 3 2 1
i i i c i c c v
0 .
T
v H
Circuit de codage
Circuit de dcodage
'
7 6 5 4 1
7 6 3 2 2
7 5 3 1 3
i i i c e
i i i c e
i i i c e
2
1
1
2
0
3
2 . 2 . 2 . pour 1 e e e i
i
+ +
(Cyclic Redundancy Check / Frame Check Sequence)
Code cyclique = code linaire + proprit de permutation
1
1
2
2 1 0
... ) (
+ + + +
n
n
x a x a x a a x v
] .... [
1 1 0
n
a a a v Mot-code :
Bloc de n symboles polynme de degr n-1 ! :
Information :
] i .... i i [ i
1 k 1 0
1 k
1 k
2
2 1 0
x i ... x i x i i ) x ( i
+ + + +
[ ]
3 2
x x 1 1 1 0 1 + +
Codes cycliques
Polynme gnrateur : g(x)
- g(x) dfinit le codeur (n,k)
- g(x) est de degr m=n-k
- Il vrifie :
1 k n
1 k n
2
2 1
x a ... x g x g 1 ) x ( g
+ + + +
) x ( p ) x ( g x 1
n
+
Exemple : code cyclique (n=7, k=4)
) x x 1 ( ) x x 1 ( ) x 1 ( x 1
3 3 2 7
+ + + + + +
g(x) est de degr 3 soit :
) x x 1 ( g(x) ou ) x x 1 ( ) x ( g
3 3 2
+ + + +
Matrice gnratrice et polynme gnrateur
1
1
1
1
]
1
) x ( g . x
...
) x ( g . x
) x ( g
G
1 k
) n , k (
Exemple : g(x)=(1+x
2
+x
3
)
1
1
1
1
]
1
1 1 0 1 . . .
. 1 1 0 1 . .
. . 1 1 0 1 .
. . . 1 1 0 1
G
) 7 , 4 (
1
1
1
1
]
1
1 1 0 1 0 0 0
0 1 1 0 1 0 0
1 1 1 0 0 1 0
1 0 1 0 0 0 1
G
) 7 , 4 (
s
1
1
1
]
1
1 0 0 1 0 1 1
0 1 0 1 1 1 0
0 0 1 0 1 1 1
H
) 7 , 3 (
s
Codage par multiplication
Codage par division
Dcodage par division
) x ( i . x ) x ( c ) x ( v
m
+
,
_
) (
) ( .
) (
x g
x i x
Reste x c
m
) x ( g ) x ( i ) x ( v
,
_
) (
) (
) (
x g
x v
Reste x z
Si z(x)=0 Transmission OK
Sinon Dtection ou correction
Ex
[ ] [ ] [ ] 1 1 0 0 0 1 0 1 0 1 1 1 1 1 0
6 5 ) ( 3 2 ) ( 3 1 ) (
+ + + + + + x x x x v x x x x i x x x g et
Systmatique !
# convolution discrte !
Exemples de polynmes gnrateurs
ATM
- x
8
+ x
2
+ x + 1
Cellule ATM
- x
10
+ x
9
+ x
5
+ x
4
+ x + 1
Couche AAL type 3/4
CCITT N41
X25 (HDLC)
- x
16
+ x
12
+ x
5
+ 1
IEEE 802
Rseaux locaux
- x
32
+ x
26
+ x
23
+ x
22
+ x
16
+ x
12
+ x
10
+ x
8
+ x
7
+ x
5
+ x
4
+ x
2
+ 1
) 1 )( 1 )( 1 ( ) (
2 4 3 2 4
x x x x x x x x x g + + + + + + + +
Code BCH (Bose-Chaudhuri - Hocquenghem)
n=15, m=10, e=3
R = 33%
Code Golay
11 10 6 5 4 2
1 ) ( x x x x x x x g + + + + + + n=23, m=11, e=3
R = 52 %
1
]
1
0
5
0 0 0
1 0 1
1
G
1
]
1
1
]
1
2
3
0 1 0
1 1 0
2
G
1
]
1
1
]
1
4
2
0 0 1
0 1 0
3
G
1
]
1
4 2 0
2 3 5
G
Exemple : n
0
=2, R=0.5 , m=3
2
) 2 (
2 1
) 1 (
+
+ +
n n n
n n n n
x x U
x x x U
Dmin = 2e+1
Stratgie de recherche de D
min
?
3
1
,
_
i
i
d Min
11 01 10
Dcodage : algorithme de Viterbi
Indispensable
Tlphonie
Commerce lectronique
@Business
Applications
Mots de passe
Scurit rseaux
Militaires
Garantir la confidentialit des donnes
Garantir l'intgrit des donnes
Garantir l'identit des correspondants
Non rpudiation des transactions
Vocabulaire
Cryptographie : techniques de chiffrage
Cryptologie : cryptographie & cryptanalyse
Vue de la thorie de l'information
Chiffrage = Canal trs perturb
n
m
Messages : [M]
m
i
[C] : n
c
Cryptogrammes
c
j
Chiffrage
n
k
Cls
) / ( ) ( ) ; ( C M H M H C M I
c
j
soit n
m
=n
c
=n
k
Toutes les cls sont quiprobables
Chiffrage efficace
ssi
(Cot + temps) de dcryptage >> Valeur de l'info
Chiffrage cl prive (symtrique)
DES, IDEA,
Chiffrage cl publique (asymtrique)
RSA, PGP
Approches modernes
Approches classiques
Chiffrage par substitution
Jules Csar, l'Abb Trithme
Chiffrage par transposition
Techniques de chiffrage
Chiffrage par substitution
- Y
6
+ Y
7
= Y
8
- Y
8
x Z
6
= Y
9
- Y
7
+ Y
9
= Y
10
- Y
1
Y
9
= X
1
- Y
3
Y
9
= X
3
- Y
2
Y
10
= X
2
- Y
4
Y
10
= X
4
- X
1
x Z
1
= X
1
- X
2
+ Z
2
= X
2
- X
3
+ Z
3
= X
3
- X
4
x Z
4
= X
4
Principe
Chiffrage cl publique
Cl publique
Cl prive
Message Message
&^$!@#l:{Q &^$!@#l:{Q
Decryption Decryption Encryption Encryption
Message Message
Encryptor and decryptor use different keys
Encryptor and decryptor use different mathematical functions
Slow
Example: public key algorithms (RSA, Diffie-Hellman, ...)
RSA (Rivest Shamir Adleman / 1978)
2 voies principales
Acheteur / Vendeur SSL
Acheteur / Vendeur + Banques SET
Pas de lgislation internationale + volution rapide
Difficult de standardisation des protocoles
Les logiciels de chiffrage ne sont pas comme les autres !
USA
Cryptologie, armes et munitions
France
Lgislation trs restrictive mais volutive
SCSSI (Service Central de Scurit des Sys. Informations)
Organisme d'tat
Dcrets 98-206 & 207 du 23 Mars 1998
- Autorisation
Dclaration
Sans formalit
- 2
40
essais, F U I E
Sanctions encourues :
- Import sans autorisation : 6 mois & 200 000 F
- Tiers de confiance illgal : 2 ans & 300 000 F
- Fourniture pour crime & dlit : 3 ans & 500 000 F
- Circonstance aggravante ?
Consquences juridiques
Conclusion sur la cryptograhie
Transition ...
Thorie de l'information Domaine vaste (Continu, Modle de
rseaux, Thorie de la distorsion, )
Techniques de codage
Coder, c est bien,
mais moduler a sert aussi ...