Kódování

Transkript

Kódování
Kdovn
Jan Paseka
12. kvtna 1999
2
2
Pedmluva
Teorie kdovn je interdisciplinrn teorie, kter v sob spojuje metody a postupy
informatiky, matematiky a spojovac techniky. Teorie kdovn pitom stle vce a
vce nachz bezprostedn aplikaci v praxi vlivem novch technologickch zmn.
To, co je na teorii kdovn tak strhujc, je z jedn
strany tsn souvislost teorie
s prax a ze strany druh
pak mnohostranost pouvanch matematickch metod.
lohou teorie kdovn je tvorba postup a metod, kter
nm zajist bezpen
penos zprv komunikanm syst
mem. Z dvod technick
realizovatelnosti se zprvy
pevedou nejprve do ady znak nad njakou konenou abecedou (nejl
pe nad konenm tlesem). Tato ada znak se pak rozlo do blok pokud mono stejn
d
lky k.
Kdovac zazen nm pak utvo z kad
ho bloku d
lky k blok d
lky n,kde n k.
Redundance zskan v ppad kdy n > k slou pozdji k rozpoznn a ppadn
oprav pokud mono co nejvce penosovch chyb. Penos blok d
lky n pomoc spojovacho syst
mu, kter
reprezentuj kdovan
zprvy a kter
se jako celek oznauj
blokov
kdy d
lky n, si lze pedstavit bu prostorov (pes satelit, telefonem, televiz, rdiem atd.) nebo tak
v ase (CD, gramodeska, magnetofonov pska atd.).
Podl k=n se nazv mra informace blokov
ho kdu a reprezentuje mnostv energie
potebn
k penosu kdovanch zprv.
V ruen
m spojov
m kanlu se mohou pi penosu kdovanch zprv vyskytnout
chyby dvojho typu. Nejprve je mysliteln
, e nkter
z vyslanch zprv nedojdou
vbec k pjemci nebo e je pjemce obdr nepln
. Druhou monost je, e se mohou
vyskytnout rovn penosov
chyby, tj. vyslan znak 0 se nap. pijme jako 1 v teorii
kdovn se zabvme zejm
na s druhm ppadem.
Pro opravu eventuln se vyskytujcch se penosovch chyb jsou rozhodujc dv
veliiny:
mra opravitelnosti chyb, kter nm udv v kad
kdovan
zprv podl opravitelnch chyb, a
komplexita dekderu, kter m za lohu pro pijatou kdovanou zprvu zjistit
vyslanou zprvu.
Hlavnm clem teorie kdovn je tvorba kdu s pokud mono co nejvt mrou
informace a s co mon nejvt mrou opravitelnosti chyb pi souasn co mon
3
4
nejmen komplexit dekd
ru.
Shannonova vta o kapacit kanlu nm zaruuje existenci blokovch kd s mrou
informace libovoln blzce pod kapacitou kanlu, tzn. s mrou informace, kter je
tak vysok jak nm to pouvan kanl vbec dovol a s libovoln velkou mrou
opravitelnosti chyb. Nekonstruktivn charakter t
to skutenosti byl zrodem teorie
kdovn.
V mnoha ppadech je vak asov nronost pro dekdovn kdu tak velk, e
nepln
vyuit kapacity kanlu m mnohem men dleitost ne pli komplikovan
dekdovac postup. Z tohoto dvodu se v teorii kdovn zkoumaj znan kdy s
relativn jednoduchm realizovatelnm dekdovacm algoritmem.
Pro uren vlastnost opravujcch se chyb dan
ho kdu se ukzala dleit dodaten znalost jeho struktury. Proto se v teorii kdovn zkoumaj blokov
kdy
opaten
dodatenou algebraickou strukturou, u kterch lze doufat, e budou mt v
praxi pouiteln
teoretick
vlastnosti.
Linern kdy reprezentuj jistou tdu blokovch kd a jsou opateny dodatenou algebraickou strukturou { strukturou vektorov
ho prostoru. Pak linern kd nad
konenm tlesem K je reprezentovn jako k-rozmrn podprostor n-rozmrn
ho vektorov
ho prostoru nad K . Strukturu linernch kd lze pak analyzovat prostedky a
metodami linern algebry. K nejznmjm pkladm praktick
ho pouit linernch
kd pat
binrn Reed-Mullerovy kdy { vesmrn sonda Mariner pouila binrn ReedMullerv kd prvnho du d
lky 32 pro penos datov
ho materilu fotodokumentace planety Mars, a rovn
Reed-Solomonovy kdy { nap. se pouvaj pro ukldn opticky kdovanch
zvukovch signl na CD dva linern kdy, kter
byly odvozeny zkrcenm
Reed-Solomonova kdu d
lky 255 nad tlesem GF(28).
Tento uebn text je zaloen na monograi Codes and Cryptography D. Welshe. Zrove vyuv texty eskch autor jako je nap. Kdovn Jiho Admka.
Text je zpstupnn vem studentm (a uivatelm INTERNETu) pomoc anonymnho FTP pstupu na pota ftp.muni.cz. Adres /pub/math.muni.cz je jeden z
disk potae king.math.muni.cz. Tento adres obsahuje adrese lectures, papers,
software. Na potai v adresi lectures je zzen adres pro ukldn materilu pro
pednky/semine.
4
Obsah
1 Entropie = neuritost = nejistota = informace
1
2
3
4
5
Nejistota . . . . . . . . .
Entropie a jej vlastnosti
Podmnn entropie . . .
Informace . . . . . . . .
Zvr . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Vta o kdovn bez umu pro zdroje bez pamti
1
2
3
4
5
Zdroje bez pamti . . . . . . . . . . . . . . . . . .
Prexov
a jednoznan dekdovateln
kdy . . .
Kraftova a McMillanova nerovnosti . . . . . . . .
Vta o kdovn bez umu pro zdroje bez pamti
Konstruovn kompaktnch kdovn . . . . . . .
3 Komunikace kanly se umem
1
2
3
4
5
6
7
Komunikan syst
m . . . . . . . . . . . . .
Diskr
tn kanl bez pamti . . . . . . . . . .
Spojen zdroje s kanlem . . . . . . . . . . .
Kdovn a dekdovac pravidla . . . . . . .
Kapacita kanlu . . . . . . . . . . . . . . . .
Vta o kdovn se umem . . . . . . . . . .
Kapacita jako hranice spolehliv
komunikace
4 Kdy opravujc chyby
1
2
3
4
5
6
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Kdovn a odhady . . . . . . . . . . . . . . . . .
Ekvivalence kd a konstrukce novch kd . . .
Hlavn probl
m teorie kdovn . . . . . . . . . .
Doln a horn hranice Aq (n d) perfektn kdy . .
Linern kdy . . . . . . . . . . . . . . . . . . . .
Pouit linernch kd . . . . . . . . . . . . . . .
Pravidlo minimln vzdlenosti pro linern kdy
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
11
14
17
19
23
23
24
26
28
30
37
37
38
41
43
47
49
55
59
59
66
69
71
75
77
79
OBSAH
6
8 Binrn Hammingovy kdy . . . . . . .
9 Cyklick
kdy . . . . . . . . . . . . . .
10 Marinerv kd a Reed-Mullerovy kdy
10.1 Hadamardovy kdy . . . . . . .
10.2 Reed-Mullerovo kdovn . . . .
A Nhodn jevy a nhodn veliiny
1
2
3
4
5
6
7
8
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Miteln prostor a vztahy mezi nhodnmi jevy . . . . . . . . . . . .
Pravdpodobnostn prostor . . . . . . . . . . . . . . . . . . . . . . . .
Klasick pravdpodobnost . . . . . . . . . . . . . . . . . . . . . . . .
Podmnn pravdpodobnost . . . . . . . . . . . . . . . . . . . . . . .
Stochasticky nezvisl
nhodn
jevy . . . . . . . . . . . . . . . . . . .
Borelovsk
mnoiny a nhodn
veliiny . . . . . . . . . . . . . . . . .
Nhodn
vektory . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Stedn hodnota, rozptyl, kovariance a koecient korelace nhodnch
veliin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cauchy-Schwarz-Bu akovsk
ho nerovnost, Markovova a &ebyevova
nerovnost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
83
84
87
87
89
93
93
94
94
94
95
96
97
99
99
Kapitola 1
Entropie = neuritost = nejistota
= informace
1 Nejistota
Uvame nsledujc tvrzen.
A Vsledek bhu mezi dvma si rovnmi zvodnky je m
n nejist ne vsledek
bhu mezi esti si rovnmi zvodnky.
B Vsledek rulety je vce nejist ne vrh kostkou.
C Vsledek vrhu ideln kostkou je vce nejist ne vsledek vrhu falenou kostkou.
Zejm s ve uvedenmi tvrzenmi lze okamit souhlasit. Obtn
vak bude
denovat, co je to vlastn nejistota. Podvejme se na dv rzn
nhodn
veliiny X
a Y . Nech'
P (X = 0) = p P (X = 1) = 1 ; p
a
P (Y = 100) = p P (Y = 200) = 1 ; p
pim 0 < p < 1:
Zejm by nm denice nejistoty mla zajistit, e X a Y jsou stejn nejist
. Tedy
nejistota X a tedy i Y by mla bt funkc pouze pravdpodobnosti p: Tato vlastnost
nejistoty mus bt roziiteln i na nhodn
promnn
, kter
nabvaj vce ne dvou
hodnot. Tedy:
Nejistota nhodn
promnn
Z , kter nabv hodnoty ai s pravdpodobnost
pi, (1 i n), je funkc pouze pravdpodobnost p1 : : : pn:
Proto zname takovouto funkci jako H (p1 : : : pn), piem pedpokldme splnn nsledujcch pirozench podmnek:
7
8 KAPITOLA 1. ENTROPIE = NEURITOST = NEJISTOTA = INFORMACE
(A1) H (p1 : : : pn) je maximln, kdy p1 = p2 = : : : = pn = 1=n:
(A2) Pro kadou permutaci na f1 : : : ng plat
H (p1 : : : pn) = H (p(1) : : : p(n) ):
Tedy H je symetrick funkce svch argument tj. jej vsledek nezvis na
poad.
(A3) H (p1 : : : pn) 0 a rovnost nastv prv tehdy, kdy pi = 1 pro njak
i:
Nejistota m tedy vdy nezpornou hodnotu a je nulov prv tehdy, kdy je
jakkoliv nhoda vylouena.
(A4)
H (p1 : : : pn 0) = H (p1 : : : pn):
Nejistota vrhu estibokou ideln kostkou je tat jako nejistota vrhu sedmibokou kostkou, u kter
je nemon
aby padla 7 ale ostatn ppady jsou si
rovnocenn
.
(A5)
H (1=n : : : 1=n) H (1=n + 1 : : : 1=n + 1):
Vsledek bhu mezi dvma zvodnky je m
n nejist ne vsledek bhu mezi
vce zvodnky.
(A6) H (p1 : : : pn) je spojit funkce svch parametr. Mal
zmny na vstupu daj
mal
zmny na vstupu.
(A7) Jsou-li m n 2 N, pak
H (1=m n : : : 1=m n) = H (1=m : : : 1=m) + H (1=n : : : 1=n):
Tato podmnka k, e nejistota vrhu m n;strann
kostky je obsaena ve
vrhu m-strann
kostky nsledovan vrhem n-strann
kostky, a je rovna soutu
individulnch nejistot.
(A8) Nech' p = p1 + : : : + pm a q = q1 + : : : + qn, pi qj jsou neznm
. Jsou-li p a q
kladn sla, p + q = 1, pak plat
H (p1 ::: pm q1 : : : qn) = H (p q)+ p H (p1=p : : : pm =p)+ q H (q1=q : : : qn=q):
Pedstavme si, e mme n + m uchaze na msto v konkurzu - z toho je m
mu a n en, s pravdpodobnostm pi qj vtzstv v konkurzu. Pak nejistota
vsledku konkurzu je nejistota, e vyhraje mu nebo ena plus ven souet,
nejistot vhry mezi mui a enami.
8
1. NEJISTOTA
9
Vta 1.1 Bu H (p1 : : : pn) funkce denovan pro kad pirozen slo n a pro
vechny hodnoty p1 : : : pn tak, e pi
0a
n
X
i=1
pi = 1:
Pokud H spluje aximy (A1)-(A8), pak plat
H (p1 p2 : : : pn) = ;
X
k
pk log pk (1.1)
kde je libovoln kladn konstanta a sumuje se pes vechna k takov,e pk > 0:
Dukaz. Nech' H spl uje aximy (A1)-(A8). Denujme
(1) g(n) = H (1=n : : : 1=n) pro n 2 N: Z (A7) pak
g(nk ) = g(n) + g(nk;1)
a tedy
(2) g(nk ) = k g(n): Bu dle r s 2 N ; f1g n 2 N a m = m(n r s) 2 N tak, e
(3) rm sn rm+1 pak dle (2) a monotonie g (dle (A5)) mme
g(rm) g(sn) g(rm+1)
tedy
Z (3) pak mme
a tedy
m g(r) n g(s) (m + 1) g(r):
m ln(r) n ln(s) (m + 1) ln(r)
g(s) ; ln(s) 2 :
g(r) ln(r) n
Protoe n bylo libovolnou pirozen
slo, je
g(s) = g(r) = A
ln(s) ln(r)
kde A je njak konstanta. Tedy
9
10 KAPITOLA 1. ENTROPIE = NEURITOST = NEJISTOTA = INFORMACE
(5)
(6)
(7)
g(s) = A ln(s):
Bu 0 < p < 1 racionln, p = t=n, t n 2 N: Polome q = (n ; t)=n: Z (A8)
pak
g(n) = H ( n1 : : : n1 ) = H ( nt n n; t ) + nt g(t) + n n; t g(n ; t):
Z (5) pak jednoduchou pravou
H ( nt n n; t ) = A ( nt ) ln nt + A ( n n; t ) ln n n; t :
Zejm
na pak
H (p 1 ; p) = A p ln p + A (1 ; p) ln(1 ; p)
a to pro kad
racionln slo p mezi 0 a 1: Ze spojitosti H plat (6) pro vechna
0 < p < 1: Dokame, e pro kad
N 2 N plat
H (p1 : : : pN ) = A N
X
i=1
pi ln pi
piem pi > 0 a p1 + : : : + pN = 1 a to indukc podle N . Z (6) vme, e (7) plat
pro N = 2: Pedpokldejme, e (7) plat pro N a uvaujme H (p1 : : : pN +1):
Polome p = p1 + : : : + pN q = pN +1 a pouijme (A8). Mme pak
H (p1 : : : pN +1) = H (p q) + p H ( pp1 : : : ppN ) + q H (1)
N
X
= A p ln p + A q ln q + p A ppi ln ppi i=1
z induknho pedpokladu. Upravme-li posledn rovnost na tvar
H (p1 : : : pN +1) = A p ln p + A pN +1 ln pN +1 + A N
X
i=1
pi (ln pi ; ln p)
a vzpomeneme-li si, e PNi=1 pi = p obdrme hledanou rovnost
H (p1 : : : pN +1) = A Na zklad ve uveden
vty pak denujeme
10
NX
+1
i=1
pi ln pi:
2. ENTROPIE A JEJ VLASTNOSTI
11
Denice. Bu X nhodn promnn s konenm oborem hodnot s odpovdajcmi
pravdpodobnostmi p1 p2 : : : pn. Pak denujeme nejistotu neboli entropii nhodn
veliiny X jako
X
H (X ) = ; pk log2 pk (1.2)
k
kde suma se bere pouze pes ta k, pro kter je pk > 0:
Poznmka 1.2 Nadle budeme vdy (bez jmy na obecnosti) pedpokldat, e pro
vechny leny prav strany (1.2) jsou pravdpodobnosti pk nenulov.
Poznmka 1.3 Podmnky (A1)-(A8) odpovdaj axiomm pro entropii navrenm
Shannonem.
Cvien 1.4
1. Kter dostih m vt entropii: handikap, ve kterm je sedm okej, ti z nich
vyhraj s pravdpodobnost 61 a tyi z nich s pravdpodobnost 81 nebo dostih, v
nm mus bt vtz prodn za pedem stanovenou cenu a ve kterm je 8 okej
s dvma koni s pravdpodobnost vhry 41 a est kon s pravdpodobnost vhry
1
12 ?
2. Ovte, e ve denovan funkce entropie spluje podmnky (A1)-(A8).
2 Entropie a jej vlastnosti
*ekli jsme, e pro nhodnou promnnou X s konenm oborem hodnot a s pravdpodobnostmi p1 : : : pn tak, e
X
pi = 1 a pi > 0(1 i n)
denujeme entropii X jako
H (X ) = ;
n
X
k=1
pk log2 pk :
Analogicky pak pro nhodn vektor X, kter nabv pouze konen mnoha hodnot
u1 : : : um demujeme jeho entropii nhodn
ho velktoru jako
H (X) = ;
m
X
k=1
p(uk ) log2 p(uk ):
Je-li napklad X 2-dimenzionln nhodn vektor, X = (U V ) s
pij = P (U = ai V = bj )
11
(1.3)
12 KAPITOLA 1. ENTROPIE = NEURITOST = NEJISTOTA = INFORMACE
budeme asto pst
X
H (X) = H (U V ) = ; pij log2 pij:
Zcela obecn, jsou-li X1 : : : Xm nhodn
promnn
tak, e kad z nich nabv
pouze konen mnoha hodnot, lze pak povaovat X = (X1 : : : Xm) za nhodn
vektor a denovat souhrnou entropii X1 : : : Xm jako
X
H (X1 : : : Xm) = H (X) = ;
p(x1 : : : xm ) log2 p(x1 : : : xm) (1.4)
(x1 :::xm )
kde p(x1 : : : xm ) = P (X1 = x1 X2 = x2 : : : Xm = xm ). Snadno se ov, e:
H (X) = 0 prv tehdy, kdy X je konstantn.
(1.5)
Horn hranice pro H je urena nsledujc vtou:
Vta 2.1 Pro kad pirozen slo n mme
H (p1 : : : pn) log2 n
pi
em rovnost nastv prv tehdy, kdy p1 = p2 = : : : = pn = n;1:
Dukaz. Zejm
log2 x = log2 e loge x:
Protoe logaritmus je konvexn funkce tj. le cel pod tenou, mme
loge x x ; 1
piem rovnost nastv prv tehdy, kdy x = 1: Tedy, je-li (q1 : : : qn) libovoln
pravdpodobnostn rozdlen, pak mme
loge (qk =pk ) (qk =pk ) ; 1
s rovnost prv tehdy, kdy qk = pk : Tud,
X
a z toho pak
pi loge(qi =pi) X
qk ;
X
pk = 0
X
X
pi log2 qi pi log2 pi:
Polome-li qi = 1=n, obdrme dosazenm
X
H (p1 : : : pn) = ; pi log2 pi log2 n
co se mlo dokzat. Zbytek tvrzen o rovnosti plyne bezprostedn z dkazu.
12
2. ENTROPIE A JEJ VLASTNOSTI
13
Poznamenejme, e jsme dokzali velmi uitenou nerovnost a to:
Lemma 2.2 Je-li (pi : 1 i n) dan pravdpodobnostn rozdlen, pak minimum
funkce
X
G(q1 : : : qn) = ; pi log2 qi
pes vechna pravdpodobnostn rozdlen (q1 : : : qn) nastv, pokud qk = pk (1 k n):
Vta 2.3 Jsou-li X a Y nhodn promnn s kone
nm oborem hodnot, plat pak
H (X Y ) H (X ) + H (Y )
pi
em rovnost nastv tehdy a jen tehdy, kdy X a Y jsou nezvisl.
Dukaz. Pedpokldejme, e
ri = P (X = ai) (1 i m) sj = P (Y = bj ) (1 j n)
Pak
tij = P (X = ai Y = bj ) (1 i m 1 j n):
0
1
X
X
H (X ) + H (Y ) = ; @ ri log2 ri + sj log2 sj A
j
0i
1
X
X
= ; @ tij log2 ri + tij log2 sj A ij
protoe
Odtud pak
X
j
ji
tij = ri
H (X ) + H (Y ) = ;
;
X
X
ij
X
ij
i
tij = sj :
tij log2(ri sj )
tij log2(tij ) = H (X Y )
dle pedchozho lemmatu. Rovnost nastane prv tehdy, kdy
ri sj = tij :
Ale to je prv podmnka nezvislosti X a Y:
13
14 KAPITOLA 1. ENTROPIE = NEURITOST = NEJISTOTA = INFORMACE
Jednoduchm rozenm t
to metody lze dokzat:
H (X1 : : : Xn) H (X1) + : : : + H (Xn)
(1.6)
piem rovnost nastv prv tehdy, kdy X1 : : : Xn jsou navzjem nezvisl
H (U V) H (U) + H (V)
(1.7)
pro kadou dvojici nhodnch vektor U V, piem rovnost nastv prv tehdy,
kdy U a V jsou nezvisl
nhodn
vektory.
Dkazy (je lze dokzat pesn stejnm zpsobem jako vtu 1.2 z pedchozho
lemmatu) jsou ponechny teni.
Cvien 2.4
1. Dv ideln kostky jsou vreny X ozna
uje hodnotu zskanou prvn kostkou,
Y hodnotu zskanou druhou kostkou. Dokate, e H (X Y ) = H (X ) + H (Y ).
Dokate, e je-li Z = X + Y , pak
H (Z ) < H (X Y ):
2. Dokate, e pro kadou nhodnou promnnou X ,
H (X X 2) = H (X ):
3. Dokate, e pro kadou posloupnost nhodnch promnnch (Xi : 1 i < 1)
H (X1 : : : Xn) H (X1 : : : Xn+1):
3 Podmnn entropie
Pedpokldejme, e X je nhodn promnn na pravdpodobnostnm prostoru + a A
je udlost z +. Nabv-li X konen
mnoiny hodnot fai : 1 i mg, je pirozen
denovat podmnnou entropii nhodn
promnn
X urenou udlost A jako
H (X jA) = ;
m
X
k=1
P (X = ak jA)logP (X = ak jA):
pln stejn, je-li Y jin nhodn promnn nabvajc hodnot bk (1 k m),
denujeme podmnnou entropii nhodn
promnn
X urenou nhodnou promnnou
Y jako
X
H (X jY ) = H (X jY = bj )P (Y = bj ):
j
14
3. PODMNN
ENTROPIE
15
Povaujeme H (X jY ) za entropii nhodn
promnn
X urenou jistou hodnotou
Y zprmrovanou pes vechny hodnoty, jich me Y nabvat.
Zcela triviln dsledky denic jsou:
H (X jX ) = 0
H (X jY ) = H (X ) jsou-li X a Y nezvisl
:
(1.8)
(1.9)
Pklad 3.1 Bu X nhodn promnn zskan vrhnm ideln kostky. Bu dle
Y jin nhodn promnn ur
en tmt experimentem, pi
em Y se rovn 1, je-li
vren hodnota lich a 0 v ostatnch ppadech. Protoe kostka je ideln,
H (X ) = log6 H (Y ) = log2
a
H (X jY ) = log3:
Jsou-li U a V nhodn
vektory, pirozen rozme denici podmnn
entropie
nsledovn
X
H (UjV) = H (UjV = vj )P (V = vj )
(1.10)
j
piem se st, jako obvykle, pes (konen) obor hodnot vj tak, e odpovdajc
pravdpodobnost je kladn.
Jako prvn pklad, jakm zpsobem entropie H (UjV) m nejistotu o U obsaenou ve V, dokeme:
H (UjV) = 0 prv tehdy, kdy U = g(V) pro njakou funkci g:
(1.11)
Dukaz. Prav strana z denice podmnn
entropie je souet konen
ho potu nezpornch veliin. Tud, aby byla nulov, potebujeme H (UjV = vj ) = 0 pro vechna
j . Ale opt kad z tchto nezpornch veliin je nulov prv tehdy, kdy U je
jednoznan uren V.
Ponkud vce nm dv nsledujc vsledek, kter matematicky vyjaduje ideu,
e nae denice podmnn
entropie X pi dan
m Y korektn m zbvajc nejistotu.
Vta 3.2 Pro kadou dvojici nhodnch promnnch X a Y , kter nabvaj pouze
kone
n mnoiny hodnot, plat
H (X Y ) = H (Y ) + H (X jY ):
15
16 KAPITOLA 1. ENTROPIE = NEURITOST = NEJISTOTA = INFORMACE
Dukaz. Bez ztrty na obecnosti lze pedpokldat, e X a Y nabvaj pouze celoselnch hodnot a, kde to bude nutn
, e pij = P (X = i Y = j ). Nyn
H (X Y ) = ;
= ;
=
=
=
=
XX
i
j
i
j
XX
P (X = i Y = j )logP (X = i Y = j )
P (X = i Y = j )logP (X = ijY = j )P (Y = j )
XX
XX
;
pij logP (X = ijY = j ) ;
pij logP (Y = j )
i j
i j
XX
;
P (X = ijY = j )P (Y = j )logP (X = ijY = j ) + H (Y )
i j
X
X
; P (Y = j ) P (X = ijY = j )logP (X = ijY = j ) + H (Y )
i
Xj
P (Y = j )H (X jY = j ) + H (Y )
j
= H (X jY ) + H (Y ) co bylo teba dokzat
Vta 3.3 Jsou-li U a V nhodn vektory, kter nabvaj pouze kone
n mnoiny
hodnot, plat
H (U V) = H (V) + H (UjV):
Dukaz. Prochzme dkazem pedchoz vty, ale namsto X a Y nabvajch pouze
celoselnch hodnot i a j mme U a V nabvajch hodnot ui a vj , kde ui a vj jsou
zadan
vektory.
Nsledujc vsledek je bezprostedn dsledek.
Dusledek 3.4 Pro kadou dvojici X a Y nhodnch vektor je H (XjY) H (X) a
rovnost nastv prv tehdy, kdy X a Y jsou nezvisl.
Dukaz.
H (XjY) = H (X Y) ; H (Y):
Ale H (X Y) H (X) + H (Y) s rovnost prv tehdy, kdy X a Y jsou nezvisl
.
Cvien 3.5
1. Ukate, e pro kadou nhodnou promnnou X plat
H (X 2jX ) = 0
ale uvete pklad, e H (X jX 2) nen vdy nulov.
16
4. INFORMACE
17
2. Nhodn promnn X nabv celo
selnch hodnot 1 : : : 2N se stejnou pravdpodobnost. Nhodn promnn Y je denovan Y = 0, je-li X sud, ale
Y = 1, je-li X lich. Ukate, e
H (X jY ) = H (X ) ; 1
ale e H (Y jX ) = 0:
4 Informace
Zd se, e R.V.L. Hartley byl v r. 1928 prvn, kdo se pokusil piadit kvantitativn mru
k pojmu informace. Racionln pinu za tmto pokusem meme sten popsat
nsledovn.
Pedpokldejme, e E1 a E2 jsou dv udlosti v pravdpodobnostnm prostoru +
spojen
jistm experimentem a pedpokldejme, e funkce I je nae mra informace.
Maj-li E1 a E2 pravdpodobnosti p1 a p2, pak meme argumentovat tm, e kad
pirozen mra obsahu informace by mla spl ovat
I (p1p2 ) = I (p1) + I (p2)
na zklad toho, e, pro dv nezvisl
realizace experimentu, informace, pro kterou
vsledky tchto experiment dopadnou jako E1 nsledovno E2, by mla bt soutem
informac zskanch provedenm tchto experiment zvl'.
Pipustme-li, e ve uveden rovnost m jistou platnost, a pejeme-li si mt nai
mru nezpornou a spojitou v p, co jsou oba pirozen
pedpoklady, zbv nm s
malou alternativou denovat informaci I udlosti E kladn
pravdpodobnosti jako
I (E ) = ;log2 P (E )
piem jsme vybrali 2 jako zklad naich logaritm, abychom zachovali soulad s
modern konvenc. (Hartley pvodn pouil logaritmy o zkladu 10.) Plat toti nsledujc tvrzen
Vta 4.1 Funkce I (p), denovan pro vechna 0 < p 1, spluje podmnky I (p)
0, pro vechna 0 < p 1, I (p q) = I (p) + I (q) pro vechny 0 < p q 1 takov, e p
a q jsou pravdpodobnosti navzjem nezvislch jev, a podmnku spojitosti vzhledem
k p prv tehdy, kdy je tvaru
I (p) = ;log2 p
kde je kladn konstanta.
17
18 KAPITOLA 1. ENTROPIE = NEURITOST = NEJISTOTA = INFORMACE
Dukaz. Ponechme za cvien ukzat, e kad funkce ve uveden
ho tvaru spl uje
vechny ti podmnky.
Abychom dokzali obrcen
tvrzen, pipome me, e z vlastnosti I (p q) = I (p) +
I (q) mme I (pn) = nI (p) pro vechna kladn pirozen sla n. Speciln tedy plat
I (p n1 ) = n1 I (p):
Odtud pak mme
n I (p)
I (p mn ) = nI (p m1 = m
tj. plat I (pq ) = qI (p) pro vechna kladn racionln sla q. Ze spojitosti umoc ovn
a funkce I mme, e pro vechna kladn reln sla r mus platit
I (pr ) = rI (p):
Bu nyn p libovoln
, pevn zvolen
slo, 0 < p < 1. Protoe kad
slo q, 0 < q < 1
lze pst ve tvaru q = plogpq , mme pak
log2q = ;log q
I (q) = I (plogpq ) = I (p)logpq = I (p) log
2
2p
I (p) . Ze spojitosti funkce I plyne I (1) = 0.
pro vhodnou kladnou konstantu = ; log
p
2
Pklad 4.2 Pedpokldejme, e mme zdroj, kter emituje etzec binrnch slic
0 a 1, kadou se stejnou pravdpodobnost a nezvisle pro po sob jdoucch slicch.
Bu E udlost, e prvnch n slic jsou stdav nuly a jedni
ky. Pak evidentn
I (E ) = ;log2 21n = n
a tot plat pro kadou pedepsanou posloupnost slic dlky n.
Tedy "informan-teoretick" jednotka informace, toti bit, odpovd pirozen
vyuit slova "bit", kter
znamen binrn slo v souasn
potaov
terminologii.
Rozme pojem informace na to, abychom pokryli nhodn
promnn
a vektory nsledovn. Pedpokldejme, e U je nhodn vektor, kter nabv hodnoty
u1 : : : um s pravdpodobnostmi p1 : : : pm: Pak kad z elementrnch udlost
U = uk (1 k m) obsahuje sdruenou informaci rovnou ;log2 P (pk ) a poznamenejme, e entropie vektoru U je urena vztahem
H (U) = ;
X
pk log2 P (pk ) =
18
X
pk I (U = uk )
5. Z
VR
19
tedy H (U) m pirozenou interpretaci jako stedn hodnota informace sdruen
s
elementrnmi udlostmi urenmi U:
Obecnji, jsou-li U a V dva nhodn
vektory, denujeme informaci o U poskytnutou V jako slo
I (UjV) = H (U) ; H (UjV):
Jinak eeno, I (UjV) vyjaduje mnostv nejistoty o U odstrann
V.
Zejm plat, e
I (UjU) = H (U)
I (UjV) = 0 prv tehdy, kdy U a V jsou nezvisl
.
Dukaz. Vsledek plyne bezprostedn z dvj poznmky, e H (U) = H (UjV)
prv tehdy, kdy U a V jsou nezvisl
.
Ponkud udivujc symetrie v I je nsledujc vsledek, kter zejm nem intuitivn vysvtlen.
I (UjV) = H (U) ; H (UjV)
= H (U) ; -H (U V) ; H (V)]
= H (U) + H (V) ; H (U V)
= I (VjU):
Cvien 4.3
1. Co m vt informa
n obsah: posloupnost deseti psmen nad abecedou o 26
psmenech nebo posloupnost 26 slic z mnoiny f0 1 : : : 9g? Pedpokldejte,
e vechny posloupnosti maj stejnou pravdpodobnost.]
2. Ideln kostka je vrena. Ukate, e informace o hodnot kostky dan znalost,
e se jedn o nesloen slo, m velikost log2 32 :
5 Zvr
Shrneme-li pedchoz odstavce, ukzali jsme, e nejistota a informace jsou tyt
veliiny a odstrann nejistoty je rovno podn informace. Ob veliiny jsou miteln
matematickm pojmem entropie, kter je jednoznan denovn (a na multiplikativn konstantu) veliinou
X
H = ; pi log pi:
Konvence si d, aby logaritmy byly brny o zkladu 2, v kter
mto ppad je
jednotka entropie bit.
19
20 KAPITOLA 1. ENTROPIE = NEURITOST = NEJISTOTA = INFORMACE
Problmy 1.1
2.
3.
4.
5.
1. Diskokej m slovnk o kapacit 10 000 slov a pron 1000 slov
nhodn (opakovn je dovoleno). Ukate, e informa
n obsah jeho 1000 slov je
mnohonsobn men ne obrazovky televiznho pijma
e o 500 dcch a 600
sloupcch, pi
em kad pixel nabv jednu z 16 rovn jasu.
Jsou-li X a Y diskrtn nhodn promnn, kter nabvaj pouze kone
nho
po
tu hodnot, ukate, e
H (X + Y jX ) = H (Y jX ):
Ukate, e
H (g(X Y )jX ) = H (Y jX )
2
neplat obecn pro g : R ! R:
Je-li (Xi : 1 i < 1) posloupnost nhodnch promnnch a Y je njak jin
nhodn promnn, dokate, e
H (X1 : : : XnjY ) H (X1 : : : Xn+1jY )
pro kad pirozen slo n:
Statistick pehled enatch dvojic ukazuje, e 70% mu mlo tmav vlasy, 25%
en bylo blondnek a e 80% blondnek si bere tmavovlas mue. Kolik informace
o barv muovch vlas je sdleno barvou vlas jeho eny?
Jsou-li X, Y, Z nhodn vektory, pi
em kad z nich nabv pouze kone
n
mnoha hodnot, dokate, e
H (YjX) + H (ZjX) H (Y ZjX):
6. Dokate, e pro kad nhodn vektor Y a pro kadou mnoinu nhodnch promnnch X1 : : : Xn+1 plat
H (YjX1 : : : Xn) H (YjX1 : : : Xn+1):
7. Jsou-li X a Y dv nhodn promnn a f a g jsou libovoln dv funkce, dokate,
e
H (f (X ) g(Y )) H (X Y ):
8. Nhodn promnn X m binomiln rozdlen s parametry n a p a plat, pro
1 k n,
P (X = k) = (nk) pk qn;k kde 0 < p < 1 a q = 1 ; p:
Dokate, e
H (X ) ;n(plogp + qlogq):
20
5. Z
VR
21
9. Nhodn veli
ina X m geometrick rozloen a nabv celo
selnch hodnot
k = 0 1 2 : : : s pravdpodobnostmi
pk = P (X = k) = pqk kde 0 < p a p + q = 1: Ukate, e rozme-li pojem entropie a denujeme-li
H (X ) = ;
1
X
k=1
pk log pk kdykoliv prav strana konverguje, pak zejmna
H (X ) = ;(plogp + qlogq)=p:
10. Nazvme dv nhodn promnn X a Y ekvivalentn, jestlie H (X jY ) = 0 a
H (Y jX ) = 0: Dokate, e jsou-li X a Y ekvivalentn a Z a Y jsou ekvivalentn,
jsou i Z a X jsou ekvivalentn.
11. Denujme vzdlenost mezi dvma nhodnmi promnnmi X a Y jako
d(X Y ) = H (X jY ) + H (Y jX ):
Dokate, e pro vechny ti nhodn promnn X Y Z plat
d(X Y ) + d(Y Z ) d(X Z ):
12. Pedpokldejte, e X je nhodn promnn nabvajc hodnot v1 : : : vn : Ukate,
e je-li E (X ) = a X je nhodn promnn s maximln entropi vzhledem k
tmto omezenm, pak
pj = P (X = vj ) = Ae;vj P
kde A a jsou konstanty ur
en vztahy E (X ) = a pj = 1:
Poznmka: hoej pklad je ilustrac principu maximln entropie: jedn se
o rozen Laplaceova principu nedostaten
piny tento je asto uvn ve
statistick
mechanice, vytven obraz a podobn jako je princip pro vybrn
a priori distribuce vzhledem k rznm omezenm. Viz nap. Guiasu a Shenitzer
(1985).
e
en problmy 1.1 6. Mme ukzat, e
H (XjY Z) H (XjY):
21
22 KAPITOLA 1. ENTROPIE = NEURITOST = NEJISTOTA = INFORMACE
Ta ale plat prv tehdy, kdy H (X Y Z) ; H (Y Z) H (XjY) () H (X ZjY) ;
H (ZjY) H (XjY) () H (X ZjY) H (XjY) + H (ZjY).
Sta tedy ovit, e
P H (X ZjY = b )P (Y = b )
H (X ZjY) = P
j
j
j
j H (XjY = bj )P (Y = bj ) + Pj H (ZjY = bj )P (Y = bj )
= H (XjY) + H (ZjY):
Denujme nhodn vektor (X0 Z0 ) pedpisem
P ((X0 Z0 ) = (ai cl)) = P ((X YP(ZY) == b(ai) bj cl )) :
j
Pak nhodn
vektory X0 a Z0 jsou denovan
pedpisy
= (bj cl )) :
P (X0 = ai) = P ((XP (YY) == b(a)i bj )) a P (Z0 = cl ) = P ((YP(ZY) =
bj )
j
Pak nutn H (X0 Z0 ) H (X0)+ H (Z0 ), co nm sumac pes j dv H (X ZjY) H (XjY) + H (ZjY).
11. Mme ukzat, e
d(X Y ) + d(Y Z ) d(X Z ):
Plat:
d(X Y ) + d(Y Z ) = H (X jY ) + H (Y jX ) + H (Y jZ ) + H (Z jY )
= H (X ) ; H (Y ) + 2H (Y jX ) + H (Y ) + H (Z ) + 2H (Z jY )
= H (X jZ ) ; H (Z jX ) + 2H (Y jX ) + 2H (Z jY )
d(X Z ) = H (X jZ ) + H (Z jX ):
To je ale ekvivalentn s nerovnost
H (Z jX ) H (Z jY ) + H (Y jX ):
Jejm rozepsnm obdrme H (Z X ) ; H (X ) H (Z Y ) ; H (Y ) + H (Y X ) ; H (X )
a tedy H (Z X ) H (Z Y ) ; H (Y ) + H (Y X ) = H (Y Z ) + H (X jY )
Mme pak
H (Z X ) H (Z Y X ) = H (X jY Z ) + H (Y Z ) H (X jY ) + H (Y Z ):
22
Kapitola 2
Vta o kdovn
bez umu pro
zdroje bez pamti
1 Zdroje bez pamti
V t
to kapitole dokeme prvn a snadnj ze dvou Shannonovch hlavnch vt pro
nejjednodu tdu zdroj.
Strun oxfordsk slovnk denuje zdroj jako pramen, vrchol zdla, ze kter
ho
proud vstupy. Ve sv
pln
obecnosti, je to pesn to, co uvaujeme v teorii informace,
akoliv typicky povaujeme zdroj za proud symbol jist
konen
abecedy. Zdroj m
obvykle njak nhodn mechanismus, kter je zaloen na statistice situace, kter je
modelovan. Tento nhodn mechanismus me bt pomrn dost komplikovan, ale
my se budeme pro okamik soustedit na nsledujc opravdu speciln a jednoduch
pklad. Zna-li Xi i-t symbol vytvoen zdrojem, dohodneme se pak, e, pro kad
symbol aj , pravdpodobnost
P (Xi = aj ) = pj
je nezvisl na i a tedy je nezvisl na vech minulch nebo v budoucnosti vyslanch
symbolech. Jinak eeno, X1 X2 : : : je prv posloupnost identicky distribuovanch,
nezvislch nhodnch veliin. Takovto zdroj nazveme zdrojem s nulovou pamt
nebo zdrojem bez pamti a jeho entropie H je denovna jako
X
H = ; pj logpj
kde stme pes mnoinu j takovch, e pj > 0:
Cvien 1.1
1. Je-li S zdroj bez pamti s abecedou /, roz
en du n S je zdroj bez pamti
S (n) s abecedou /(n) skldajc se ze vech etzc dlky n symbol ze / tak, e
23
24KAPITOLA 2. VTA O KDOV
N BEZ UMU PRO ZDROJE BEZ PAMTI
pravdpodobnost kadho etzce je ur
ena pravdpodobnost, e je to etzec
prvnch n symbol vyslanch S: Dokate, e S (n) m entropii
H (S (n)) = nH (S ):
2 Prexov
a jednoznan dekdovateln
kdy
Hlavn probl
m een v t
to kapitole je nsledujc. Pedpokldejme, e mme zdroj
bez pamti S , kter vysl symboly z abecedy W = fw1 : : : wng s pravdpodobnostmi fp1 : : : png: Z pedagogickch dvod budeme prvky W nazvat zdrojov slova
a ptt se na nsledujc otzku. Je-li / abeceda D symbol, jak meme zakdovat
zdrojov slova wi pomoc symbol z /, abychom dostali co mon nejekonomitj
zakdovn?
Pklad 2.1 Pedpokldejme, e zdroj S vysl tyi zdrojov slova a b c d s pravdpodobnostmi
pa = 0:9 pb = 0:05 pc = pd = 0:025:
Srovnme-li pak zakdovn
a
0 b
111 c
110 d
101
a
00 b 01 c 10 d 11
je evidentn prmrn dlka zakdovanho zdroje 1.2 v prvnm kdu a 2 v druhm
kdu.
a
Formlnji, kdovn nebo kd je zobrazen f z fw1 : : : wng do / , kde /
oznauje soubor konench etzc symbol z /: Zprva je kad konen etzec
zdrojovch slov a, je-li
m = wi1 : : : wik
a je-li f kdovn, pak rozen f k W je denovno obvyklm zpsobem pomoc
zetzen
f (m) = f (wi1 ) : : : f (wik ):
Kdovn f je jednozna
n dekdovateln, jestlie kad konen etzec z / je
obraz nejve jedn
zprvy. *etzce f (wi) se nazvaj kdov slova a pirozen sla
24
2. PREFIXOV A JEDNOZNAN DEKDOVATELN KDY
25
jf (wi)j jsou slovn dlky kdovn f: Prmrn dlka hf i kdovn f je denovan
jako
hf i =
m
X
i=1
pijf (wi)j:
Kdovn f se nazv bezprostedn dekdovateln nebo prexov, jestlie neexistuj rzn
wi a wj tak, e f (wi) je prex f (wj ): Zde pouvme, jak lze oekvat,
prex v obvykl
m smyslu, e pokud x y 2 / , pak x je prex y , jestlie existuje
z 2 / tak, e xz = z:
Prexov kdovn jsou jednoznan dekdovateln. Skuten, maj silnj vlastnost, e prexov kd me bt dekdovn `on line' bez pohledu do budoucnosti.
Pklad 2.2 Pedpokldejme, e / = f0 1g a mme tyi zdrojov slova w1 :: w4:
Prexov
kdovn je
f (w1) = 0 f (w2) = 10 f (w3) = 110 f (w4) = 1110:
Napklad zprvu 01101001010010 lze dekdovat jako w1w3w2w1w2 w2w1w2: (Toto je
pklad toho, co je znmo jako rkov kdovn, protoe evidentn pouvme nulu,
abychom signalizovali konec slova.)
Ne kad
jednoznan dekdovateln
kdovn je prexov
.
Pklad 2.3 Pedpokldejme, e W = fw1 w2g / = f0 1g a kdovn g je deno-
vno jako
g(w1) = 0 g(w2) = 01:
Toto kdovn nen evidentn prexov
, ale lze snadno ovit, e je jednoznan
dekdovateln
, pokud budeme postupovat zpt z konce zprvy.
Je zejm
, e jednoznan dekdovateln kdovn jsou o mnoho obtnj pojem,
ne prexov kdovn. Pekvapiv ukeme, e meme omezit pozornost na prexov kdovn v naem hledn jednoznan dekdovatelnch kdovn, kter maj
minimln prmrnou d
lku.
Poznmka 2.4 A
koliv jsme denovali kdovn jako zobrazen, asto ho identikujeme se souborem C kdovch slov.
Cvien 2.5
1. Ukate, e pro kad pirozen slo m existuje prexov kdovn nad f0 1g,
kter m slova vech dlek v mnoin f1 : : : mg:
25
26KAPITOLA 2. VTA O KDOV
N BEZ UMU PRO ZDROJE BEZ PAMTI
3 Kraftova a McMillanova nerovnosti
V tomto odstavci dokeme dv zkladn nerovnosti, kter
ospravedl uj nai dvj
poznmku, e meme v podstat zapomenout na pojem jednoznan
dekdovatelnosti a omezit pozornost na prexov kdovn.
Nejdve vyslovme nerovnosti.
KRAFTOVA NEROVNOST
Je-li / abeceda mohutnosti D a W obsahuje N slov, pak nutn a dostaten
podmnka, e existuje prexov
kdovn f : W ! / se slovnmi d
lkami l1 : : : lN
je, e plat
N
X
i=1
D;li 1:
(2.1)
McMILLANOVA NEROVNOST
Je-li / abeceda mohutnosti D a W obsahuje N slov, pak nutn a dostaten
podmnka, e existuje jednoznan dekdovateln
kdovn f : W ! / se slovnmi
d
lkami l1 : : : lN je, e plat (2.1).
Kombinac tchto dvou nerovnost dostaneme:
Vta 3.1 Jednozna
n dekdovateln kdovn s pedepsanou dlkou slov existuje
prv tehdy, kdy existuje prexov kd se stejnou dlkou slov.
DKAZ KRAFTOVY NEROVNOSTI
Pedpokldejme, e mnoina fl1 : : : lN g spl uje
N
X
i=1
D;li 1:
Pepime nerovnost do tvaru
Xl
j =1
nj D;j 1
kde nj je poet li rovnch j a l = maxli:
Pepime tuto nerovnost opt do tvaru
nl Dl ; n1 Dl;1 ; : : : ; nl;1D:
(2.2)
Protoe nj jsou vechna nezporn, postupn dostaneme z (2.2) nerovnosti
26
3. KRAFTOVA A MCMILLANOVA NEROVNOSTI
27
nl;1 Dl;1 ; n1Dl;2 ; : : : ; nl;2 D
nl;2 Dl;2 ; n1Dl;3 ; : : : ; nl;3 D
n3 D3 ; n1 D2 ; : : : ; n2 D
n2 D2 ; n1 D
n1 D:
(2.3)
Tyto nerovnosti jsou kl ke konstrukci kdovn s danou d
lkou slov.
Nejdve vyberme n1 slov d
lky 1, piem pouijeme rzn psmena z /: Zbv
nm D ; n1 nepouitch symbol a meme vytvoit (D ; n1 )D slov d
lky 2 pidnm
psmena ke kad
mu z tchto symbol.
Vyberme naich n2 d
lky 2 libovoln z tchto slov a zbv nm pak D2 ; n1 D ; n2
prex d
lky 2.
Tyto lze ut pro vytvoen (D2 ; n1D ; n2 )D slov d
lky 3, ze kterch meme
vybrat n3 libovoln atd. Pokraujeme-li tmto zpsobem, pokad
je zachovna vlastnost, e dn
slovo nen prexem jin
ho.
V kad
m ppad zjistme, e nerovnosti (2.3) nm dovol prov
st tento vbr.
Tedy skonme s prexovm kdovnm s pedepsanou d
lkami kdovn.
Dokzali jsme, e numerick podmnka (2.1) je dostaten pro existenci prexov
ho kdovn. Akoliv Kraft rovn dokzal i nutnost podmnky (2.1), jedn se
o bezprostedn dsledek McMillanovy nerovnosti, kterou v dalm dokeme. Podan dkaz je o mnoho jednodu, ne McMillanv pvodn dkaz a pat Karushovi
(1961).
DKAZ McMILLANOVY NEROVNOSTI
Pedpokldejme, e mme jednoznan dekdovateln
kdovn C s d
lkami slov
l1 : : : lN :
Pokud l = maxli , pak, pro kad
kladn
cel
slo r, mme
rl
r X
D;l1 + : : : + D;lN = bi D;i
i=1
(2.4)
kde bi je nezporn
cel
slo. Ale cel sla bi jsou prv poet monost, kolika
zpsoby lze etzec d
lky i z symbol abecedy / utvoit konkatenac r slov z d
lek
vybranch z mnoiny fl1 : : : lN g:
Jeliko je kdovn C jednoznan dekdovateln
, kad etzec d
lky i tvoen
z kdovch slov mus odpovdat nejve jedn
posloupnosti kdovch slov. Musme
tedy mt
27
28KAPITOLA 2. VTA O KDOV
N BEZ UMU PRO ZDROJE BEZ PAMTI
bi Di (1 i rl):
Dosadme-li do (2.4), obdrme
;l1
r
D + : : : + D;lN lr:
Proto
Xl
j =1
nj D;j l1=r r1=r a protoe r bylo libovoln
kladn
cel
slo, dostvme limitnm pechodem r ! 1
na prav
stran McMillanovu nerovnost.
Cvien 3.2
1. Jak je maximln po
et slov binrnho prexovho kdovn, ve kterm je maximln dlka slova 7?
4 Vta o kdovn bez umu pro zdroje bez pamti
Uvaujme nyn nsledujc situaci. Mjme zdroj S bez pamti, kter vysl slova
w1 : : : wm s pravdpodobnostmi p1 : : : pm, kad
vyslan
slovo je vybrno nezvisle
na vech jinch slovech. N probl
m je: je-li dn takovto zdroj spolen s abecedou
/, najdte jednoznan dekdovateln
kdovn, je m minimln prmrnou d
lku
slov. Takov
to kdovn nazvme kompaktn.
Heuristick pstup k tomuto probl
mu by mohl bt nsledujc. Zdroj S m entropii
X
H = ; pilogpi:
Maximln entropie v abeced o D psmenech je logD: Tedy poet symbol abecedy potebn v prmru na zakdovn slova ze zdroje by ml bt asi H=logD:
Tuto hrubou ideu nyn zprecizujeme.
Vta 4.1 M-li zdroj bez pamti entropii H , pak kad jednozna
n dekdovateln
kdovn pro tento zdroj v abeced o D symbolech mus mt dlku alespo H=logD:
Navc existuje takov jednozna
n dekdovateln kdovn, kter m prmrnou dlku
slov men nebo rovnu 1 + H=logD:
28
4. VTA O KDOV
N BEZ UMU PRO ZDROJE BEZ PAMTI
29
Dukaz. Pedpokldejme, e mme jednoznan dekdovateln
kdovn C s d
lkami
slov l1 : : : lN : Pedpokldejme dle, e pravdpodobnosti emitovanch slov odpovdajcch tmto d
lkm jsou p1 : : : pm: Tedy
H=;
X
a prmrn d
lka kdovn C je dna
l(C ) =
pilogpi
X
pili:
Z Kraft{McMillanovy nerovnosti vme, e
G=
Denujme qi (1 i N ) jako
Xl
j =1
nj D ; j 1 :
qi = D;li =G
tedy je (q1 : : : qN ) pravdpodobnostn rozdlen. Aplikujme lemma 1.2.2 a obdrme
X
X
H = ; pilogpi ; pilogqi :
Ale
Tedy
logqi = ;li logD ; logG:
X X H
pili logD + pi logG:
Ale G 1 z Kraft-McMillanovy nerovnosti a tedy, jak je poadovno,
H l (C ) logD:
Abychom dokzali horn hranici, vybereme nae d
lky slov l1 : : : lN podle pravidla, e pro vechna i je d
lka li minimln pirozen
slo spl ujc
p;i 1 Dli :
Ale, protoe p1 + : : : + pN = 1, toto implikuje
N
X
D;li 1
i=1
(2.5)
tedy vme, e existuje jednoznan dekdovateln
(ve skutenosti prexov
) kdovn
s tmito slovnmi d
lkami.
29
30KAPITOLA 2. VTA O KDOV
N BEZ UMU PRO ZDROJE BEZ PAMTI
Ale, protoe 2.5 je ekvivalentn s
li logD ;logpi
a li je minimln vzhledem k t
to vlastnosti, vme, e
Vme tedy, e
li < 1 ; logpi=logD:
l(C ) =
X
pili < 1 + H=logD:
Cvien 4.2
1. Zakdujeme-li n stejn pravdpodobnch slov nad binrn abecedou, vta o kdovn bez umu tvrd, e prmrn dlka slova l(C ) kadho kompaktnho jednozna
n dekdovatelnho kdovn spluje
log2n l(C )
pro kter hodnoty n plat rovnost?
2. Srovnejme hranice vty o kdovn bez umu s dlkou kompaktnho zakdovn
2k ; 1 stejn pravdpodobnch slov nad f0 1g:
5 Konstruovn kompaktnch kdovn
Pedpokldejme, e mme dn zdroj S bez pamti ze slov w1 : : : wN s pravdpodobnostmi p1 : : : pN a e si pejeme najt kompaktn kdovn C pro S nad abecedou
/: Z vty o kdovn bez umu vme, e prmrn d
lka mus spl ovat ohranien
H=logD l(C ) 1 + H=logD
(2.6)
ale snadno se vid, e doln hranice lze doshnout pouze, kdy pi jsou jist
celoseln
mocniny D: Z Kraft-McMillanovy nerovnosti mme:
Jestlie existuje kompaktn jednozna
n dekdovateln kdovn o prmrn dlce l,
pak existuje kompaktn prexov kdovn o prmrn dlce l:
Meme se tedy omezit na prexov kdovn. Nyn popeme metodu navrhnutou Hu3manem v roce 1952 pro konstruovn kompaktnhu prexov
ho kdovn pro
ve uveden zdroj S v ppad, e / je binrn abeceda. Nejprve dokeme nkter
vlastnosti kompaktnho prexov
ho kdovn C nad / = f0 1g: Budeme uvat l(w)
k oznaen d
lky slova w v C:
30
5. KONSTRUOV
N KOMPAKTNCH KDOV
N
31
Lemma 5.1 Kompaktn kdovn pro zdroj s prv dvma slovy w1 a w2 je
w1 ! 0
w2 ! 1:
Dukaz. Zejm
.
Lemma 5.2 Je-li C prexov a kompaktn kdovn a pi > pj , pak l(wi) l(wj ):
Dukaz. Pokud tomu tak nen, vytvome nov kd C 0 z C zmnou zakdovn wi a
wj : Pak prmrn d
lka je zmenena a stle mme prexov
kdovn.
Lemma 5.3 Je-li C prexov a kompaktn kdovn, pak mezi vemi kdovmi slovy
v C maximln dlky mus existovat alespo dv lic se pouze v posledn slici.
Dukaz. Pedpokldejme, e tomu tak nen pak meme odebrat posledn slici z
tchto vech kdovch slov maximln d
lky a stle mme prexov
kdovn, co je
spor s kompaktnost C:
V KDOVAC ALGORITMUS
HUFFMANU
Beze ztrty obecnosti meme pedpokldat, e zdroj S m svj syst
m zdrojovch slov fw1 : : : wN g uspodanch tak, e pravdpodobnosti pi vysln wi spl uj
p1 p2 : : : pN :
Hu3manova procedura konstruuje rekurzivn posloupnost zdroj S0 S1 : : : SN ;2
tak, e S0 = S a Sk je zskno z Sk;1 ztotonnm dvou nejm
n pravdpodobnch
symbol z Sk;1 s jedinm symbolem z Sk : Pravdpodobnost, e symbol je vysln
z Sk je brna jako souet pravdpodobnost jeho dvou vytvejcch symbol v Sk;1:
Tedy S1 je zskn z S0 ztotonnm wN a wN ;1 do jednoho symbolu wN ;1 vyskytujcho se s pravdpodobnost pN + pN ;1: V kad
m stavu mme zdroj s o jeden m
n
symboly, a po N ; 2 takovch redukcch dospjeme k zdroji SN ;2 kter m pouze
dva symboly. Pechod mezi Sj;1 a Sj lze nejl
pe vidt na nsledujcm obrzku.
31
32KAPITOLA 2. VTA O KDOV
N BEZ UMU PRO ZDROJE BEZ PAMTI
Zakdovn Pravdpodobnost Slovo Slovo Pravdpodobnost Zakdovn
1
q1
v1
u1
q1
1
2
q2
v2
u2
q2
2
k;1
k+1
k+2
qk;1
qk
qk+1
vk;1
vk
vk+1
uk;1
uk
uk+1
qk ;1
qt + qt+1
qk
k;1
k
k+1
t
(k 0)
(k 1)
qt;1
qt
qt+1
vt;1
vt
vt+1
ut
qt;1
t
Sj ;1
Sj
Je-li dno zakdovn 1 : : : t zdroje Sj , Hu3manova procedura pro nalezen
zakdovn zdroje Sj;1 je nsledujc velmi snadn
pravidlo.
Pedpokldejme pravdpodobnosti q1 q2 : : : qt+1 slov z Sj;1 jsou takov
,
e slovo vytvoen
z vt a vt+1 je slovo uk z Sj : Pak by Hu3manovo zakdovn Sj;1
mlo bt, jak je ukzno v lev
m sloupci pedchoz tabulky. Formln, mlo by bt
zadno pravidlem
vi ! i
(1 i k ; 1) vi ! i+1
vt ! (k 0)
(k i t ; 1)
vt+1 ! (k 1):
Zptnm zpracovnm nastartujeme nai zakdovac proceduru zakdovnm dvou
slov z SN ;2 s dvma kdovmi slovy 0 a 1 pak SN ;3 bude mt ti kdov slova atd. a
budeme pokraovat ve ve uveden
procedue, a doshneme Hu3manova kdu pro
S = S0:
Budeme ilustrovat tuto metodu na skuten mal
m pklad.
Pklad 5.4 Pedpokldejme, e S je zdroj s pti zdrojovmi slovy a pravdpodobnostmi (viz ne). Pak vvoj Hu&manova zakdovn lze povaovat za prochzen ipek
dopedu a pak zakdovn zptky.
W P
C W P
C
W P C W P C
w1 0.5 1
v1 0.5 1
u1 0.5 1 x1 0.5 0
w2 0.2 01 v2 0.2 01
u2 0.3 00 x2 0.5 1
w3 0.15 001 v3 0.15 000
u3 0.2 01
w4 0.1 0000 v4 0.15 001
w5 0.05 0001
W: slovo,
P: pravdpodobnost C: kdovn
Vsledn zakdovn
32
5. KONSTRUOV
N KOMPAKTNCH KDOV
N
33
w1 ! 1 w2 ! 01 w3 ! 001 w4 ! 0000 w5 ! 0001
m prmrnou dlku 1.95 na zdrojov slovo.
Poznmka 5.5 Minimln dvakrt v hornm pkladu jsme schopni provst vbr,
protoe dv slova maj stejn pravdpodobnosti. Pokud tento ppad nastane, dostaneme rzn zakdovn.
KAZ, E HUFFMANU
V ALGORITMUS JE KOREKTN
DU
Z lemmatu 1 vme, e zakdovn SN ;2 dvma symboly 0 a 1 je optimln. Dkaz
bude tedy pln, jestlie budeme schopni dokzat, e kompaktnost je zachovvna pi
pechodu ze zdroje Sj ke zdroji Sj;1:
Pedpokldejme tedy, e Sj je kompaktn zakdovn a e l1 : : : lt jsou d
lky slov
1 : : : t , ale e Hu3manovo zakdovn Cj;1 zdroje Sj;1 nen kompaktn. Existuje
tedy prexov
kompaktn kdovn C zdroje Sj;1 tak, e
l(C ) < l(Cj;1):
Dle lemmatu 3 meme peuspodat kdov slova kdovn C maximln d
lky
tak, e m-li C kdov slova v01 : : : v0t+1 s d
lkami l0 1 : : : l0t+1 , pak l0 1 l02 : : : l0 t+1 a v0t = ( 0) v0t+1 = ( 1) kde je njak
kdov
slovo z / :
Nech' kdovn C 0 zdroje Sj sestv ze slov
v01 v02 : : : v0k;1 v0k : : : v0t+1 pak C 0 je prexov
zakdovn zdroje Sj a m prmrnou d
lku
l(C 0) = p1l0 1 + : : : + pk;1l0k;1 + p0k jj + +pk l0k + pk+1l0 k+1 + : : : + pt l0t;1 =
= l(C ) ; p0k :
Pesnji p0k = pt + pt+1 , lt0 = lt0+1 , jj = lt0 ; 1 = lt0+1 ; 1 a proto
l(C 0 ) = l(C );jjp0k +lt0 pt +lt0+1pt+1 = l(C );jjp0k +lt0 p0k = l(C );p0k (lt0 ;jj) = l(C );p0k :
Ale zrove
l(Cj ) = l(Cj;1) ; jjp0k + lt0 pt + lt0+1 pt+1 = l(Cj;1) ; p0k :
Tud, jestlie l(C ) < l(Cj;1), pak
co je spor s kompaktnost Cj :
l(C 0 ) < l(Cj )
33
34KAPITOLA 2. VTA O KDOV
N BEZ UMU PRO ZDROJE BEZ PAMTI
HUFFMANOVA KDOVN NAD NEBINRNMI ABECEDAMI
Pedpokldejme, e pracujeme namsto s binrn abecedou f0 1g s abecedou / o
r symbolech.
Budeme postupovat stejnm zpsobem. Stejn jako v binrnm ppad, zanme
s S = S0 (pvodn zdroj) a budeme konstruovat posloupnost zdroj S0, S1, . . . , St a
skonme u zdroje St obsahujcm prv r symbol. Tento zdroj m kompaktn zakdovn (jednodue mme bijekci mezi St a abecedou /). Musme aplikovat nsledujc
dva body:
1. Jak budem konstruovat Sj+1 z Sj , ztotonme ne 2, ale r nejm
n pravdpodobnch symbol z Sj do jednoho symbolu z Sj+1. Tedy Sj+1 m o r ; 1 symbol
m
n ne Sj .
2. Budeme potebovat pro zvren zdroj St, abychom mli prv r symbol.
Abychom toho doshli, je nutno zat se zdrojem S s prv r + t(r ; 1) symboly.
Protoe obecn je mlo pravdpodobn
, e S bude mt prv tento poet slov,
umle pidme k S mnoinu S 0, kter bude disjunktn s S , a slova v n obsaen
budou mt nulovou pravdpodobnost. Pak klademe S0 = S S 0 a mme jS 0j =
r + t(r ; 1) ; jS j.
Cvien 5.6
1. Jak je prmrn dlka slova kompaktnho kdovn nad f0 1g, jestlie mme
5 stejn pravdpodobnch zdrojovch slov?
2. Najdte kompaktn kdovn nad f0 1g pro zdroj vyslajc slova w1 : : : w6 s
pravdpodobnostmi
1
P (w1) = 31 P (w2) = 41 P (w3) = 16 P (w4) = P (w5) = P (w6) = 12
a porovnejte jejich prmrnou dlku s horn a doln hranic dle vty o kdovn
bez umu pro zdroje bez pamti.
3. Najdte kompaktn kdovn nad f0 1 2g pro zdroj z pedchozho pkladu.
Problmy 2.1
1. Ve he na achovnici m jeden z hr
(A) uhdnout, kam jeho
protivnk umstil krlovnu. Hr
i A je povoleno est otzek, kter mus bt pravdiv zodpovzeny odpovd ano/ne. Dokate, e existuje strategie, pi kter me
hr
A vdy vyhrt tuto hru, ale e nelze zajistit vhru, pokud m povoleno pouze
pt otzek.
2. Je-li hra z pedchozho pkladu hran na achovnici o rozmrech n n, kolik
otzek potebuje hr
A, aby bezpe
n vyhrl.
34
5. KONSTRUOV
N KOMPAKTNCH KDOV
N
35
3. Najdte prmrnou dlku optimlnho (kompaktnho) jednozna
n dekdovatelnho binrnho kdu pro zdroj bez pamti, kter vysl est slov s pravdpodobnostmi
0:25 0:10 0:15 0:05 0:20 0:25:
Analyzovnm Hu&manova algoritmu ukame, e zdroj bez pamti vysl N slov
a jestlie l1 : : : lN jsou dlky kdovch slov je optimln kdovn nad binrn
abecedou, pak l1 + : : : + lN 21 (N 2 + N ; 2).
4. Mte k dispozici rovnovnou vhu a devt zdnliv identickch minc. Bylo
Vm sdleno, e jedna mince je rzn od zbvajcch stejnch minc. Mte za
kol najt, o kterou minci se jedn a zda je t nebo leh
. Navrhnte strategii o
nejve 3 vench pro een tohoto problmu. Abychom obecn vyeili tent
problm pro n minc v k vench, je nutno, aby platilo, e k log 3 log 2n.
Dokate.
5. V Hu&manov algoritmu pro binrn abecedu aplikovanm na N zdrojovch slov
jsou dlky slov pro kone
n optimln zakdovn l1 : : : lN . Dokate, e
l1 + : : : + lN
N log2 N:
6. Mjme dva hr
e, hr
e A a hr
e B. Tito hr
i hraj hru s nhodnou kostkou,
kter m n stran a nabv hodnot 1 : : : n s pravdpodobnostmi p1 p2 : : : pn.
Hr
B vrh kostkou za zvsem a hr
A m zjistit hodnotu po vren kostky
co mon nejrychleji. Hr
A se me ptt hr
e B a ten mu mus pravdiv
odpovdat bu ano nebo ne. Ukate, e prmrnPpo
et otzek pro spnou
strategii hr
e A mus bt alespo entropie H = ; pj logpj .
7. Ukate, e optimln zakdovn zdroje s N stejn pravdpodobnmi zdrojovmi
slovy v abeced o D psmenech, je
maxf(Dr+1 ; N ; b)=(D ; 1) N g
slov dlky r, kde b je ur
eno vztahem
N + b = D + k(D ; 1) 0 b < D ; 1
a r je nejvt pirozen slo tak, e
Dr N + b:
8. Dokate, e nsledujc metoda nm dv jednozna
n dekdovateln kd pro
zdro S .
35
36KAPITOLA 2. VTA O KDOV
N BEZ UMU PRO ZDROJE BEZ PAMTI
Pedpokldejme, e S m N zdrojovch slov s1 s2 : : : sN a pi je pravdpodobnost, e je vyslno slovo si , pi
em plat pi pi+1 . Nech( navc
a1 = 0 a2 = p1 a3 = p1 + p2 : : : aN = p1 + p2 + : : : + pN ;1:
Nech( mi (1 i N ) je denovno jako nejmen takov pirozen slo mi
splujc 2;mi pi .
Je-li pak aj binrn rozvoj sla aj na mj desetinnch mst, je kdovn
sj 7! aj 1 j N
jednoznan dekdovateln pro zdroj S . Ukate, e se nejedn o optimln zakdovn, ale e prmrn dlka ^l kdovn spluje
H (S ) ^l H (S ) + 1:
9. Jsou-li l1 : : : ln dlky slov binrnho Hu&manova kdovn zdrojovch slov majcch pravdpodobnost p1 : : : pn , pak redundance kdovn je denovna jako
r=
n
X
k=1
pk lk ; H (p1 : : : pn):
Ukate, e plat
r pmax + log-2(log e)=e] = pmax + 0:086
kde pmax = maxi pi.
36
Kapitola 3
Komunikace kanly se umem
1 Komunikan syst
m
Komunikan syst
m je mechamismus, kter zprostedkovv penos informace od
zdroje zprvy a k zazen, kter
tuto informaci zpracovv. Obecn sestv z kod
ru,
sdlovacho (komunikanho) kanlu a nsledn dekod
ru.
vstup - Kod
r
- Komunikan - Dekod
r
kanl
vstup -
Obrzek 3.1: Blokov diagram obecnho sdlovacho systmu.
Zdrojov zprva je obvykle v podob sekvence binrnch nebo destkovch slic,
nebo sekvence abecednch znak pevedench do technicky zpracovateln
podoby.
Kdovac zazen pevd tyto zprvy na signly kompatibiln se vstupem kanlu {
obvykle se jedn o elektrick
signly, kter
maj jist omezen na velikost napt, ku
psma a d
lku trvn impulzu. Takto upraven
pak vstupuj do sdlovacho kanlu
a jsou vystaveny umu (tj. monosti vzniku chyby). Vstup z kanlu vstupuje do
dekod
ru, jeho funkc je rozhodnout, jakou podobu mla pvodn zdrojov zprva,
a tu pak piv
st na vstup cel
ho sdlovacho syst
mu.
Vtina komunikanch kanl m konenou kapacitu penosu informace, tj. mru
schopnosti penet informaci menou v bitech za sekundu nebo bitech na symbol. Dky vynikajc teoretick
prci Shannona (r. 1948) se d ukzat, e pokud je
prmrn rychlost penosu informace men ne kapacita kanlu, je mon
vybrat
mnoinu signl (kdovch slov) takovou, e pravdpodobnost vskytu chyby pi
dekdovn bude libovoln mal. Nicm
n jakkoliv je tato teorie mocn, vsledek nevypovd nic o tom, jak tyto signly volit, ani zda je mon
je pomoc souasnch
technickch prostedk konstruovat.
37
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
38
Pouvn samoopravnch kd je pokusem ve uveden
dva probl
my obejt.
Ovem cel penos informace od zdroje a po zpracovn nen tak jednoduch, jak
znzor uje (obr.3.1). Sestv z komplexnjho sdlovacho syst
mu jednu takovou
monost nabz (obr.3.2).
vstup -
-
Vstup{bin.
Pevodnk
-
Bin.{bin.
Kodr
Modultor
?
Komunikan
kanl
vstup
Bin.{vstup
Pevodnk
Bin.{bin.
Dekodr
Demodultor
Obrzek 3.2: Konkrtn sdlovac systm.
Kod
ry (pevodnky) pevd znaky jedn
abecedy na znaky abecedy jin
. Obvykle
maj ob abecedy pomrn malou mohutnost { typick pevod me bt z destkov
do
dvojkov
soustavy. Modultor na vstupu pijm jednotliv
znaky a ke kad
mu znaku
vytv proudov impuls, kter vstupuje do kanlu. Tato operace s kadm znakem
zvl' je omezenm pi penosu informace a zpsob tak ztrtu kapacity kanlu.
Demodultor provd inverzn operaci. Ke kad
mu obdren
mu impulsu hled
znak tak, aby pravdpodobnost penosov
chyby byla co nejmen. A opt jako pi
modulaci, i zde individuln modulace zpsobuje ztrtu kapacity.
2 Diskr
tn kanl bez pamti
Ve sv
m nejirm smyslu lze komunikan kanl povaovat za ernou sk ku, kter
akceptuje etzce symbol ze vstupn abecedy /1 a vysl etzce symbol z vstupn
abecedy /2 .
Meme zejm tvrdit jen mlo o takov
to struktue. Omezme pozornost na diskrtn kanl bez pamti, kter je charakterizovn vstupn abecedou /1 = fa1 : : : amg,
vstupn abecedou /2 = fb1 : : : bng a matic P kanlu
1
0
p
p
p
:
:
:
:
:
:
p
1n;1
1n
11
12
BB p21 p22 : : : : : : p2n;1 p2n CC
B .
CC :
... : : : : : :
...
... C
P =B
BB ..
B@ pm;11 pm;12 : : : : : : pm;1n;1 pm;1n CCA
pm1 pm2 : : : : : : pmn;1 pmn
38
2. DISKRTN KAN
L BEZ PAMTI
39
Zpsob pouvn kanlu je nsledujc: kad posloupnost (u1 u2 : : : uN ) symbol ze vstupn abecedy /1 na vstupu se pevede na posloupnost (v1 v2 : : : vN ) t
e
d
lky symbol z vstupn abecedy /2 na vstup tak, e
P (vk = bj juk = ai) = pij (1 i m 1 j n)
a to nezvisle pro kad
k.
Implicitn je ve ve uveden
m obsaeno, e pro kad
i, 1 i m plat
X
pij = 1:
j
Matice P s nezpornmi hodnotami takov, e souet prvk v kad
m dku
je roven 1, se nazv stochastick matice v teorii nhodnch proces mluvme o
matici pechodu markovsk
ho etzce. Je asto uiten
reprezentovat kanl pomoc
diagramu, jako je tomu nap v nsl. pkladu.
Pklad 2.1 Binrn vypoutc kanl m vstupn abecedu /1 = f0 1g, vstupn
abecedou /2 = f0 1 g a matic P kanlu
!
1
;
"
0
"
P=
0 1;" " :
Diagram odpovdajc tomuto kanlu m tvar
q
1;" qqq
0 0
8
q
qq
qq
MM
MM
MM
MM
M
"
&
q
qq
qq
q
q
qq
"
1 8
LL
LL
L1L
LL
L
;"
&
1:
To odpovd situaci, pro kterou m kad symbol pravdpodobnost ", e se patn
penese a to na . Ale jak 1 tak 0 nelze navzjem zamnit.
Pklad 2.2 Nejpouvanj kanl v tomto modelu komunikace je binrn symetrick
kanl m vstupn abecedu /1 = f0 1g, vstupn abecedou /1 = f0 1g a matic P
kanlu
!
1
;
p
p
P=
p 1;p :
Diagram odpovdajc tomuto kanlu m tvar
39
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
40
0 1 1;p
LL
LL rrr
L
r
rL
LL
rr
L
rr 1
p
p
;p
/
8
&
/
0
1:
Jinak e
eno, to odpovd situaci, pro kterou m kad symbol x pravdpodobnost
p, e se patn penese a to na 1 ; x. )asto budeme pst q = 1 ; p bez dalho
komente.
Rozen diskr
tnch kanl bez pamti
Uvame diskr
tn kanl bez pamti se vstupn abecedu /1 , vstupn abecedou
/2 a matic P kanlu . r-t rozen tohoto kanlu je diskr
tn kanl bez pamti se
vstupn abecedu /(1r) , vstupn abecedou /(2r) a matic P (r) kanlu , kter je denovna
nsledovn:
Souadnice (i j ) matice P (r) odpovdajc vstupu
i = 1
2 : : : r
s k 2 /1 , a vstupu
s k 2 /2, je
j = 12 : : : r
(P (r) )ij = p(1 j
1)p(2j
2) : : : p(r j
r )
kde p(k j
k ) je pravdpodobnost, e v kanlu s matic P je obdren symbol k za
pedpokladu odesln k .
Pklad 2.3 Druh rozen binrnho symetrick
ho kanlu s matic P kanlu
P = pq qp
m tvar
0 q2
B qp
P2 = B
B@ pq
p2
qp
q2
p2
pq
pq
p2
q2
qp
!
p2 1 !
pq C
CC = qP pP :
qp A
pP qP
2
q
40
3. SPOJEN ZDROJE S KAN
LEM
41
Alternativn zpsob jak meme pemlet o r-t
extenzi je, e kanl C povaujeme za r kopi C operujcch nezvisle a paraleln dle ne uveden
ho.
C1
1 tt
2 tt
t
tt
t
ttt
t
JJ
JJ
JJ
JJ r
JJ
JJ
7
7
7
7
7
7
7
7 1
7
2
7
JJ
7
JJ
7
JJ2 7
JJ 77
JJ 7
JJ7
C
input
1 2 :::r
/
...
9
...
%
C
Cr
...
output
1 2 :::r
tt
tt
t
r tt
tt
t
tt
%
9
/
Cvien 2.4
1. Zprva sestvajc z N binrnch slic je penesena binrnm symetrickm kanlem majc pravdpodobnost chyby penosu p. Ukate, e o
ekvan po
et chyb je Np.
3 Spojen zdroje s kanlem
Uvame nsledujc situaci: mme zdroj bez pamti S , kter vysl symboly (zdrojov
slova) s1 : : : sN s pravdpodobnostmi p1 : : : pN .
Zdroj je spojen s binrnm symetrickm kanlem s pravdpodobnost chyby nsledovn:
Zdroj
si
/
Kdovac zazen do binrnho kdu
0 1;p
HH
HH
v
HH
HH
vv
HH vv
vH
vv HH
v
HH
vv
vv
v
1
v
/
0
p
/
1 p
;p
#
/
/
Dekdovac
zazen
1:
Budeme pedpokldat, e zakdovn do binrnho kdu probhne bez umu a e
zpsob zakdovn je znm dekdovacmu zazen.
Pedpokldejme pro jednoduchost, e N = 8 za symboly meme povaovat
nap. psmena abecedy, rzn
mny nebo cokoliv jin
ho. Efektivn (tj. kompaktn)
zakdovn ve smyslu pedchozho odstavce je pak
41
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
42
s1
s2
s3
s4
s5
s6
s7
s8
000
100
010
001
110
101
011
111:
Zprva je etzec zdrojovch slov si, kter jsou postupn zakdovan, penesen
a pak dekdovan. Tud, dle ve uveden
ho kdovacho sch
matu, je pravdpodobnost, e jist
slovo je sprvn peneseno, rovna q3 . Pravdpodobnost, e zprva o n
slovech je korektn penesena, je q3n.
Lze to prov
st l
pe? Odpov je samozejm ano, jinak bychom se vbec neptali.
Zajmav
otzky jsou (a) jak moc l
pe a (b) na nklady?
Pklad 3.1 Uvame ve uveden pklad s osmi stejn pravdpodobnmi zdrojovmi
s1
000000
slovy a pedpokldejme, e pouijeme zdvojen zakdovn nsledovn:
s2
s3
s4
s5
s6
s7
s8
100100
010010
001001
110110
101101
011011
111111:
Pokud dekdovac zazen pijme pravidlo, e bude pouze dekdovat v ppad, e
prvn ti symboly a druh ti symboly jsou toton, a jinak *zavol o pomoc+, pravdpodobnost, e se vyskytne chyba a zstane neobjevena, se drasticky redukuje. Zajist
budeme platit podstatnou cenu tm, e jsme snili pomr penosu faktorem 2. navc
se jedn o ist detek
n systm, kter nebude vyuiteln v ppad, e se dekdovac zazen neme kontaktovat s kdovacm zazenm a podat ho o znovuposln
slova, u kterho byla detekovna chyba.
Zbvajc st t
to kapitoly je vnovna zpsobu zskn dostaten
mry penosu
kanlu se umem bez pli velk
ho prodlouen zprvy.
Cvien 3.2 Jednoduch zpsob detekovn nejve jedn chyby je pout zazen
pidvajcho kontrolu parity, abychom mli zajitno, e sou
et sel v penenm
slov je sud. Tedy kontrola parity z ve uvedenho pkladu m tvar
s1
s2
s3
s4
s5
s6
s7
s8
0000
1001
0101
0011
1100
1010
0110
1111:
Ukate, e jestlie peneseme kd s kontrolou parity binrnm symetrickm kanlem, pravdpodobnost, e nen objevena chyba, je rovna 6p2 (1 ; p)2 + p4, kde p je
pravdpodobnost vskytu chyby pi penosu kanlem.
42
4. KDOV
N A DEKDOVAC PRAVIDLA
43
4 Kdovn a dekdovac pravidla
Bu dn kanl bez pamti se vstupn abecedou /1 = fa1 : : : am g a vstupn abecedou /2 = fb1 : : : bk g. Kd dlky n je libovoln syst
m C rznch posloupnost d
lky
n symbol ze /1 . Prvky z C se nazvaj kdov slova. Je-li dn kd d
lky n s kdovmi slovy c1 c2 : : : cN , dekdovac pravidlo je libovoln rozklad mnoiny monch
obdrench posloupnost do disjunktnch mnoin R1 R2 : : : RN se zejmou interpretac toho, e je-li obdren posloupnost y prvkem mnoiny Rj , je y dekdovno jako
kdov
slovo cj .
Formln vzato, pedpokldme-li, e kd C neobsahuje nap. symbol "?" jakoto
kdov
slovo, rozhodovac (dekdovac) pravidlo pro kd C je funkce f : /n2 ! C f?g. Aplikaci dekdovacho pravidla nazvme dekdovn. Je-li y (obdren
) slovo v
/n2 , pak rozhodovac pravidlo dekduje y jakoto kdov
slovo f (y) nebo v opan
m
ppad nahls dekdovac chybu, jestlie f (y) =?.
Vbr dekdovacho pravidla je podstatn k spchu kad
ho komunikanho syst
mu. Jako extr
mn pklad je snadn
zkonstruovat dekdovac pravidlo, kter
zcela
zni bezchybnost kanlu bez umu.
Pklad 4.1 Pedpokldejme, e mme zdroj s prv dvma zdrojovmi slovy s1 a s2 ,
kter meme zakdovat pro penos binrnm symetrickm kanlem jako
s1 7! 000 = c1 s2 7! 111 = c2 :
Mme pak osm monch obdrench zprv. Mon dekdovac pravidlo by mohlo bt
dekdovat zprvu jako s1, pokud obsahuje vce nul ne jedni
ek. Mn citliv pravidlo
by mohlo bt dekdovat zprvu jako s1, pouze kdy obdren zprva byla 000. A priori,
kad z tchto pravidel m stejnou vhu, i s pravidlem: dekdujte kad obdren slovo
jako s1 !
Na snahou bude najt dekdovac pravidlo, kter
maximalizuje pravdpodobnost
sprvn
ho dekdovn tj. pravdpodobnost, e x = f (y) je opravdu to kdov
slovo c,
kter
bylo odeslno. Poznamenejme, e pjemce nem dnou monost zjistit, zdali
dekdovac proces opravdu dekdoval sprvn.
Pravdpodobnost sprvn
ho dekdovn lze vyjdit mnoha zpsoby. Pouijeme-li
napklad formuli pln
pravdpodobnosti, obdrme nsledujc dva vztahy:
X
P (sprvn
dekdovnjc odeslno)P (c odeslno)
(3.1)
vztahujeme-li podmnku na mnoinu kdovch slov resp.
P (sprvn
dekdovn) =
c2C
43
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
44
X
P (sprvn
dekdovn) =
y2n2
P (sprvn
dekdovnjy obdreno)P (y obdreno)
(3.2)
/n.
vztahujeme-li podmnku na mnoinu slov ze 2
Poznamenejme, e vztah (3.1) explicitn obsahuje pravdpodobnosti P (c odeslno),
e rzn kdov slova byla poslna pomoc kanlu. Tyto pravdpodobnosti nejsou nic
jin
ho ne pravdpodobnosti zdroje C . Mluvme pak o vstupnm rozdlen kanlu. Pitom (3.2) rovn obsahuje vstupn rozdlen, protoe pravdpodobnost, e dan
slovo
y je obdreno, obvykle zvis na tom, kter
kdov
slovo bylo odeslno.
Nech' f je dekdovac pravidlo pro kd C . Je-li odeslno kdov
slovo c, pak
sprvn
dekdovn nastane prv tehdy, kdy f (y) = c pro obdren
slovo y. Plat
tedy
P (sprvn
dekdovnjc odeslno) =
X
yf (y)=c
P (y obdrenojc odeslno):
(3.3)
Provedeme-li substituci do (3.1), obdrme
P (sprvn
dekdovn) =
X
c2C yf (y)=c
P (y obdrenojc odeslno)P (c odeslno): (3.4)
Tato dvojnsobn suma nen vak vdy zcela phodn. Pitom vztah (3.2) nm
podv vhodnj nvod, jak obdret dobr
dekdovac pravidlo. Podle dekdovacho
pravidla f je obdren
slovo y dekdovno sprvn, jestlie odesln
slovo bylo f (y).
Plat tedy
P (sprvn
dekdovnjy obdreno) = P (f (y)odeslnojy obdreno)
(3.5)
a pitom se ve ve uveden
m vrazu nevyskytuje dn suma. Dosame do vztahu
(3.2). Pak mme
P (sprvn
dekdovn) =
X
y2n2
P (f (y) odeslnojy obdreno)P (y obdreno): (3.6)
Pravdpodobnost sprvn
ho kdovn lze maximalizovat tm, e budeme postupovat podle takov
ho dekdovacho pravidla, kter
maximalizuje kadou z podmnnch
pravdpodobnost
P (f (y) odeslnojy obdreno):
44
4. KDOV
N A DEKDOVAC PRAVIDLA
45
Jinak eeno, za pedpokladu, e jsme obdreli y, rozhodneme se tak, e kdov
slovo, kter
bylo poslno, je to nejpravdpodobnj, kter
mohlo bt odeslno. To jde
konkr
tn zajistit tak, e se prochzme zptnmi kanlovmi pravdpodobnostmi
P (c1 odeslnojy obdreno) : : : P (cN odeslnojy obdreno)
a vybereme kdov
slovo ci s nejvt pravdpodobnost.
Toto pravidlo se nazv pravidlo idelnho pozorovatele neboli pravidlo minimln
chyby. Nicm
n, pepis tchto podmnnch pravdpodobnost nm ukazuje, e tyto
podmnn
pravdpodobnosti nelze pout bez znalosti pravdpodobnost vskytu
kdovch slov cj . Mme toti podle Bayesovy vty:
P (c odeslnojy obdreno) = PN P (y obdrenojc odeslno)P (c odeslno) : (3.7)
k=1 P (y obdrenojck odeslno)P (ck odeslno)
V praxi je to vn nevhoda. Toti, abychom urili dekdovac funkci, musme
znt s jakou pravdpodobnost jsou kdov slova poslna pomoc kanlu tj. musme
znt jistou informaci o zprv, co nen zrovna vdy mon
.
Toto, spolen se skutenost, e nen snadn
toto pravidlo aplikovat v ppad, kdy
mme velk poet kdovch slov, oprav uje uit nsledujcho pravidla nazvan
ho
pravidlem maximln pravdpodobnosti (maximum-likelihood (ML)). Toto pravidlo
dekduje kad obdren vektor y do kdov
ho slova cj tak, e maximalizuje
P (y obdrenojcj odeslno):
(3.8)
Pro ty, kte jsou obeznmeni s odhady maximln pravdpodobnosti ve statistice,
je analogie zejm.
Za pedpokladu nedostatku informace o pravdpodobnostech rznch kdovch
slov mme nsledujc:
Maj-li kdov slova stejnou pravdpodobnost, pak pravidlo maxi(3.9)
mln pravdpodobnosti splv s pravidlem idelnho pozorovatele.
Dkaz je snadn. Toti plat P (c odeslno) = N1 . Tedy plat dle (3.7)
P (c odeslnojy obdreno) = PNP (y obdrenojc odeslno) :
(3.10)
k=1 P (y obdrenojck odeslno)
Odtud pak mme, e maximum na prav
stran obdrme prv tehdy, kdy budeme mt maximum na lev
stran.
Hammingova vzdlenost
45
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
46
V hlavn sti t
to pednky budeme pracovat s binrnm symetrickm kanlem.
Pro tento kanl m pravidlo maximln pravdpodobnosti obzvl' snadnou implementaci.
Nech' Vn oznauje mnoinu vech posloupnost d
lky n sloench z nul a jedniek
a, pokud to bude nutn
, povaujme Vn za vektorov n-dimenzionln prostor nad
tlesem celch sel modulo 2. Jsou-li x a y vektory z Vn, denujme Hammingovu
vzdlenost d(x y) mezi x a y jako poet mst, ve kterch se x a y li.
Pro binrn symetrick kanl je pirozenm dekdovacm pravidlem pravidlo minimln vzdlenosti, toti: dekdujme kad obdren vektor y do kdov
ho slova cj ,
e kter
m kdov
slovo c, je m minimln Hammigovu vzdlenost od y: pokud je
vcero takovch slov, vybereme cj libovoln.
P (y obdrenojcj odeslno):
(3.11)
Nsledujc snadn vsledek nm tvrd:
Vta 4.2 Pro binrn symetrick kanl s pravdpodobnost chyby p 21 je dekdovac
pravidlo minimln vzdlenosti ekvivalentn k pravidlu maximln pravdpodobnosti.
Dukaz. Pro vechny vektory x a y z Vn s vlastnost d(x y) = d plat
P (y obdrenojx odeslno) = pdqn;d:
Pokud p < 12 , tento vraz nabv maxima, je-li d minimln. To ale zejm sta k
tomu, e pevn
slovo y dekdujeme jako to kdov
slovo, kter
m nejmen vzdlenost
od slova y. Obrcen, vezmeme-li jako rozkdovn pevn
ho slova y kdov
slovo
minimln vzdlenosti, je ve uveden pravdpodobnost maximln.
Cvien 4.3
1. Nech( kd sestv ze ty kdovch slov c1 = 1000, c2 = 0110, c3 = 0001 a
c4 = 1111. Pravdpodobnosti vskytu tchto kdovch slov jsou dny jako
P (c1) = P (c2) = 31 P (c3 ) = P (c4 ) = 61
Pouvte-li pro penos binrn symetrick kanl s pravdpodobnosti chyby 101 a
obdrte na vstup vektor 1001, jak by jste se rozhodoval pi
(a) pouit pravidla idelnho pozorovatele,
(b) pouitm pravidla maximln pravdpodobnosti?
2. Dokate tvrzen 3.9 tj. e v ppad, e vechna kdov slova stejnou pravdpodobnost, pravidlo maximln pravdpodobnosti splv s pravidlem idelnho
pozorovatele.
46
5. KAPACITA KAN
LU
47
5 Kapacita kanlu
Jak u napovd jm
no, kapacita komunikanho kanlu je mra jeho schopnosti penet informaci. Formln denice je motivovna ne uvedenm:
Pedpokldejme, e mme diskr
tn kanl bez pamti se vstupn abecedou /1 =
fa1 : : : amg, vstupn abecedou /2 = fb1 : : : bng a matic P kanlu
P = -pij ] = P (bj obdrenojai odeslno):
Pidme-li k tomuto kanlu zdroj S bez pamti, kter vysl symboly a1 : : : am
s pravdpodobnostmi p1 : : : pm pak vstup kanlu meme povaovat za zdroj J
bez pamti, kter vysl symboly b1 : : : bn s pravdpodobnostmi q1 : : : qn kde
m P (b obdrenoja odeslno)P (a odeslno)
qj = P
j
i
i
i=1
P
= mi=1 pipij :
Informace o S podan pomac J , denovan v kapitole 1, je rovna
I (SjJ ) = H (S ) ; H (SjJ ) = H (S ) + H (J ) ; H (S J )
a je to funkce, kter zvis pouze na pravdpodobnostnm rozdlen p1 : : : pm a
matici kanlu P . Je proto pirozen
denovat kapacitu C kanlu jako
C = sup I (SjJ )
(3.12)
kde supremum je brno pes vechny zdroje bez pamti S , nebo, jet pesnji, nad
vemi monmi rozdlenmi pravdpodobnost (p1 : : : pn).
Nejdve si pipome me, e C je dobe denovno v tom smyslu, e pouze hledme
supremum funkce f (p), kde f je spojit funkce na uzaven
a ohranien
podmnoin
mnoiny Rm a dle zkladn vty analzy m f maximum v njak
m bod. Meme
tedy 3.12 pepsat jako
C = max I (SjJ )
(3.13)
Dle si uvdomme, e C je kvantitativn veliina uren pouze matic kanlu P .
Meme ji zhruba povaovat za konduktanci odporu v teorii elektrickch obvod. Jej
jednotky jsou pak jednotky informace nebo entropie, toti bity za sekundu nebo
bity na symbol v zvislosti na kontextu.
Ukame pklad, jak lze najt kapacitu kanlu.
Vta 5.1 Kapacita binrnho symetrickho kanlu s pravdpodobnost chyby penosu
p je ur
ena vztahem
kde q = 1 ; p.
C (p) = 1 + p log p + q log q
47
(3.14)
48
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
Dukaz. K usnadnn oznaen pedpokldejme, e zdroj S emituje 0 s pravdpodobnost a 1 s pravdpodobnost = 1 ; . Pak vstup J m rozdlen
0 s pravdpodobnost q + p 1 s pravdpodobnost q + p:
Je tedy H (S J ) prv entropie rozdlen (
q p q q). Po jednoduch
prav
I (SjJ ) = p log p + q log q ; (
q + p) log(
q + p)
;(
p + q) log(
p + q)
:
Derivujme dle . Pak obdrme, e I (SjJ ) m maximum v ppad, e =
obdrme pak 3.14.
1
2
a
Poznamenejme, e kapacita m oekvan
vlastnosti { C (p) je monotonn funkce
p, 0 p 21 , a
C (0) = 1 C ( 21 ) = 0
co odpovd intuici, e, pokud p = 12 , kanl se stane dokonalm ruiem, ale e,
pokud p = 0, mme dokonal penos.
Zjitn kapacity obecnch kanl je netriviln zleitost. V ppad, e kanl
nem njakou speciln vlastnost nebo nen odvozen z kanlu, jeho kapacita je znma,
jedin zpsob, jak meme vypotat kapacitu, je vyeen probl
mu optimalizace s
omezenmi, a to zejm
na metodou Lagrangeovch multipliktor.
Pkladem prvn z tchto technik je nsledujc vsledek.
Vta 5.2 M-li kanl S bez pamti kapacitu C , m jeho r-t rozen S (r) kapacitu
rC .
Dukaz. Ozname jako C (r) kapacitu r;t
ho rozen tak, e
C (r) = supX H (X) ; H (XjY)
(3.15)
kde X = (X1 : : : Xr ) a Y = (Y1 : : : Yr ) jsou vstupn a vstupn dvojice. Mme ale
H (X) ; H (XjY) = H (Y) ; H (YjX):
(3.16)
a
H (YjX) =
X
x
p(x)H (YjX = x):
Protoe se jedn o kanl bez pamti, mme
H (YjX = x) =
X
i
H (YijX = x) =
48
X
i
H (YijXi = xi ):
6. VTA O KDOV
N SE UMEM
Zejm
na
Tedy
49
H (YjX)=P
p(x)H (YijXi = xi )
xP
P
= i u H (YijXi = u) P (Xi = u):
H (YjX) =
Obecn plat
r
X
i
H (YijXi):
(3.17)
H (Y) H (Y1) + : : : + H (Yr )
a tedy celkem C (r) rC . Pipome me, e rovnost nastv prv tehdy, kdy Y1 : : : Yr
jsou nezvisl. Toho lze doshnout tm, e zvolme X1 : : : Xr jako nezvisl
a vybrnm rozdlen, pi kter
m bylo dosaeno kapacity C kanlu.
Cvien 5.3
1. Vypo
tte kapacitu binrnho vypoutcho kanlu s pravdpodobnost chyby ".
2. Uvaujeme-li kanl bez pamti s matic
3
2
1 0
64 0 1 75 0 1
ukate, e kapacity lze doshnout vce ne jednm rozdlenm na vstupu. Ukate,
e rozenm 2. du meme doshnout kapacity pomoc rozdlen na vstupu,
kte nen sou
inem rozdlen na vstupu pvodnho kanlu.
(Feinstein, 1958)
6 Vta o kdovn se umem
Ji dve jsme vidli, e meme doshnou libovoln velk
spolehlivosti pouze dostaten astm opakovnm kad
ho zdrojov
ho symbolu. Zejm je tato metoda velmi
asov nron a hlavnm elem tohoto odstavce je dokzat pekrsn
tvrzen C.
Shannona (1948), kter
tvrd, e za pedpokladu, e rychlost (mra) penosu je pod
kapacitou kanlu, lze doshnout libovoln velk
spolehlivosti. Budeme se koncentrovat
na binrn symetrick kanl. Tyto mylenky lze rozit na podstatn komplikovanj
kanly, ale dleitj je pln porozumt nosnm principm, ne se obklopit matematickmi detaily.
Bu dn kd C a dekdovac sch
ma pro C . Pravdpodobnost chyby e(C ) je obvykle
denovan jako prmrn pravdpodobnost chyby za pedpokladu, e vechna kdov
49
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
50
slova byla vyslna se stejnou pravdpodobnost. Jinak eeno, mme-li M kdovch
slov c1 : : : cM z C , pak plat
M
X
e(C ) = 1 P (nastala chybajci bylo peneseno):
M i=1
V ppad binrnch kd meme pedpokldat, pokud nebude jinak uvedeno, e
pouvme dekdovac pravidlo maximln pravdpodobnosti (=pravidlo minimln
vzdlenosti), a tud se asto budeme odvolvat na pravdpodobnost chyby kdovn
bez specick
ho pipomenut dekdovacho pravidla.
Zejm je pedmtem pkladu najt kdy s malou prmrnou pravdpodobnost
chyby. Avak, podstatn silnjm poadavkem je, e maximln pravdpodobnost
chyby je mal. Jak lze oekvat, ta je denovna jako
^e(C ) = maxiP (nastala chybajci bylo peneseno)
a evidentn
^e e:
Pedpokldejme proto, e mme binrn symetrick kanl s pravdpodobnost
chyby p a tud kapacitou C urenou
C = C (p) = 1 + p log p + (1 ; p) log (1 ; p):
Dokame nsledujc verzi Shannonovy vty o kdovn se umem.
Vta 6.1 Shannonova vta o kdovn se umem Bu dn binrn symetrick
kanl kapacity C a libovoln R, 0 < R < C . Pak pro kadou posloupnost (Mn : 1 n < 1) pirozench sel splujcch
1 Mn 2Rn (1 n < 1)
a vechna kladn " > 0, existuje posloupnost kd (C n : 1 n < 1) a pirozen slo
N0 (") tak, e C n m Mn kdovch slov dlky n a maximln pravdpodobnost chyby
^e(C n) "
pro vechna n N0 (").
Jakm zpsobem funguje tato vta. Pedpokldejme, e pravdpodobnost chyby
takov
hoto kanlu je takov, e kapacita kanlu C (p) = 0:8. Pak, je-li nae zprva
etzec nul a jedniek, vme, e pro dostaten velk
n, polome-li R = 0:75, existuje
mnoina 20:75n kdovch slov d
lky n, kter maj pravdpodobnost chyby men ne
libovoln pedem pedepsan hranice. Tud, abychom zakdovali zprvu ze zdroje,
postup je nsledujc:
50
6. VTA O KDOV
N SE UMEM
51
(a) Rozdlte zprvu do blok d
lky m, piem m je takov
, e 3d n4 e = m N0 ("):
(b) Zakdujte kad z tchto m-blok do kdu C n tak, e pouijete kdov
slovo
d
lky 43m pro kad m-blok.
(b) Peneste nov zakdovanou posloupnost kanlem.
&eho jsme doshli? Podstatn
redukce pravdpodobnosti chyby. Na nklady?
Komplexnosti zakdovn a men mry penosu: zrove vak bohuel doposud neznm
zakdovn. Sla Shannonovy vty spov v tom, e existuj takov
to kdy.
Dkaz Shannonovy vty, kter chceme prov
st ne, zvis na dvou nerovnostech
{ z nch prvn je velmi dobe znma { jej dkaz lze najt v kad
m elementrnm
textu z teorie pravdpodobnosti.
ebyevova nerovnost
Je-li X libovoln nhodn promnn tak, e m konenou variaci (odchylku) var(X ),
pak pro kad
a > 0 mme
P (jX ; E (X )j a) var(X )=a2:
(3.18)
Druh nerovnost je m
n znm a m rovn pravdpodobnostn interpretaci lze
ji vyslovit nsledovn.
Omezen nerovnost
Pro vechna , 0 21 , plat
bX
nc n !
k=0
nh()
k 2 (3.19)
kde h() = ;- log + (1 ; ) log (1 ; )].
Dukaz. Let m = bnc. We put 0 = mn . Then 0 < 0 + n1 . Assume > 0 0,
" = ; 0 > 0. Then
2nh() = 2;n0 log +(1;0 ) log (1;)] 2;n" log ;" log (1;)]
2;n0 log 0 +(1;0 ) log (1;0 )] 2n" log 1;
2nh(0 ) 2n" log 1; 2nh(0 ) 2log 1;
2nh(0 ) 1; 2nh(0 )
51
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
52
Meme tedy bez jmy na obecnosti pedpokldat, e bylo vybrno tak, e n
je pirozen
slo. Pak meme pst
1 = - + (1 ; )]n
Tud
!
n k
n;k
k=0 k (1 ; )
! n
P
n
n
(1 ; ) k=0 nk 1;
!
n
n
n
(1;) Pn
= (1 ; )
k=0 k :
Pn
n n !
X
n(1 ; )n(1;) = 2nh() k
k=0
logaritmujeme-li pi zkladu 2 a pak znovu umocnme.
Dkaz vty o kdovn se umem
Nejprve popime hrub smr dkazu. Zvolme si pevn
pirozen
slo n, a pro
dan okamik, pracujme s binrnmi kdy ve Vn. Pedpokldejme, e se pokoume
najt kd s M kdovmi slovy ci 2 Vn. Vybereme ta kdov slova ci trochu blznivou
metodou vybrnm vektor z Vn nhodn a nezvisle na i, (1 i M ). Tomuto
kdovn kme nhodn kdovn.
Budeme kdovat nsledujcm zpsobem: zvolme r > 0 a nech' Sr (y) denuje
r-sfru se stedem y, tj.
Sr (y) = fz : z 2 Vn d(y,z) rg:
Pak, je-li y obdren vektor, meme dekdovat y jako kdov
slovo cj , je-li cj
jedin
kdov
slovo v Sr (y) jinak budeme dekdovat y jako libovoln
jin
kdov
slovo, nap. c1 .
Zanme nyn s vlastnm dkazem. Nech' Y je vektor, kter obdrme, kdy je
peneno kdov
slovo c a E bu udlost, e nastala chyba. Pitom chyba me
nastat prv tehdy, kdy bu
(a)
d(c Y) > r
nebo
(b)
d(c Y) r a d(c' Y) r pro njak
jin
kdov
slovo c'.
Ozname po ad A a B udlosti popsan
(a) a (b). Pak E = A B a tud
P (E ) = P (A B ) P (A) + P (B ):
Uvame udlost B . ta nastane, pokud plat zrove
(i) Ne vce ne r chyb nastalo pi penosu
52
6. VTA O KDOV
N SE UMEM
53
(ii) jedno z kdovch slov rznch od c je ve vzdlenosti nejve r od obdren
ho
vektoru Y.
Ozname-li po ad tyto udlosti B1 a B2 , mme pak, protoe B = B1 \ B2 ,
P (B ) P (B2):
(3.20)
Uvame nyn B2 protoe kdov slova jsou vybrna nhodn, pravdpodobnost,
e ci m vzdlenost men nebo rovnu r od Y je Nr (n)=2n, kde
r n!
X
Nr (n) =
(3.21)
k=0 k
je poet vektor z Vn, kter
le v Sr (y). Tud pravdpodobnost, e alespo jedno ze
zbvajcch M ; 1 kdovch slov (rznch od c) m vzdlenost men nebo rovnu r
od obdren
ho slova Y spl uje
r n!
X
M
;
1
P (B2) 2n
:
(3.22)
k=0 k
Polome tud, pro vechna " > 0,
r = bnp + n"c
jakoto maximln cel
slo ne vt ne np + n", obdrme pak z 3.20, 3.21, 3.22 a
omezen
nerovnosti, e
nh(p+"):
P (B ) M
(3.23)
2n 2
Vnujme se nyn druh
mu typu chyb zpsoben
mu jevem A. Poznamenejme, e, je-li
U (nhodn) poet chybnch symbol vzniklch pi penosu kdov
ho slova c, pak
mme
P (A) = P (U > r)
a U je nhodn promnn s binomilnm rozdlenm s parametry n a p. Tud
P (A) = P (U > np + n") P (jU ; npj > ")
var(U )=n2 "2
dle &ebyevovy nerovnosti.
Protoe U je nhodn promnn s binomilnm rozdlenm, mme
var(U ) = npq
a tedy pln pravdpodobnost chyby je
pq + M 2;n1;h(p+")]:
P (E ) n"
2
53
54
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
pro dostaten velk n. Protoe kapacita C (p) = 1 ; h(p + "), mme pak
pq + M 2;nC (p+"):
P (E ) n"
2
Protoe " > 0, lze pravdpodobnost chyby zvolit libovoln malou pro dostaten
velk
n, za pedpokladu, e M jakoto funkce n, neroste rychleji ne 2nC (p) .
Dokzali jsme tedy vtu o kdovn se umem a na to, e jsme omezeli prmrnou
pravdpodobnost chyby a ne maximln pravdpodobnost chyby. K dokonen dkazu
potebujeme dokzat, e existuj kdy C n s Mn kdovmi slovy, kde Mn 2Rn a
majc maximln pravdpodobnost chyby < ". Polome proto "0 = 21 " a Mn0 = 2Mn.
Poznamenejme, e protoe Mn 2Rn a R < C , mus existovat R0 tak, e R < R0 < C ,
a N00 tak, e pro vechna n N00 plat
Mn0 2nR0
a tud existuje posloupnost kd C 0n tak, e C 0n m Mn0 kdovch slov a prmrnou
pravdpodobnost chyby < "0 pro n N00 .
Jsou-li x1 : : : xM kdov slova z C 0n, znamen to, e
Mn0
X
i=1
P (E jxi) "0Mn0 :
Tedy alespo polovina tchto kdovch slov xi mus spl ovat
P (E jxi) 2"0 = ":
(3.24)
Bu C n kd sestvajc z Mn kdovch slov spl ujcch 3.24 pak mme n poadovan kd s maximln pravdpodobnost ".
Shannonovu vtu lze rozit i pro obecn
kanly bez pamti s libovolnou vstupn
a vstupn abecedou. Hlavn mylenka dkazu se nemn, toti
(a) zakdujme zprvy nhodn,
(a) dekdujme procedurou maximln pravdpodobnosti.
Technick
obte jsou zpsobeny zejm
na obecnm tvarem kapacity kanlu, pokud
se nejedn o symetrick kanl. Ppadn zjemce me najt pln dkaz (ve skutenosti dva) pro tuto obecnou situaci v lnku Ashe (1965) nebo Gallagera (1968).
Mli bychom se t
zmnit o dleitosti zlepen hranic pravdpodobnosti vzniku
chyby. V naem dkazu nahoe ns pouze zajmalo to, e pravdpodobnost nastn
chyby lze doshnout libovoln malou. K tomuto probl
mu existuje bohat a dostaten technick literatura.
Napklad nsledujc silnj vsledek pinle Shannonovi (1957).
54
7. KAPACITA JAKO HRANICE SPOLEHLIV KOMUNIKACE
55
Vta 6.2 Bu dn diskrtn kanl bez pamti kapacity C a libovoln R, 0 < R < C .
Pak existuje posloupnost kd (C n : 1 n < 1) tak, e:
(a) C n m b2Rn c kdovch slov dlky n
(b) maximln pravdpodobnost chyby ^e(C n ) kdovn C n spluje
^e(C n) Ae;Bn pi
em A a B zvis pouze na kanlu a na R.
Jinak eeno, neexistuj pouze dobr
kdy, ale navc existuj kdy, jejich pravdpodobnost chyby kles exponenciln.
Dkaz tohoto tvrzen pesahuje rmec pednky.
Cvien 6.3
1. Binrn symetrick kanl majc pravdpodobnost chyby penosu
p = 0:05 me penst 800 binrnch slic za sekundu. Kolik bit me penst
bez chyby za sekundu?
2. Binrn symetrick kanl s fyzikln kapacitou penosu 800 slic za sekundu
me penst 500 slic za sekundu s libovoln malou pravdpodobnost chyby.
Co nm to vypovd o pravdpodobnosti chyby tohoto kanlu?
7 Kapacita jako hranice spolehliv
komunikace
Pedpokldejme, e mme diskr
tn kanl bez pamti o kapacit C bit. Pedpokldejme, e tento kanl m mechanickou rychlost jednoho bitu za sekundu. Dokeme
nyn obrcen Shannonovy vty tm, e ukeme nemonost pesn
informace rychlost
vy nebo rovn
ne je C bit za sekundu. Pesnji, dokeme nsledujc zkladn
vsledek.
Vta 7.1 Pro kanl bez pamti o kapacit C a pro kad R > C neexistuje posloupnost kd (C n : 1 n < 1) tak, e: C n m 2Rn kdovch slov dlky n a pravdpodobnost chyby e(C n) kdovn C n konverguje k nule pro n ! 1.
Ve skutenosti Wolfowitz v roce 1961 dokzal mnohem silnj vsledek { toti, za
stejnch podmnek, maximln pravdpodobnost chyby konverguje k 1 pro n ! 1.
My vak ukeme slab verzi, abychom dokzali, e Shannonova vta je nejlep
mon. Pro dkaz vty potebujeme nsledujc lemmata.
Lemma 7.2 Bu U V W nhodn vektory. Pak plat
H (UjV) H (UjV W) + H (W):
55
56
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
Dukaz. Mme dle zkladn identity, e
H (UjV) = H (U V) ; H (V)
= H (U V W) ; H (WjU V) ; H (V)
H (U WjV)
protoe entropie je nezporn. Ale zrove
H (U WjV) = H (U V W) ; H (V W) + H (V W) ; H (V)
= H (UjV W) + H (WjV)
H (UjV W) + H (W)
co se mlo dokzat.
Lemma 7.3 Fanova nerovnost Bu C kd s M kdovmi slovy fc1 : : : cM g pro
dan kanl bez pamti. Bu X nhodn vektor nabvajc hodnoty v mnoin kdovch slov. Nech( Y obsahuje nhodn vektorov vstup, v ppad, e X je peneseno
kanlem a dekdovno. Pak, je-li pE pravdpodobnost chyby (toti pE = P (X =
6 Y)),
mme
kde qE = 1 ; pE .
H (XjY) H (pE qE ) + pE log (M ; 1)
(3.25)
Dukaz. Denujme novou nhodnou promnnou Z jakoto
(
X=Y
Z = 01 pokud
pokud X =
6 Y:
Je tedy speciln entropie nhodn
promnn
Z rovna H (pE qE ). Uvame nyn
uspodanou dvojici (Y Z ). Zejm pak
H (Xj(Y Z ) = (y 0)) = 0:
Zrove , pokud (Y Z ) = (y 1), je nhodn promnn X rozloena mezi (M ; 1)
kdovmi slovy, kter nejsou rovna y.
Zejm
na tedy
H (Xj(Y Z ) = (y 1)) log2 (M ; 1):
a
H (Xj(Y Z )) = Py H (Xj(YPZ ) = (y 1)) P ((Y Z ) = (y 1))
log2(M ; 1) y P ((Y Z ) = (y 1))
pE log2 (M ; 1):
Polome pak U = X, V = Y a W = Z . Z lemmatu 7.2 mme Fanovu nerovnost.
56
7. KAPACITA JAKO HRANICE SPOLEHLIV KOMUNIKACE
57
Dkaz vty 7.1
Pedpokldejme, e takovto posloupnost kd existuje. Uvame pak nhodn
vektor X, kter nabv hodnot v kdu Cn tak, e pokud polome R = C + ", " > 0,
mme
H (X) = n(C + "):
Protoe kapacita kanlu je C , mme pak pro kdov slova d
lky n, e odpovdajc
kapacita rozen bez pamti je nC a tedy, ozname-li Y nhodn vektor vstupu
odpovdajc vstupnmu nhodn
mu vektoru X, mme nerovnost
H (X) ; H (XjY) nC
take
n" = n(C + ") ; nC H (XjY):
Aplikujeme-li Fanovu nerovnost, pak z toho, e mme dle pedpokladu 2n(C +")
kdovch slov, je
n" H (XjY) H (pE qE ) + pE log (M ; 1) H (pE qE ) + pE n(C + ")
tj.
n" ; H (pE qE ) p :
E
n(C + ")
Nechme-li n konvergovat k nekonenu, pak zcela jist pE nekonverguje k nule.
Tedy takovto posloupnost kd Cn neme existovat.
Problmy 3.1
1. V binrnm symetrickm kanlu s pravdpodobnost chyby >
0, kdovn sestv ze dvou kdovch slov 000 a 111. Zjistte pi pouit pravidla
maximln pravdpodobnosti pravdpodobnost chyby.
2. Trhlinov chyba (burst error) dlky k sestv z posloupnosti k symbol, kter
byly vechny peneseny nesprvn. Najdte o
ekvan po
et trhlinovch chyb
dlky k, pokud je zprva dlky N penesena binrnm symetrickm kanlem s
pravdpodobnost chyby p.
3. Nech( kd pro penos binrnm symetrickm kanlem, kter m pravdpodobnost
chyby " > 0, sestv ze vech ptic nad mnoinou f0 1g, kter obsahuj prv
dv jedni
ky. Jak je pravdpodobnost, e kdov slovo 11000 se dekduje na
slovo 10001, pokud aplikujeme pravidlo minimln vzdlenosti?
57
KAPITOLA 3. KOMUNIKACE KAN
LY SE UMEM
58
4. Mjme N binrnch symetrickch kanl, kad s pravdpodobnost chyby p,
spojench do srie. Ukate, e celkov kapacita tohoto nov vzniklho kanlu je
ur
ena vztahem
CN = 1 + pN logpN + qN logqN kde pN = 21 -1 ; (q ; p)N ], qN = 1 ; pN .
5. Uvame dva diskrtn kanly bez pamti o kapacitch C1 a C2 tak, e oba maj
vstupn abecedu /1 a vstupn abecedu /2 . Souinem kanl je kanl, jeho
(2)
vstupn abeceda je /(2)
1 a vstupn abeceda /2 , pi
em kanlov pravdpodobnosti jsou ur
eny vztahem
p(y1y2jx1 x2 ) = p1(y1jx1 )p2(y2jx2 )
kde pi(yijxi) je pravdpodobnost, e jsme obdeli etzec yi, pokud jsme odeslali
etzec xi prostednictvm i-tho kanlu. Dokate, e kapacita C sou
inu kanl
je ur
ena vztahem (Shannon 1957)
C = C1 + C2:
6. Zdroj bez pamti S je spojen ke kanlu C1 o kapacit C1 a vsledn vstup S1
je vstup ke kanlu C2 o kapacit C2 (viz ne uveden diagram).
/
Zdroj
S
Diskr
tn kanl
o kapacit C1
S1
/
Diskr
tn kanl
o kapacit C2
Ukate, e plat
I (SjS2 ) I (SjS2 ) a I (SjS2 ) I (S1jS2 ):
58
S2
/
Kapitola 4
Kdy opravuj
c
chyby
1 Kdovn a odhady
Pipome me si nsledujc pedpoklady pro kdovn. Zdroj vytv zprvu, kter
sestv z posloupnosti zdrojovch symbol a tato zprva je penesena k pjemci pes
kanl s monou chybou. Pitom lze bez jmy na obecnosti pedpokldat, e kanl
m stejnou abecedu / jak na vstupu tak na vstupu. Kd C nad abecedou / je
soubor posloupnost symbol ze /, prvky z C se nazvaj kdov slova . Budeme
pedpokldat, e vechna kdov slova maj stejnou d
lku. Takov
to kdy se nazvaj
blokov kdy a pi jejich pouit je dekdovn podstatn snaz. Pokud maj kdov
slova z C d
lku n a j/j = q, pak mluvme o q-rnm kdu d
lky n (binrnm kdu,
pokud q = 2).
Zakdovn zdrojov
zprvy nen nic jin
ho ne piazen kad
k-dlouh
sekvenci
znak nad zdrojovou abecedou / jedno kdov
slovo z C .
Bhem samotn
ho dekdovn se pijat sekvence rozlen na bloky d
lky n a
kad se zpracovv samostatn. Jeliko pijat
n-bloky mohou mt dky chybm pi
penosu obecn jinou podobu ne vyslan kdov slova, mus dekod
r rozhodovat,
kter
slovo bylo vyslno. Pokud je kd dobe navren, je pravpodobnost patn
ho
rozhodnut mnohem men ne pravdpodobnost, e libovoln kdov znak je chybn
penesen.
Proces rozhodovn me bt denovn pomoc dekdovac tabulky. Kdov slova
tvo prvn dek tabulky. Pokud jsme obdreli kdov
slovo, je logick
pedpokldat,
e i stejn
slovo bylo vyslno. Rozhodovac pravidlo pro zbyl mon pijat slova je
dno rozdlenm tchto slov do seznam pod kadm kdovm slovem, podle kter
ho
se tato pijat slova budou dekdovat. Tedy, kad
slovo d
lky n nad abecedou / se
objev v tabulce prv jednou.
Denice. Bu u v pirozen sla. *ekneme, e kd C ur
u chyb, jestlie, pokud
kad
kdov
slovo zmnme alespo na jednom a ne vce ne u mstech, nebude
59
KAPITOLA 4. KDY OPRAVUJC CHYBY
60
vsledn etzec kdov
slovo. *ekneme, e kd C ur
prv u chyb, jestlie ur u
chyb a neur u + 1 chyb.
*ekneme, e kd C oprav v chyb, jestlie, pokud pouijeme pravidlo minimln
vzdlenosti, jsme schopni opravit alespo v chyb a v ppad, kdy se nebudeme moci
rozhodnout, dostaneme na vstupu chybu v dekdovn. *ekneme, e kd C oprav
prv v chyb, jestlie oprav v chyb a neoprav v + 1 chyb.
Dle budeme pedpokldat, e abychom byli schopni zjistit chyby pi penosu,
bude pjemce schopen zkontrolovat pijat etzec proti seznamu vech kdovch
slov. Pokud etzec nebude na seznamu, pjemce v, e nastala alespo jedna chyba,
ale nen schopen zjistit kolik chyb skuten nastalo. Zrove by mlo bt jasn
, e
pokud obdren
slovo nebude kdov
slovo, bude podle pravidla minimln vzdlenosti
zptky dekdovno, ale pjemce nev, zda se skuten jedn o odeslan
slovo. Pjemce
pouze v, e, v ppad kdu opravujcho v chyb a pokud nastane nejve V , pak
dekdovac proces bude spn.
Pklad 1.1 Chceme vyslat tyi znaky: a b c d a zprva bude penena pomoc
binrnho blokovho kdu dlky 5. Musme tedy zvolit tyi kdov slova, nap. 11000
pro a, 00110 pro b, 10011 pro c a 01101 pro d. Dekdovn mus zahrnout vech
25 = 32 binrnch slov dlky 5. Jedno takov dekdovc pravidlo je na (obr.4.1).
11000
11001
11010
11100
10000
01000
11110
01010
00110
00111
00100
00010
01110
10110
00000
10100
10011
10010
10001
10111
11011
00011
01011
11111
01101
01100
01111
01001
00101
11101
10101
00001
Obrzek 4.1: Pklad kdov tabulky pro binrn blokov kd dlky 5.
Konstrukce kdu a dekdovacho sch
matu z pkladu 1.1 opravuje ne vce ne
jednu chybu. V tabulce je to vdy prvnch 5 slov v seznamu pod kdovm slovem. U
vce chyb u nemme jistotu, e dekdovn probhne sprvn. Napklad pokud by
pi penosu bloku 11000 vznikly dv chyby vedouc k pijet slova 11110 na vstupu
kanlu, pak toto sch
ma chyby odstran. Ovem pi obdren 11011 bude toto slovo
dekdovno chybn jako 10011.
Ozname dle Vn(/) mnoinu vech posloupnost d
lky n nad abecedou / a nazvejme prvky ze Vn(/) slova nebo vektory . Nkdy budeme pst msto Vn(/) tak
Vn(q).
60
1. KDOV
N A ODHADY
61
Podobn jako v binrnm ppad je Hammingova vzdlenost d(x y) mezi vektory
x a y poet mst, ve kterch se x a y li. Vha slova x = x1 x2 xn je pak poet
nenulovch znak slova x, tj. wt(x) = fd(x 0) j kde 0 je slovo z n nulg.
Denice. Bu x 2 Znr, rozumme mnoinu
n
0. Sfrou Snr
(x) v Zr se stedem x a polomrem n
Snr
(x) = fy 2 Zr : d(x y) g:
Objemem sfry Snr
(x) nazveme slo
n
Vnr
(x) = card(fy 2 Zr : d(x y) g)
tj. poet etzc d
lky n, kter
maj Hammingovu vzdlenost od x nejve . Pokud
budou sla n r jasn ze souvislosti, budeme pst jednodue S
(x) a V
(x).
Plat pak
Lemma 1.2 Objem sfry Snr
(x) je ur
en vztahem
Vnr(x ) =
!
X
n (r ; 1)k :
k=0 k
Dukaz. Plyne z toho, e poet etzc d
lky n, kter
maj Hammingovu vzdlenost
od x prv k je pesn slo
!
n (r ; 1)k :
k
Pklad 1.3 Hammingova vzdlenost slov 01110010 a 11110101 je 4 a vha slova
01110101 je 5.
Dekdovn podle principu minimln vzdlenosti znamen, e dekdujeme obdren vektor y jako to kdov
slovo c, kter
m minimln vzdlenost od y, pokud
mme mon vbr, vybereme libovoln.
Je-li tedy C kd, je minimln vzdlenost kdu C slo
d(C ) = min d(ci cj )
kde je minimum brno pes vechny navzjem rzn
dvojice kdovch slov z C . Pojem minimln vzdlenosti je klov pojem pro hodnocen kdu dobr
kdy maj
rozloen kdov slova tak, e jejich minimln vzdlenost je velk. Dvod dleitosti
minimln vzdlenosti je jasn z nsledujc vty.
61
KAPITOLA 4. KDY OPRAVUJC CHYBY
62
Vta 1.4 M-li kd minimln vzdlenost d, lze opravit pomoc dekdovn podle
pravidla minimln vzdlenosti a 21 (d ; 1) chyb.
Dukaz. Polome v = b 12 (d ; 1)c a uvame v-sf
ru bodu x. To je mnoina
Su(x) = fy : d(x y) ug:
Jsou-li x z rzn kdov slova, plat
Sv (x) \ Sv (z) = :
Tedy dekdovn podle pravidla minimln vzdlenosti oprav a v chyb.
Mme pak nsledujc jednoduch
tvrzen.
Vta 1.5 Bute u v pirozen sla. Pak kd C ur
u (oprav v) chyb prv tehdy,
kdy d(C ) u + 1 (d(C ) 2v + 1).
Dukaz. Prvn st tvrzen je jednoduch
peformulovn denice kdu urujch u
chyb. Pro druhou st tvrzen jsme ukzali ve vt 1.4 implikaci zprava doleva. Pedpokldejme nyn, e C je kd opravujc v chyb a e existuj dv rzn kdov slova
c a d tak, e d(c d) = d(C ) 2v. Budeme chtt dokzat, e za pedpokladu, e jsme
odeslali kdov
slovo c a nastalo nejve v chyb, je pesto mon
, abychom podle pravidla minimln vzdlenosti obdreli bu chybov
hlen nebo dekdovali obdren
slovo nesprvn jako d. To pak bude spor s tm, e C opravuje v chyb.
Nejdve si uvdomme, e d(c d) = d(C ) v +1. Jinak bychom toti mohli pev
st
c na d pi nejve v chybch, kter
by zstaly neopraveny. Meme pak pedpokldat,
e se c a d li na prvnch k = d(C ) mstech, piem v +1 k 2v (jinak provedeme
permutaci souadnic). Uvame nyn obdren
slovo x, kter
se shoduje se slovem c
na prvnch k ; v pozicch, dle se shoduje se slovem d na dalch v pozicch a shoduje
se s obma slovy c a d na poslednch n ; k pozicch, tj.
x = x| 1 : :{z: xk;v} x| k;v+1{z: : : xk} x| k+1{z: : : xn} :
shoduje se s
shoduje se s
shoduje se s obma
c
d
Protoe nutn d(c x) = v, d(d x) = k ; v v, je buto d(c x) = d(d x) (v
tomto ppad obdrme chybov
hlen) nebo d(c x) > d(d x) (v tomto ppad je
x dekdovn nesprvn jako d).
Denice. Pokud m kd C prv M kdovch slov d
lky n a m minimln vzdlenost d, mluvme o (n M d)-kdu.
62
1. KDOV
N A ODHADY
63
Pro pevn
n psob parametry M a d navzjem proti sob tak, e zvten M
zpsob zmenen d a naopak.
Mme pak nsledujc dsledek.
Dusledek 1.6
1. (n M d)-kd C oprav prv v chyb tehdy a jen tehdy, kdy d =
2v + 1 nebo d = 2v + 2.
2. Kd C m minimln vzdlenost u = d(C ) tehdy a jen tehdy, kdy oprav prv
b 21 (u ; 1)c chyb.
Poznamenejme nyn, e uren chyby a jej oprava jdou proti sob, take nememe
narz doshnout jejich maximln rovn. Uveme si to na jednoduch
m pklad.
Pklad 1.7 Pedpokldejme nyn, e kd C m minimln vzdlenost d. Je to tedy
kd ur
ujc d ; 1 chyb a opravujc u = b 21 (d ; 1)c chyb.
Pokud pouijeme C pouze pro ur
en chyb, je schopen ur
it a d ; 1 chyb. Z druh
strany, pokud chceme na C opravit chybu, kdykoliv je to mon, pak je schopen opravit
a v chyb, ale nen schopen ur
it situaci, kdy nastalo vce ne v a mn ne d chyb.
Toti, pokud nastalo vce ne v chyb, meme podle pravidla minimln vzdlenosti
*opravit+ pijat etzec na patn kdov slovo a pak bude chyba nedetekovateln.
Mme pak nsledujc denici.
Denice. Uvame nsledujc strategii pro opravu/uren chyby. Bu u v pirozen
sla. Obdrme-li slovo x a pokud m nejbli kdov
slovo c ke slovu x vzdlenost
nejve v a existuje-li pouze jedin
takov
kdov
slovo, budeme dekdovat x jako
kdov
slovo c. Pokud existuje vce ne jedno kdov
slovo se stejnou minimln
vzdlenost k x nebo m nejbli kdov
slovo vzdlenost vt ne v, obdrme na
vstup chybov
hlen.
*ekneme, e kd C zrove oprav v chyb a ur
u chyb, jestlie nastala alespo
jedna a nejve v chyb, ve popsan strategie oprav tyto chyby a kdykoliv nastane
alespo u + 1 a nejve u + v chyb, ve popsan strategie nahls chybu.
Vta 1.8 Kd C zrove oprav v chyb a ur
u chyb prv tehdy, kdy d(C ) 2v +
u + 1.
Dukaz. Pedpokldejme nejprve, e d(C ) 2v + u + 1. Obdrme-li slovo x a pokud
m nejbli kdov
slovo c ke slovu x vzdlenost nejve v a existuje-li alespo jedno
dal takov
kdov
slovo d, mme
2v + u + 1 d(c d) d(c x) + d(x d) 2v
co je spor. Nutn tedy mme, e pokud obdrme slovo x a nejbli kdov
slovo c
ke slovu x m vzdlenost nejve v, je toto kdov
slovo jedin
s touto vlastnost a
63
64
KAPITOLA 4. KDY OPRAVUJC CHYBY
podle pravidla minimln vzdlenosti budeme sprvn dekdovat. Obdrme-li slovo
x a pokud m nejbli kdov
slovo c ke slovu x vzdlenost alespo v + 1 a nejve
u + v, pi pouit ve uveden
strategie dostaneme chybov
hlen.
Pedpokldejme nyn, e C je kd opravujc v chyb a urujc u chyb. Nech' dle
d(C ) 2v + u. Nutn pak 2v + 1 d(C ). Vme, e existuj dv rzn kdov slova
c a d tak, e k = d (c d) = d(C ). Meme pak pedpokldat, e se c a d li na
prvnch k = d(C ) mstech, piem 2v + 1 k 2v + u (jinak provedeme permutaci
souadnic). Uvame nyn obdren
slovo x, kter
se shoduje se slovem c na prvnch v
pozicch, dle se shoduje se slovem d na dalch k ; v pozicch a shoduje se s obma
slovy c a d na poslednch n ; k pozicch, tj.
x = |x1 :{z: : xv} x| v+1{z: : : xk} x| k+1{z: : : xn} :
shoduje se s c shoduje se s d shoduje se s obma
Nutn pak d(c x) = k ; v, d(d x) = v v, v + 1 k ; v v + u. Je-li tedy c
odeslno a x je obdreno, nutn je pak poet chyb pi penosu (tj. slo k ; v) mezi
v + 1 a v + u, uvaovan strategie by nm mla dt na vstupu chybov
hlen, ale
msto toho nm dekduje x nesprvn na d.
Denice. (n M d)-kd C se nazv maximln, pokud nen obsaen v dn
m vtm
kdu se stejnou minimln vzdlenost tj. nen obsaen v dn
m (n M + 1 d)-kdu.
Je zejm
, e pro kad kd C meme vdy najt maximln kd C 0 , kter jej
obsahuje. Pitom plat
Vta 1.9 (n M d)-kd C je maximln prv tehdy, kdy pro vechna slova x existuje
kdov slovo c s vlastnost d(x c) < d.
Dukaz. (n M d)-kd C je maximln prv tehdy, kdy nen obsaen v dn
m
(n M + 1 d)-kdu. Pedpokldejme, e existuje slovo x tak, e pro vechna kdov
slova c plat d(x c) d. Polome-li C 0 = Cfxg, je pak evidentn C 0 (n M +1 d)-kd
obsahujc kd C .
Obrcen, nech' pro vechna slova x existuje kdov
slovo c s vlastnost d(x c) <
d. Pedpokldejme, e kd C nen maximln tj. existuje (n M + 1 d)-kd obsahujc
kd C . Vyberme slovo x 2 C 0 ; C . Pak ale existuje kdov
slovo c 2 C C 0 tak, e
d(C 0 ) d(x c) < d, spor.
Poznamenejme, e pokud (n M d);kd C nen maximln, mohou nastat jak vhodn
tak nevhodn
situace pi jeho rozen na maximln kd C 0 . Vme, e kd C 0
rovn oprav b 12 (d ; 1)c chyb, co je dobr
a pitom C 0 me zakdovat vce zdrojovch symbol, co je rovn dobr
. Ale zatmco C me bt ppadn schopen opravit
vce ne b 21 (d ; 1)c chyb, kd C 0 nebude nikdy schopen opravit vce ne b 21 (d ; 1)c
chyb.
64
1. KDOV
N A ODHADY
65
Pklad 1.10 Uvame kd C = f00000 11000g, kter m minimln vzdlenost 2.
Tento kd opravuje jednu chybu, ale je pitom schopen opravit dal jin chyby. Napklad, pokud bylo odeslno slovo 00000 a pijato slovo 00111, bude toto slovo sprvn
dekdovno (toti d(00000 00111) = 3 d(11000 00111) = 5), a
koliv pi penosu nastaly ti chyby. Pokud ale doplnme C do maximlnho kdu, bude dekdovn chybn.
Z ve uveden
ho pkladu vyplv, e maximln kdy jsou nejlep, pokud ns u
kdu pouze zajm pedem uren schopnost opraven chyby. Je tedy daleko obtnj
zkoumat pravdpodobnost chyby pi dekdovn u kd, kter
nejsou maximln. Pro
maximln kdy je to jednodu.
Vta 1.11 Bu C (n M d)-kd. Pak pro binrn symetrick kanl s pravdpodobnost
chyby p je pi pouit dekdovacho pravidla minimln
P (nastala chyba pi dekdovn) 1 ;
Je-li navc kd C maximln, je
b 12 (X
d;1)c k=0
!
n pk (1 ; p)n;k :
k
d n!
X
pk (1 ; p)n;k P (nastala chyba pi dekdovn):
k
k=0
Dukaz. Kad (n M d)-kd C opravuje evidentn b 21 (d ; 1)c chyb. Je tedy prav-
dpodobnost sprvn
ho dekdovn alespo tak velk jako je pravdpodobnost, e
nastane nejve b 21 (d ; 1)c chyb tj.
P (sprvn
dekdovn)
b 12 (X
d;1)c k=0
!
n pk (1 ; p)n;k :
k
Mme pak
P (nastala chyba pi dekdovn) = 1 ; P (sprvn
dekdovn)
!
P
b 12 (d;1)c n k
n;k
1 ; k=0
k p (1 ; p) :
Bu dle (n M d)-kd C maximln. Pak, je-li peneseno slovo c a nastane-li d
nebo vce chyb, tj. d(c x) d, bude nutn x bli k jin
mu kdov
mu slovu d 6= c
a tedy pi pouit pravidla minimln vzdlenosti nastane dekdovac chyba. Protoe
pravdpodobnost, e nastane prv k chyb pi prchodem binrnm symetrickm
kanlem, je
!
n pk (1 ; p)n;k k
65
KAPITOLA 4. KDY OPRAVUJC CHYBY
66
obdrme nsledujc doln hranici pro pravpodobnost dekdovac chyby
d n!
X
pk (1 ; p)n;k P (nastala chyba pi dekdovn)
k
k=0
m je vta dokzna.
2 Ekvivalence kd a konstrukce novch kd
Uitenm prostedkem pro redukci mnostv prce pi nalezen dobrch kd je
pojem ekvivalence kd. Pedpokldejme, e mme (n M d)-kd C . Pirozenm zpsobem jeho prezentace je pomoc matice o rozmrech M n, piem dky jsou rzn
kdov slova.
Pedpokldejme nyn, e je permutace mnoiny f1 2 : : : ng a pro kad
kdov
slovo c 2 C budeme aplikovat transformaci : C ! C 0 denovanou pedpisem (c) =
(c(1) : : : c(n)). Takovou transformaci nazvme pozi
n permutac. Podobn, je-li permutace mnoiny /, pak pro kad index i(, 1 i meme aplikovat transformaci
i 6= j
^i : C ! C 0 denovanou pedpisem ^i (c)j = cj(c ) pokud
i pokud i = j:
Mluvme pak o symbolov permutac. Lze-li kd C 0 zskat z kdu C pomoc konen
posloupnosti pozinch nebo symbolovch permutac, kme e kd C 0 je ekvivalentn
kdu C .
Pklad 2.1 Pedpokldejme, e mme kd C d
lky 5 nad abecedou / = fa b cg s
kdovmi slovy c1 , c2 , c3 a c4 tak, e
c1 2 a b c a c 3
6
7
C = cc23 664 bb ac cb ab ab 775 :
c4 c b a c a
Aplikujeme-li permutaci (1 7! 2 2 7! 3 : : : 5 7! 1), obdrme pozin permutaci
a k n odpovdajc ekvivalentn kd je
c01
0
C 0 = cc20
3
c04
2c a b
66 b b a
64 a b c
a c b
66
c
b
c
a
a3
a 777 :
b5
c
2. EKVIVALENCE KD A KONSTRUKCE NOVCH KD
67
Podobn, aplikujeme-li permutaci (a 7! b b 7! c c 7! a) na prvn sloupec kdu C 0,
obdrme symbolovou permutaci a k n odpovdajc ekvivalentn kd je
c001
00
C 00 = cc200
3
c004
2a a b
66 c b a
64 b b c
b c b
c
b
c
a
a3
a 777 :
b5
c
Lemma 2.2 Jsou-li C a C 0 ekvivalentn kdy, jsou mnoiny vzdlenost kdovch slov
z C a C 0 stejn.
Dukaz. Protoe jak pozin tak symbolov permutace zachovvaj vzdlenost per-
mutovanch slov, plat tot
i pro takovouto posloupnost permutac.
Lemma 2.3 Je-li C kd dlky n a u vektor dlky n nad stejnou abecedou, pak existuje
kd C 0 , kter je ekvivalentn s C a obsahuje vektor u.
Dukaz. Prvn kdov
slovo c1 lze pev
st na u pomoc nejve n symbolovch permutac.
Denice. Bu x y binrn slova d
lky n. Prnik x \ y binrnch slov x a y je binrn
etzec d
lky n, kter m jedniku pesn na tch mstech, na kterch ji maj ob slova
x a y. Vude jinde m pak nuly. Jinak eeno, x \ y = x1 y1x2 y2 : : : xn yn.
Plat pak nsledujc jednoduch
lemma.
Lemma 2.4 Jsou-li x a y binrn etzce dlky n, pak
d(x y) = w(x) + w(y) ; 2w(x \ y):
Dukaz. Polome A11 = fi : 1 i n xi = yi = 1g, a11 = card(A11 ), A10 = fi :
1 i n xi = 1 yi = 0g, a10 = card(A10 ), A01 = fi : 1 i n xi = 0 yi = 1g,
a01 = card(A01), A00 = fi : 1 i n xi = 0 yi = 0g, a00 = card(A00 ). Pak plat
d(x y) = a10 + a01 = (a11 + a10 ) + (a11 + a01 ) ; 2a11
= w(x) + w(y) ; 2w(x \ y)
m je lemma dokzno.
67
68
KAPITOLA 4. KDY OPRAVUJC CHYBY
Denice. Postup, pi kter
m pidme ke vem kdovm slovm z dan
ho kdu jednu
nebo vce dodatench pozic, a tedy zvme d
lku kdu, se nazv rozen kdu.
Nejznmj metoda rozen kdu se nazv kontrola parity. Pro jednoduchost
uvame binrn ppad.
Je-li C binrn (n M d)-kd, budeme konstruovat nov kd nsledovn. Ke kad
mu kdov
mu slovu c = c1c2 : : : cn 2 C pidme dodaten bit tak, e nov
vsledn
kdov
slovo bude mt sudou vhu. Tedy, mlo-li c lichou vhu, pidme jedniku,
mlo-li c sudou vhu, pidme nulu. Ozname-li tedy vsledn
slovo jako c, mme
(
w(c) je sud
c = cc11cc22 :: :: :: ccnn01 pokud
pokud w(c) je lich:
Nov kd C m pak d
lku n + 1 a velikost M . Minimln vzdlenost kdu C
bude bu d nebo d + 1 a toto slo bude zviset na tom, zda bude d sud
nebo lich
slo. Toti, protoe vechna kdov slova v C maj sudou vhu, bude vzdlenost
mezi kadmi dvma slovy sud
slo (to plyne z lemmatu 2.4). Je tedy i minimln
vzdlenost kdu C sud
slo. Nutn pak dostvme, e, je-li d(C ) = d sud
slo a
nastv pro pro slova c, d, pak nutn maj ob slova stejnou paritu a tedy nutn plat
d(c d) = d(c d). Je tedy d(C ) = d(C ). Nech' je minimln vzdlenost kdu C lich
slo a nastv pro pro slova c, d, pak nutn m jedno ze slov sudou paritu (napklad
c) a druh
lichou paritu (d). Pak w(c) = w(c), w(d)+1 = w(d), w(c \ d) = w(c \ d).
Tedy d(C ) + 1 = d(C ).
V obou ppadech pak mme
b 21 (d(C ) ; 1)c = b 21 (d(C ) ; 1)c:
Z toho pak plyne, e se nm pi pouit kontroly parity nezv schopnost opravit
chybu.
Obecn pak, mme-li kdovou abecedu vybrnu tak, e nm tvo konen
pole,
eknme Zp, kde p je prvoslo, meme denovat kontrolu parity jako
n
X
c = c1c2 : : : cncn+1 kde cn+1 = ; cn:
i=1
Denice. Postup, pi kter
m odebereme ta kdov slova z dan
ho kdu, kter se li
na uren
pozici i od uren
ho symbol s, a ze zbvajcch slov tuto pozici odstranme,
a tedy zkrtme d
lku kdu, se nazv zkrcen kdu typu xi = s.
Je-li pak C (n M d)-kd, m zkrcen kd C d
lku n ; 1 a minimln vzdlenost
alespo d. Opravdu, zkrcen kdu me mt za dsledek podstatn
zvten minimln vzdlenosti tedy i schopnosti opravit nov
ho kdu, protoe meme odstranit
ta kdov slova, kter se patn chovaj vzhledem ke vzdlenosti. Samozejm ale
zkrcenm kdu se nm zmen i poet kdovch slov, co nen zrovna lkav
.
68
3. HLAVN PROBLM TEORIE KDOV
N
69
Vta 2.5 Bu d lich pirozen slo. Pak existuje binrn (n M d)-kd prv tehdy,
kdy existuje binrn (n + 1 M d + 1)-kd.
Dukaz. Pokud existuje binrn (n +1 M d +1)-kd C , meme snadno zkonstruovat
binrn (n M d)-kd. Jednodue vybereme dv kdov slova c a d tak, e d(c d) =
d + 1, najdme pozici, na kter
se li a odebereme tuto pozici z kad
ho kdov
ho
slova. Nov kd ozname C 0 . Nutn pak maj nov zkrcen slova c0 a d0 vzdlenost
d(c0 d0 ) = d a dn jin dv slova nemaj od sebe men vzdlenost ne d. Celkem
je tedy C 0 binrn (n M d)-kd.
Obrcen, pedpokldejme, e mme binrn (n M d)-kd D (d lich
). Kd D,
kter vznikl jako kd kontroly parity z D, m d
lku n + 1, velikost M a minimln
vzdlenost d + 1.
3 Hlavn probl
m teorie kdovn
Denice. Bu dna pirozen sla d n q. Polome Aq (n d) jakoto maximln M
takov
, e existuje q-rn (n M d)-kd. Kad takov q-rn (n M d)-kd nazvme
optimln.
&sla Aq (n d) hraj stedn roli v teorii kdovn a na jejich nalezen bylo vynaloeno velk
sil. &asto se mluv o hlavnm problmu teorie kdovn. V dalm pro
ilustraci urme jist
hodnoty Aq (n d) pro mal
hodnoty n a d a dokeme obecn
tvrzen o tchto slech.
Poznamenejme, e abychom dokzali, e Aq (n d) = K pro jist
pirozen
slo
K , sta ovit, e Aq (n d) K a nsledn najt vhodn q-rn (n K d0)-kd C , kde
d d0. Pak toti K Aq (n d0) Aq (n d).
Vta 3.1 Je-li d sud slo, je A2(n d) = A2 (n ; 1 d ; 1).
Dukaz. Plyne okamit z vty 2.5. Toti pak nutn plat A2 (n d) A2 (n ; 1 d ; 1)
a A2(n d) A2 (n ; 1 d ; 1).
Dusledek 3.2 Je-li d sud slo a existuje binrn (n M d)-kd, pak existuje binrn
(n M d)-kd, ve kterm maj vechna kdov slova sudou vhu.
Dukaz. Plyne okamit z vty 3.1. Toti pak nutn existuje binrn kd (n ; 1 M d ;
1)-kd a pomoc operace kontroly parity existuje binrn (n M d)-kd, ve kter
m maj
vechna kdov slova sudou vhu.
69
KAPITOLA 4. KDY OPRAVUJC CHYBY
70
Nsledujc dva snadn
vsledky nm budou ilustrovat, jakm zpsobem meme
urit hodnoty A2 (n d) pro mal
hodnoty n a d. Pouijeme pitom lemma 2.3, ze
kter
ho plyne, e pro dan (n M d)-kd C existuje ekvivalentn (n M d)-kd C 0 , kter
obsahuje nulov
slovo (samozejm za pedpokladu, e kdov abeceda obsahuje 0 {
jinak ji lze dodat zmnou za jin symbol). Meme tedy v dalm pedpokldat, e
nae kdy obsahuj nulov
slovo.
Vta 3.3 Plat A2 (4 3) = 2.
Dukaz. Bu C njak (4 M 3)-kd. Meme bez jmy na obecnosti pedpokldat,
e 0 = 0000 2 C . Protoe d(C ) = 3, libovoln
dal kdov
slovo c z C mus spl ovat d(c 0) 3 a tedy mus obsahovat alespo ti jedniky. Mme tedy celkem pt
monost pro nenulov slova lec v C , a to
1110 1101 1011 0111 1111:
Ale kad takovto dv slova maj vzdlenost nejve 2 a tedy pouze jedno z nich
me bt obsaeno v C . Plat tedy A2(4 3) 2. Dle plat, protoe C = f0000 1110g
je (4 2 3)-kd, mme A2 (4 3) 2 a tedy celkem A2 (4 3) = 2.
Vta 3.4 Plat A2 (5 3) = 4.
Dukaz. Bu C njak (5 M 3)-kd. Meme bez jmy na obecnosti pedpokldat,
e 0 = 0000 2 C a pitom pro vhodn
c z C plat d(0 c) = 3, c1 = 0. Uvame
nyn zkrcen C typu x1 = 0. Vme pak, e 0 c 2 C a d(0 c) = 3. Dle
vme, e A2 (4 3) = 2 a A2 (4 4) = A2 (3 3) = 2. Tedy i card(C ) = 2. Denuje
nyn zkrcen kd C jakoto zkrcen typu typu x1 = 1. Pak buto card(C ) = 1
nebo card(C ) > 1 a d(C ) = 3 a tedy nutn jako ve card(C ) = 2. Celkem tedy
card(C ) + card(C ) = card(C ) 4. Plat tedy A2(5 3) 4. Dle plat, protoe
C = f00000 11100 00111 11011g je (5 4 3)-kd, mme A2(5 3) 4 a tedy celkem
A2 (5 3) = 4.
Vta 3.5 Plat nsledujc:
1. Aq (n d) qn pro vechna 1 d n
2. Aq (n 1) = q n
3. Aq (n n) = q .
Dukaz. Prvn tvrzen plat, protoe pro kad kd C je C Vn(q) tj. card(C ) qn.
Druh
tvrzen plyne z toho, e uvme-li C = Vn(q), mme d(Vn(q)) = 1. Tet st
plyne z toho, e se kdov slova mus liit na vech pozicch a takovch kdovch slov
meme vybrat nejve q. Ale mme, pro kd D = f0 : : : q-1g, e D je (n q n)-kd.
70
4. DOLN A HORN HRANICE AQ(N D) PERFEKTN KDY
71
n
d=3
d = 5 d=7
5
4
2
6
8
2
7
16
2
2
8
20
4
2
9
40
6
2
10
72-79
12
2
11 144-158
24
4
12
256
32
4
13
512
64
8
14
1024
128
16
15
2048
256
32
16 2560-3276 256-340 36-37
Tabulka 4.1: Hodnoty A2 (n d)
U pro mal
hodnoty q n a d nen velikost Aq (n d) znma. Nsledujc tabulka
shrnuje vtinu naich znalost o A2 (n d).
Poznamenejme, e probl
m uren A2(n d) je probl
mem konench geometri.
Pro odhad Aq (n d) plat nsledujc jednoduch
tvrzen.
Vta 3.6 Pro vechna n 2,
Aq (n d) qAr (n ; 1 d):
(4.1)
Dukaz. Bu C kd realizujc hodnotu Aq (n d). Uvame nyn zkrcen Cj typu xn =
j . Pak nutn card(Cj ) Aq (n;1 d) (mohou toti nastat pouze dva ppady: card(Cj ) =
1, co evidentn plat, a K = card(Cj ) > 1, kde
pak Cj je (n ; 1 KPd0)-kd, d0 d
S
;1 C tj. A (n d) = q;1 card(C ) a tedy tvrzen rovn plat). Celkem pak C = qj=0
j
q
j
j =0
qAr (n ; 1 d).
Cvien 3.7
1. Ukate, e A2 (3 2) = 4.
4 Doln a horn hranice Aq (n d) perfektn kdy
Ureme nejprve horn hranici (sphere-packing upper bound) sla Aq (n d).
Lemma 4.1 Nech( e = b 21 (d ; 1)c. Pak plat
e n!
X
Aq (n d)
(q ; 1)k qn:
k
k=0
71
(4.2)
KAPITOLA 4. KDY OPRAVUJC CHYBY
72
Dukaz. Bu C kd s minimln vzdlenost d pak, je-li Se(x) koule o polomru e se
stedem x, mme pro kadou dvojici kdovch slov x a y, e
Se(x) \ Se(y) = :
Ale je evidentn, e
e n!
X
jSe(x)j =
(q ; 1)k :
(4.3)
k
k=0
Prav strana nerovnosti 4.2 je celkov poet slov d
lky n nad abecedou o q symbolech.
Lev strana je poet prvk obsaench v disjunktnm sjednocen koul, jejich stedy
jsou navzjem rzn kdov slova. Maximln poet takovchto rznch kdovch
slov je Aq (n d). Tedy dostvme nerovnost 4.2.
Podobn plat
Lemma 4.2 (Gilbert-Varshamova hranice)
dX
;1 n !
(q ; 1)k qn:
(4.4)
k
k=0
Dukaz. Bu C (n M d)-kd s maximlnm potem kdovch slov. Pak zcela jist
neexistuje vektor z Vn(q) ; C , jeho vzdlenost od vech kdovch slov je alespo d,
jinak by toti M nebyl maximln poet kdovch slov. Jinak eeno, koule o polomru
d mus pokrvat cel prostor Vn(q). Ale to je pesn podmnka 4.4.
Aq (n d)
Denice. Polomr pokryt blokov
ho kdu C je nejmen polomr takov,
Fnq S
(c):
c2C
Polomr pokryt je dal charakterizac kd, nem vak tak hojn
uplatnn jako
minimln vzdlenost.
Vta 4.3 Nech( C je blokov kd dlky n. Pak je polomr pokryt kdu C prv
tehdy, kdy = maxf 2Fnq minc2C d(c f ).
D"kaz: Nech' Fnq Sc2C S
(c), kde je minimln. Pak pro kad
f 2 Fnq existuje
c 2 C takov
, e d(c f ) , a souasn existuj f 0 2 Fnq a c0 2 C spl ujc d(c0 f 0 ) = .
Z minimality plyne, e = maxf 2Fnq d(f C ) = maxf 2Fnq minc2C d(c f ).
Naopak, nech' = maxf 2Fnq minc2C d(c f ) = maxf 2Fnq d(f C ). Pak pro vechna
f 2 Fnq plat d(f C ) a existuj f 0 2 Fnq a c0 2 C spl ujc rovnost a pro vechna
c 2 C je d(c f 0). Pedpokldejme, e existuje s, > s, takov
, e kad
f 2 Fnq
je prvkem mnoiny fx 2 Fnq j d(c x) sg pro njak
c 2 C . To je ale spor s existenc
slov f 0 a c0, a tedy je polomr pokryt kdu C .
72
4. DOLN A HORN HRANICE AQ(N D) PERFEKTN KDY
73
Ideln situace z ekonomick
ho pohledu je najt kd C nad Vn(q) tak, e pro jist
kladn
t > 0 jsou vechny prvky z Vn(q) obsaeny v disjunktnm sjednocen koul, jejich stedy jsou navzjem rzn kdov slova. Takov kd se pak nazv perfektn. Z
jeho denice je zejm
, e perfektn kd doke pomoc pravidla minimln vzdlenosti
opravit a t chyb, a nedoke opravit t + 1 chyb.
Je tedy nutn podmnka pro to, aby (n M d)-kd byl perfektn, e d je lich
slo.
Celkem tedy je (n M d)-kd perfektn prv tehdy, kdy M = Aq (n d) a
d; 1 !
2
X
n (q ; 1)k = qn:
Aq (n d)
k=0 k
(4.5)
Pklad 4.4 Zejmm pkladem perfektnho kdu je
1. kad kd s prv jednm kdovm slovem,
2. kad binrn kd s prv dvma slovy lichch d
lek, nap. 00 : : : 0 a 11 : : : 1.
Tyto kdy se nazvaj triviln perfektn kdy.
Vta 4.5 (Singletonova hranice) Plat
Aq (n d) qn;d+1:
(4.6)
Dukaz. Bu C njak (n M d)-kd. Pokud odstranme poslednch d ; 1 pozic z
kad
ho kdov
ho slova z C , mus bt nutn vsledn zkrcen slova navzjem rzn
(jinak by pvodn slova musela mt vzdlenost d ; 1). Ale poet vech slov d
lky
n ; (d ; 1) je prv qn;d+1 tj. Aq (n d) qn;d+1.
Lemma 4.6 Bu M pirozen slo. Pak funkce f : f0 : : : M g ! N denovan
jako f (k) = k(M ; k) nabv svho maxima pro
k=
(
M
M2 1
2
pokud M je sud
pokud M je lich
a f (k) =
(
M2
4
M 2 ;1
4
pokud M je sud
pokud M je lich
:
p
Dukaz. Dkaz okamit plyne ze vztahu a b 12 (a + b) a z prbhu funkce f .
Vta 4.7 (Plotkinova hranice) Je-li n < 2d, mme
A2 (n d) 2b 2d d; n c:
73
(4.7)
KAPITOLA 4. KDY OPRAVUJC CHYBY
74
Dukaz. Bu C = fc1 : : : cM g njak (n M d)-kd. Uvame souet S = Pi<j d(ci cj ).
To nen nic jin
ho, ne souet vech vzdlenost
! kdovch slov z C . Protoe ale
d d(ci cj ) pro vechna i j a mme prv M2 dvojic kdovch slov z C , plat
!
M
S = d(ci cj ) d 2 :
(4.8)
i<j
Pokusme se nyn spotat S tm, e se podvme na kadou pozici zvl'. Uvame
tedy kdov slova ve tvaru
c1 = c11 c12 : : :c1n
c2 = c21 c22 : : :c2n
...
cM = cM 1cM 2 : : :cMn:
X
Mme pak, pro vechna j 1 j n, e pokud kj bit slova c1j : : : cMj je rovno 1 a
zbvajcch M ; kj bit je nulovch, pak tyto bity pispj k soutu vech vzdlenost
slem f (kj ) = kj (M ;kj ). Mme tedy celkem (protoe vech sloupc je n) S nf (k).
Zejm
na tedy plat
(
M2
n
M je sud
S nf (k) = n M42 ;1 pokud
pokud M je lich
:
4
Dme-li ob nerovnosti dohromady, mme
!
(
M d n M422 pokud M je sud
2
n M 4;1 pokud M je lich
:
Po jednoduch
prav pak obdrme
( 2d
pokud M je sud
M 2dn;n < 2d pokud
M je lich
:
2d;n
2d;n
polome a = 2d2;d n . Pak mme
(
M je sud
M bb22aacc ; 1 pokud
pokud M je lich
:
Pedpokldejme nejprve, e k a < k + 21 pro njak
pirozen
slo k. Pak b2ac =
2k a 2bac = b2ac. Mme tedy, nezvisle na parit M , e M 2bac. Pedpokldejme
nyn, e k + 21 a < k + 1 pro njak
pirozen
slo k. Pak b2ac = 2k + 1 a
2bac = 2k. Je-li M lich
, mme M b2ac ; 1 = 2k = 2bac a, je-li M sud
, mme
M b2ac ; 1 = 2k + 1 tj. = M 2k = 2bac.
Nutn tedy celkem M 2b 2dd;n c:
74
5. LINE
RN KDY
75
Lemma 4.8 Bu k pirozen slo. Pak A2 (4k ; 1 2k ; 1) 8k a A2(4k 2k) 8k.
Dukaz. Ovme nejprve, e A2 (4k 2k) 8k. Vme ale, e A2(4k 2k) 2A2(4k ;
1 2k) 4b 21k c = 8k dle 4.7. Protoe dle plat A2(4k ; 1 2k ; 1) = A2(4k 2k) 8k,
tvrzen je dokzno.
Cvien 4.9
1. Ukate, e 19 A2 (10 3) 93.
2. Ukate, e pro vechna pirozen sla q, parametry n = (qr ; 1)=(q ; 1), M =
qn;r , d = 3, kde r je njak pirozen slo 2, spluj podmnku 4.5 proto,
aby se jednalo o perfektn kd. Poznamenejme, e a
koliv tyto parametry spluj
4.5 pro kad pirozen slo q, byla vyslovena hypotza, e pslun perfektn
kdy existuj prv tehdy, kdy je q mocnina prvo
sla.
5 Linern kdy
Pedpokldejme, e C je kd s minimln vzdlenost d = 2e + 1 a lze tedy pomoc
metody nejbliho kdov
ho slova opravit a e chyb. M-li kd C mlo prvk, jedn
se o velmi praktickou metodu. V ppad, e slo jCj bude velk
, bude tato metoda
opravdu velmi asov nron, protoe musme srovnvat pijat vektor y s velkm
mnostvm kdovch slov. To je dvod pro studium vce strukturovanch kd, jako
jsou nap. linern kdy.
Pedpokldejme tedy, e poet prvk q na abecedy je prvoseln mocnina pm.
Meme tedy povaovat / za tleso Fq o q-prvcch.
Bu dle Vn(q) vektorov prostor dimenze n nad tlesem Fq . Typick prvek tohoto vektorov
ho prostoru budeme pst jakoto x = (x1 : : : xn), obas pak zkrcen
jakoto x = x1 : : : xn, kde xi 2 Fq .
Linern kd C nad / je denovn jakoto podprostor prostoru Vn (q ). M-li tento
podprostor dimenzi k, mluvme o -n k]-kdu nebo, chceme-li specikovat minimln
vzdlenost, mluvme o -n k d]-kdu. Protoe kad k-dimenzionln podprostor nad
Fq m qk prvk, mme:
Kad -n k d]-kd nad Fq je (n qk d)-kd.
Vhoda linernch kd je to, e pomoc k kdovch slov d
lky n meme zcela
popsat kd s prv qk kdovmi slovy d
lky n. Tm doshneme obrovsk
spory
pamti. Toti kad podprostor dimenze k je pln popsn k linern nezvislmi
vektory.
Denujeme pak generujc matici pro linern -n k]-kd C jakoto libovolnou matici rozmru k n, jej dky tvo k linern nezvislch kdovch slov z C . Pedpokldejme nyn, e G je generujc matice kdu C a G0 je matice, kterou meme
obdret z G pomoc konen
posloupnosti permutac nsledujcho typu:
75
KAPITOLA 4. KDY OPRAVUJC CHYBY
76
1. zmna dk,
2. nsoben dku nenulovm skalrem,
3. piten k dku skalrn nsobek jin
ho dku,
4. zmna sloupc,
5. nsoben sloupce nenulovm skalrem.
Pak lze snadno ukzat nsledujc tvrzen.
Lemma 5.1 G0 je generujc matice kdu C 0, kter je ekvivalentn s kdem C .
Dukaz. Sta ukzat, e kad z operac 1-5 odpovd vytvoen generujc matice
G0 kdu C 0 , kter je ekvivalentn s kdem C . Evidentn, zmna dk, vynsoben
dku nenulovm skalrem a piten dk jsou operace takov
, e dokonce kd C 0
je toton s kdem C . Zmna sloupc v matici G znamen, e provedeme pozin
permutaci urenou transpozic sloupc. Vynsoben sloupce nenulovm skalrem je
symbolov permutace tohoto sloupce (pracujeme nad tlesem a pak je mnoina nenulovch skalr grupou). Jsou tedy odpovdajc kdy ekvivalentn s kdem C .
Lemma 5.2 Bu G matice typu kn jej dky jsou linern nezvisl pak, aplikujemeli posloupnost operac typu (1)-(5) na G, je mon G pevst na matici G0 = -Ek A],
kde Ek je jednotkov matice typu k k.
Dukaz. Dkaz je veden indukc vzhledem ke k. Pokud k = 1, je tvrzen evidentn.
Sta vynsobit dek matice G prvkem inverznm k prvku g11. Pedpokldejme, e
tvrzen plat pro k a chceme jej dokzat pro k + 1. Protoe hodnost matice G je k + 1
existuje v matici G k + 1 nezvislch sloupc. Pomoc operace typu (4) tyto sloupce
dostaneme na prvnch k + 1 sloupc nov
matice G0 . Pak nutn v k + 1-nm sloupci
existuje nenulov prvek { jinak by hodnost matice nebyla k+1. Provedeme pak pomoc
operace typu (1) zmnu pslun
ho dku s poslednm dkem. Nov posledn dek
vynsobme po ad vhodnmi skalry a odeteme jej od pedchozch dk tak, aby se
nm k +1-n sloupec a na posledn dek vynuloval. Pak obdrme matici G00 , jejich
prvnch k dk (po vynechn k + 1-nho sloupce) je matice typu k (n ; 1), kter
m hodnost k. Lze pak aplikovat indukn pedpoklad a obdrme matici, kter m
na prvnch k dcch submatici typu -Ek A] (pitom na vynechan k + 1-n sloupec
budeme provdt pouze dkov
pravy). Snadno se zbavme nenulovch prvk v
poslednm dk na prvnch k-mstech pomoc operace typu (3). Pitom nutn na
mst (k +1 k +1) je nenulov prvek, sta pak vynsobit prvkem k nmu inverznm.
76
6. POUIT LINE
RNCH KD
77
V dsledku 5.2 meme bez jmy na obecnosti pracovat s generujcmi maticemi
ve ve uveden
standardn form. Jinou uitenou vlastnost linernch kd je, e
jejich minimln vzdlenost lze najt mnohem snze, ne v ppadu obecnch kd.
Mme pak nsledujc vsledek
Vta 5.3 Minimln vzdlenost d linernho kdu C je minimln vha w vech nenulovch vektor z C .
Dukaz. Bu d minimln vzdlenost linernho kdu C a pedpokldejme, e x y 2 C
tak, e d(x y) = d. Pak x ; y 2 C , w(x ; y) = d w = w(z) = d(z 0) d pro
vhodn vektor z 2 C .
6 Pouit linernch kd
Pedpokldejme, e C je linern -n k]-kd nad Fq = / a e m generujc matice G
tvaru
2 3
66
G = 66
4
r1 7
r2 77
... 75 = -Ek A] rk
kde ri jsou vektory d
lky n nad Fq a A je matice typu k (n ; k). Kdov slova kdu
C jsou vektory d
lky n tvaru
k
X
airi ai 2 Fq :
i=1
Zkladn mylenka zakdovn je nsledujc. Pokud je zprva bran jako posloupnost s = (s1 : : : sk ), zakdujeme s pomoc kdov
ho slova c = (c1 : : : cn), kde ci
jsou urena pedpisem
-c1 : : : cn] = -s1 : : : sk ] -Ek A] (4.9)
tj. ci = si pro 1 i k.
Pklad 6.1 Pedpokldejme, e kd C nad tlesem F3 (co je tleso zbytkovch td
po dlen 3) m generujc matici G tvaru
2
3
1 0 0 1 2 0
G = 64 0 1 0 0 1 1 75 :
0 0 1 2 0 1
Je-li vstupn zprva ze zdroje tvaru
102101210122 : : :
77
KAPITOLA 4. KDY OPRAVUJC CHYBY
78
rozdlme ji nejprve do blok d
lky ti a obdrme
102 j 101 j 210 j 122 j : : :
a pak zakdujeme zdrojov slova jakoto
102 7! r1 + 2r3 = 102222 101 7! r1 + r3 = 101021
201 7! 2r1 + r3 = 210221 122 7! r1 + 2r2 + 2r3 = 122211:
Dostaneme tedy posloupnost
102 j 222 j 101 j 021 j 210 j 221 j 122 j 211 j : : :
Tedy jsme, pi zdvojen d
lky zprvy, zpomalili rychlost penosu na polovic. Zvili
jsme ale spolehlivost.
Poznamenejme, e vztah 4.9 je ekvivalentn s rovnic
h
h
i
;A> En;k -c1 : : : cn]> = 0:
i
(4.10)
Matice H = ;A> En;k se nazv matice kontroly parity kdu C . Zejm
na tedy
plat, e z 2 C prv tehdy, kdy H -z1 : : : zn]> = 0:
Pitom matice H kontroly parity denuje jak vlastn kd C tak i pslunou generujc matici G. Nzev matice kontroly parity znamen, e na jistch kontrolnch
mstech jsou pidny jist
kontroln souty, kter
zkontroluj nae kdov slova. Obas
budeme pro -n k]-kd kat, e prvnch k sloek kdov
ho slova je nazvno informa
nmi znaky a zbvajcch n ; k sloek jsou symboly kontroly parity (kontroln
znaky).
Pklad 6.2 Ureme nyn matici H kontroly parity z pkladu 6.1. Ta m tvar
2
3 2
3
;
1 0 ;2 1 0 0
2 0 1 1 0 0
H = 64 ;2 ;1 0 0 1 0 75 = 64 1 2 0 0 1 0 75 :
0 ;1 ;1 0 0 1
0 2 2 0 0 1
Kdov
slovo 102222 sestv z ze zprvovch sel 102 a symbol kontroly parity
222. Evidentn, rovnost 4.10 je pro toto kdov
slovo (a vechna zbvajc) splnna.
Obecn mus tedy kdov slova splnit syst
m rovnic
2c1 + c3 + c4 = 0 c1 + 2c2 + c5 = 0 2c2 + 2c3 + c6 = 0:
(4.11)
Zkladn idea pro metodu opravovn chyb je vidt na tomto pklad. Pedpokldejme, e nae obdren
slovo nespl uje prvn a tet rovnici 4.11 v rovnicch kontroly
parity. Pak meme dedukovat, e chybn slice zprvy je slice c3, protoe to je
jedin slice, kter se vyskytuje v obou rovnicch.
78
7. PRAVIDLO MINIM
LN VZD
LENOSTI PRO LINE
RN KDY
79
Vta 6.3 Je-li H matice kontroly parity kdu C dlky n, pak kd C m minimln
vzdlenost d tehdy a jen tehdy, kdy kadch d ; 1 sloupc matice H je nezvislch,
ale nkterch d sloupc je linern zvislch.
Dukaz. Ozname po ad sloupce matice H jako h1 : : : hn. Pipome me, e pro
kad dkov vektor -c1 : : : cn] mme
-c1 : : : cn
]H T
=
n
X
i=1
cipTi :
Pedpokldejme, e d je minimln poet linern zvislch sloupc matice H . Pak
existuj skalry c1 : : : cn, z nich je prv d nenulovch tak, e
-c1 : : : cn]H T = 0T :
Ale to nek nic jin
ho, e c = c1 : : : cn 2 C . Protoe wt(c) = d, mme d(C ) wt(c) = d: Obrcen, je-li c = c1 : : : cn 2 C kdov
slovo minimln d
lky, pak nutn
-c1 : : : cn]H T = 0T a tedy je d(C ) sloupc z H odpovdajcm d nenulovm prvkm
linern zvislch. Je tedy d d(C ) tj. d = d(C ).
7 Pravidlo minimln vzdlenosti pro linern kdy
Uvame probl
m dekdovn pro linern kdy. Je-li C -n k]-kd nad abecedou / = Fq ,
pak C obsahuje qk kdovch slov d
lky n a poet monch obdrench vektor je qn.
Prohlec tabulka, kter by pro kad mon obdren vektor obsahovala nejbli
kdov
slovo by zabrala pli velk
mnostv pamti, dokonce pro mal n a k. Jednou
z hlavnch vhod pouvn linernch kd je, e existuje elegentn zpsob vyhnut
se ve uveden
mu probl
mu.
Tento postup popeme pouze v binrnm ppad. Rozen na jin
abecedy mohutnosti q = pm, kde p je prvoslo je bezprostedn i kdy technicky nronj.
Pedpokldejme, e C je -n k]-binrn kd. Protoe je C podprostor vektorov
ho
prostoru Vn binrnch vektor d
lky n, mus bt C podgrupa aditivn grupy Vn.
Pipome me, e d konen
grupy G je denovan jako mohutnost jGj nosn
mnoiny G, tj. poet prvk G a index -G : S ] podgrupy S G je poet jG=S j
rznch (levch) td rozkladu G podle S . Pitom (lev) tda uren prvkem a 2 G
m tvar Sa = fsa : s 2 S g. Speciln je piazen a 7! Sa surjektivn homomorsmus
G ! G=S . Pitom dv tdy Sa Sb jsou toton
prv tehdy, kdy a = s0 b pro nkter
s0 2 S . Prav
nsoben prvkem a je bijekce S ! Sa a proto m kad (lev) tda
rozkladu stejn poet prvk jako podgrupa S . Protoe G je sjednocen pslunch
levch td rozkladu, je poet prvk cel
grupy G stejn jako poet td rozkladu krt
poet prvk v S :
jGj = jG=S j jS j:
79
80
KAPITOLA 4. KDY OPRAVUJC CHYBY
Zejm
na tedy kd C uruje soubor levch td (koset) podprostoru Vn a libovoln
vektor a 2 Vn uruje jedin koset a + C = fb : b = a + c pro vhodn vektor c 2 Cg.
Pedpokldejme tedy, e y je obdren vektor v tom ppad, e jist
kdov
slovo
bylo peneseno kanlem. *ekneme, e vektor e je mon chybov vektor vektoru y,
pokud existuje kdov
slovo c 2 C tak, e
y ; c = e:
Speciln je tedy interpretace nsledujc: vektor e je chybov vektor pidruen
k obdren
mu vektoru, jestlie je schopen reprezentovat jistou monou posloupnost
chyb pi penosu. Nsledujc triviln pozorovn je klov
.
Lemma 7.1 Je-li y obdren vektor, je mnoina monch chybovch vektor ten
koset mnoiny C , kter obsahuje vektor y.
Dukaz. Bylo-li obdreno slovo y, je vektor e chybov vektor prv tehdy, kdy existuje kdov
slovo c 2 C tak, e y ; c = e: Ale C je podprostor tedy i ;c 2 C , tj.
e = y + c0 a e 2 y + C .
Co to je dekdovn podle pravidla minimln vzdlenosti? To nen nic jin
ho, ne
nalezen chybov
ho vektoru s minimln vahou. Znme-li tedy, pro kad koset jeho
prvek minimln vhy, pak mme zklad pro dekdovn podle pravidla minimln
vzdlenosti. *ekneme pak, e vektor e je reprezentant kosetu H, jestlie m nejmen
vhu ze vech vektor obsaench v H = e + C . Zdraznme, e takovto reprezentant
nemus bt vybrn jednoznan.
Algoritmus I
Krok 1: Po pijet vektoru y najdeme reprezentanta z0 kosetu y ; C .
Krok 2: Vektor y pak dekdujeme jakoto kdov
slovo y ; z0 .
Evidentn, Krok 1 me bt velmi asov nron. Urychlme jej pouitm nsledujc vlastnost linernch kd.
Lemma 7.2 Dva vektory y1 a y2 le v tme kosetu prv tehdy, kdy
H y>1 = H y>2 :
Dukaz. Dva vektory y1 a y2 le v t
me kosetu prv tehdy, kdy existuje kdov
slovo c 2 C tak, e
y 1 = y2 + c
tj.
H c> = H (y1 ; y2)> = 0
tj.
H y>1 = H y>2 :
80
7. PRAVIDLO MINIM
LN VZD
LENOSTI PRO LINE
RN KDY
81
Denujme syndrom kosetu H = a + C jakoto vektor H a> d
lky k. Evidentn, je
tato denice korektn. Mme tedy pro kad koset H jeho syndrom a jeho reprezentanta kosetu. Mme-li tedy pedem vypotenou tabulku, ve kter
je pro kad syndrom
uren pslun reprezentant, meme urychlit ve uvedn algoritmus nsledovn:
Algoritmus II { poloecientn
Krok 1a: Po pijet vektoru y najdeme syndrom H y>.
Krok 1b: Z ve uveden
tabulky najdeme odpovdajcho reprezentanta z0 kosetu
y ; C.
Krok 2: Vektor y pak dekdujeme jakoto kdov
slovo y ; z0.
Plat pak
Vta 7.3 Algoritmus II pracuje jakoto dekdovac pravidlo podle minimln vzdlenosti pro linern kd C .
Dukaz. Poznamenejme nejprve, e kad
obdren
slovo y meme dekdovat jakoto kdov
slovo. To je z toho dvodu, e y a z0 jsou ve stejn
m kosetu a tedy
y ; z0 2 C . Pedpokldejme, e existuje kdov
slovo c tak, e
d(y y ; z0 ) > d(y c):
To je ekvivalentn s tm, e
d(0 z0 ) > d(y ; c 0)
tj. w(z0) > w(y ; c).
Ale pak
H (y ; c)> = H y> ; H c> = H y>
protoe c je kdov
slovo. Zejm
na tedy m y ; c stejn syndrom jako y, le ve
stejn
m kosetu a a m vhu oste men ne je vha reprezentanta kosetu z0 , co je
spor.
V dalm budeme pedpokldat, e kdovn a dekdovn pro linern -n k]-kd
C = fc1 : : : cM , c1 = 0 pi penosu binrnm symetrickm kanlem s pravdpodobnost chyby p bude probhat pomoc nsledujc tabulky
Dle pedpokldejme, e kad reprezentant fi pslun
ho kosetu m vhu wt(fi).
Plat pak nsledujc tvrzen. Ozname, pro 1 j n, wj poet reprezentant vhy
j.
81
KAPITOLA 4. KDY OPRAVUJC CHYBY
82
Vta 7.4 Bu C binrn linern -n k]-kd. Pak pravdpodobnost sprvnho dekdovn pi penosu binrnm symetrickm kanlem je
P (sprvn
dekdovn) =
tj.
s
X
i=1
P (sprvn
dekdovn) =
pwt(fi )(1 ; p)n;wt(fi)
n
X
j =1
wj pj (1 ; p)n;j :
Dukaz. Protoe reprezentant fi pslun
ho kosetu m vhu wt(fi), pravdpodobnost,
e nm vznikne z c slovo d je stejn, e nm vznikne z 0 pslun reprezentant fi tj.
P (reprezentant je fi) = pwt(fi ) (1 ; p)n;wt(fi) :
Postme-li pes vechny reprezentanty, obdrme poadovan
tvrzen.
Nevhody t
to kdovac metody lze nejl
pe vidt na nsledujcm pkladu.
Pklad 7.5 Pedpokldejme, e C je binrn kd, jeho generujc matice G je urena
nsledovn
"
#
1
0
1
0
G= 0 1 1 1 :
Pak kontroln matice H m tvar
Kdov slova kdu C jsou
"
#
H = 10 11 10 01 :
0000 1010 0111 1101:
Syndrom s
Reprezentant z0
kosetu H, s = H z>0
Pslun prohlec tabulka m tvar
00
10
01
11
0
c2
c3 cM
f2 f2 + c2 f2 + c3 f2 + cM
f3 f3 + c2 f3 + c3 f3 + cM
...
fs
...
fs + c2
...
fs + c3
...
...
fs + cM
82
0000
0010
0001
0100
.
8. BIN
RN HAMMINGOVY KDY
83
Pedpokldejme tedy, e jsme obdreli vektor y = 1111. Je ho syndrom je vektor
H y> = 10. Odpovdajc reprezentant je 0010, je tedy slovo 1111 dekdovno jakoto
1101. Poznamenejme, e tato prohlec tabulka nen urena jednoznan, napklad
za reprezentanta syndromu 10 lze vzt vektor 0111.
V ppad binrnho -n k]-kdu mme prv jVnj=jCj = 2n;k (obecn pak qn;k )
rznch koset zejm
na tedy bude mt prohlec tabulka v Kroku 1(b) prv 2n;k
rznch poloek. Prohledvn takov
to tabulky je pro velk k n velmi nron
. Avak
ostatn vhody t
to metody oprav uj jej irok
pouvn.
8 Binrn Hammingovy kdy
Abychom ilustrovali dve uveden
techniky, uvame nsledujc pklad. Omezme nai
pozornost na binrn pklad bu r njak
kladn
cel
slo a polome n = 2r ; 1.
Dle denujme kontroln matici H jakoto matici typu r (2r ; 1), jej sloupce tvo
vechny navzjem rzn
nenulov
vektory z Vr . Pak H je kontroln matice binrnho
-n k]-kdu, kde
n = 2r ; 1 k = n ; r:
Mluvme pak o Hammingov -n k]-kdu .
Klovou vlastnost Hammingovch kd lze zformulovat v nsledujc vt.
Vta 8.1 Kad Hammingv kd je perfektn kd opravujc jednu chybu.
Dukaz. Nejprve ukam, e minimln vzdlenost kad
ho Hammingova kdu je alespo 3. Protoe C je linern kd, je minimln vzdlenost d(C ) rovna minimln vze
vektor z C .
Pedpokldejme nejprve, e C m kdov
slovo u vhy 1 s nenulovm vstupem v
i-t
souadnici. Pak plat
H u> = 0
tj. i-t sloupec hi matice H je nulov, co nen z denice matice H mon
. Pedpokldejme dle, e C m kdov
slovo v vhy 2 s nenulovmi vstupy v i-t
a j -t
souadnicch. Pak plat
H v> = 0
tj.
hi + hj = 0:
Protoe pracujeme s binrnmi kdy, je nutn
hi = hj co nen mon
. je tedy d(C ) 3. Ukame, e C je perfektn. Poznamenejme, e
kad 1-koule kolem kdov
ho slova bude obsahovat prv 1 + n = 2r vektor d
lky
n = 2r ; 1. Protoe C obsahuje prv 2k = 2n;r kdovch slov, disjunktn sjednocen
tchto 1-koul je prv cel mnoina Vn vektor d
lky n, jich je prv 2n = 2n;r 2r .
83
KAPITOLA 4. KDY OPRAVUJC CHYBY
84
Dleitm dsledkem perfektnosti Hammingovch kd je, e
1. Pro Hammingv -n k]-kd jsou reprezentanti koset vektory z Vn vhy 1.
To vede k nsledujcmu elegantnmu dekdovacmu algoritmu pro Hammingovy
kdu. Nejprve poznamenejme:
2. Sloupce matice H lze pemstit tak, e j -t sloupec matice H je prv binrn
reprezentace sla j .
Je-li obdren vektor y, spotme jeho syndrom H y? a pedpokldejme, e reprezentuje slo j . Pedpokldme-li pouze jednu chybu, pravidlo minimln
vzdlenosti (=pravidlo maximln pravdpodobnosti) nm dv:
(a) Pokud j = H y? = 0, pak nepedpokldme dnou chybu a y je kdov
slovo.
(b) Pokud j = H y? 6= 0, pak pedpokldme chybu v j -t
pozici a dekdujeme
y jeho zmnou v j -t
pozici.
Pklad 8.2 Hammingv -7 4]-kd m matici kontroly parity
2
3
0 0 0 1 1 1 1
H = 64 0 1 1 0 0 1 1 75 :
1 0 1 0 1 0 1
Pedpokldejme, e jsme obdreli vektor y = (1 0 1 0 1 1 0). Pak H y> = (001).
Tedy za pedpokladu, e nenastala vce ne jedna chyba, pedpokldme, e se chyba
vyskytla na prvnm mst a dekdujeme pak y jakoto y,
y = (0 0 1 0 1 1 0):
Cvien 8.3
1. Napite matici kontroly parity binrnho -15 11 3]-kdu. Jak bychom dekdovali
obdren vektory:
(a) (100000000000000),
(b) (111111111111111)?
9 Cyklick
kdy
Diskutujme nyn dleitou skupinu linernch kd. Kd C se nazv cyklick, jestlie
plat nsledujc podmnky:
84
9. CYKLICK KDY
85
1. C je linern,
2. pokud vektor w = (w1 : : : wn) 2 C , pak i vektor w0 = (wn w1 : : : wn;1) 2 C .
Tyto kdy maj atraktivn algebraick
vlastnosti a meme je snadno sestrojit
pomoc linernch posouvacch registr (ble viz -7]).
Budeme dle pracovat pouze v binrnm ppad a bhem tohoto paragrafu budeme identikovat vektor
w = (w1 : : : wn)
s polynomem
w(x) = w1 + w2x + w3x2 + : : : + wnxn;1 :
Dle budeme potat pouze v okruhu Rn binrnch polynom stupn nejve n ; 1
modulo polynom xn ; 1. Tedy Rn se skld z polynom stupn n ; 1 s koecienty
0 a 1 tak, e plat nsledujc pravidla pro stn a nsoben polynom:
;1 (ai + bi )xi
a(x) + b(x) = Pni=0
a(x) b(x) = a(x)b(x) mod (xn ; 1):
Zkladnm pozorovnm je nsledujc skutenost: posunu v kdov
m slov odpovd nsoben odpovdajcho polynomu monomem x v okruhu Rn. Toti w(x) x =
w1x + w2x2 + w3x3 + : : : + wn;1xn;1 + wnxn mod (xn ; 1) = w1x + w2x2 + w3x3 +
: : : + wn;1xn;1 + wnx0 :
Plat pak nsledujc lemma
Lemma 9.1 Je-li w(x) polynomiln reprezentace kdovho slova w 2 C , je i w(x)f (x)
kdov slovo pro kad polynom f stupn nejve n ; 1.
Dukaz. Protoe w(x) 2 C , je i xw(x) 2 C (posunut o 1 msto doprava). Nutn tedy
pro kad
pirozen
slo k plat, e xk w(x) 2 C . Ale protoe je C linern kd, je i
libovoln linern kombinace kdovch slov tvaru xk w(x) opt v C , zejm
na tedy je
polynom f (x)w(x) v C .
Lemma 9.2 Je-li g(x) nenulov polynom minimlnho stupn v C , pak g(x) generuje
kd C v tom smyslu, e kad kdov slovo w(x) 2 C je tvaru
w(x) = f (x)g(x)
pro vhodn polynom f (x).
Dukaz. Pedpokldejme, e existuje w(x) 2 C , kter
nelze napsat ve ve uveden
m
tvaru. Pak lze pst
w(x) = q(x)g(x) + r(x)
kde r(x) je zbytek po dlen polynomem g(x) tj. jeho stupe je men ne stupe
polynomu g(x). Ale nutn q(x)g(x) w(x) 2 C tj. r(x) 2 C tj. nutn je r(x) nulov
polynom, spor. Tedy je kad polynom z C nsobkem g(x).
85
KAPITOLA 4. KDY OPRAVUJC CHYBY
86
Mluvme pak o polynomu g(x) jakoto o generujcm polynomu kdu C . Tm pak
dostaneme velmi dobrou reprezentaci kdu C . Pipome me dle, e cyklick kd nen
nic jin
ho ne idel v okruhu polynomu a 9.2 plyne bezprostedn z toho, e kad
idel v okruhu polynom je hlavn idel.
Pklad 9.3 Pedpokldejme, e n = 3 a nsoben je provdno modulo polynom
x3 ; 1. Pak kd
C = f0 1 + x x + x2 1 + x2 g
je cyklick a generovn polynome 1 + x. Standardn reprezentace kdu C sestv z
vektor
f(0 0 0) (1 1 0) (0 1 1) (1 0 1)g:
Lemma 9.4 Je-li C cyklick kd dlky n s generujcm polynomem g(x) = g1 + g2 x +
: : : + gk xk;1, pak jeho generujc matice typu (n ; k + 1) n m tvar
2
66 g01
6
G = 666 0
64 ...
3
::: 0 7
: : : 0 77
: : : 0 77 :
... ... ...
... ... 77
...
...
...
5
0 0 : : : : : : : : : : : : gk;2 gk;1 gk
Dukaz. Evidentn, dky matice G jsou linern nezvisl
. Ukame, e kad
kdov
slovo lze reprezentovat pomoc tchto dk. Je-li tedy c = (c0 c1 : : : cn;1) kdov
slovo, je odpovdajc polynom
c(x) = c0 + c1x + : : : + cn;1xn;1
tvaru
c(x) = g(x)f (x) (mod(xn1 ; 1))
pro jist polynom f stupn nejve n ; 1. Ale to neznamen nic jin
ho, ne e
nX
;1
c(x) = fixi g(x) (mod(xn1 ; 1))
g2 g3 : : : gk 0
0
g1 g2 : : : gk;1 gk 0
0 g1 : : : gk;2 gk;1 gk
i=0
tj. polome-li g(i) (x) = xig(x) a je-li g(i) odpovdajc reprezentace polynomu g(i)(x)
(i + 1-n dek matice G), mme
c=
nX
;1
i=0
fig(i) :
86
10. MARINERV KD A REED-MULLEROVY KDY
87
Lemma 9.5 Je-li g generujc polynom cyklickho kdu dlky n C , pak g dl polynom
(xn1 ; 1).
Dukaz. Pedpokldejme, e tomu tak nen. Meme pak pst
xn ; 1 = g(x)q(x) + r(x)
kde r(x) je nenulov polynom se stupnm menm ne je stupe g. Protoe q(x)f (x) 2
C a r = ;qg v tomto okruhu, plyne z linearity, e i r je kdov
slovo, tj. se neme
jednat o polynom minimlnho stupn a tedy r = 0, spor.
Lemma 9.6 Je-li dn polynom p stupn < n, pak mnoina vech polynom C =
fqp(mod(xn1 ; 1)) : q je polynom stupn < ng je cyklick kd dlky n.
Dukaz. Evidentn, C je linern kd. Zrove , je-li qp 2 C , je i xqp 2 C tj. C je
cyklick kd.
10 Marinerv kd a Reed-Mullerovy kdy
V tomto odstavci se budeme vnovat dalm dvma pkladm, kdy pomoc klasick
modern algebry byly zkonstruovny a vyvinuty nov
tdy kd.
10.1 Hadamardovy k
dy
Kdovn R(1 5) pouit
v roce 1969 kosmickm korbem Mariner 9 pro penos
fotogra z Marsu je specilnm ppadem nsledujcch obecnch kd.
Nejprve si pipome me nkter
pojmy z modern algebry. Hadamardova matice je
matice H typu n n, jej koecienty jsou bu +1 nebo ;1 tak, e
HH T = nEn (4.12)
kde En je jednotkov matice typu n n.
Jsou-li dle A a B tvercov
matice typu m m a n n, denujeme jejich Kroneckerv sou
in jako matici A B typu mn mn
2
6
A B = 64
3
a11B a12 B : : : a1m B 7
...
...
... 7 :
5
am1 B am2 B : : : amm B
Pmm vpotem pak snadno dokeme:
87
(4.13)
88
KAPITOLA 4. KDY OPRAVUJC CHYBY
Lemma 10.1 Jsou-li H1 a H2 Hadamardovy matice, je jejich Kroneckerv sou
in
H1 H2 Hadamardova matice.
T
^
^
Dukaz. Potejme
P G = (HP1 H2 )(H1 H2 ) . Pak gij , i = i+n(i;1), j = j +n(j ;1).
Zejm
naPgij = ml=1
a^il a^jl ( nk=1 bik bjkP). Pokud i = j , je nutn ^i =P^j a i = j a tedy
P
m
n
i gii = l=1 a^il a^il ( k=1 bik bik ). Ale nk=1 bik bik = n a tedy gii = ml=1 a^il a^il n = mn.
Nech'
tedy iP6= j . Pak bu i P6= j nebo ^i 6= ^j . Nech' napklad ^i 6= ^j . Pak gij =
P
m
n b b ) = 0.. Nech' tedy i 6= j . Podobn, g =
(Pl=1 a^il a^jl )(Pnk=1 bik bjk ) = 0(
ij
k=1 ik jk
P
m
m
n
( l=1 a^il a^jl )( k=1 bik bjk ) = ( l=1 a^il a^jl )0 = 0.
Zaneme-li tedy s nejmen netriviln Hadamardovou matic
"
#
1
1
H2 = 1 ;1 meme postupn iterovat Kroneckerovm souinem, abychom obdreli posloupnost
Hadamardovch matic s exponenciln rostoucm typem. Chceme-li pak tuto posloupnost pout pro ely kdovn, pedpokldejme, e H je Hadamardova matice
rozmru n n, piem n je sud
. Denujme pak A jakoto matici typu 2n n
"
#
H
A = ;H :
Pak denujme M jakoto matici, kterou zskme z matice A tak, e nahradme
kad vskyt ;1 v A slem 0.
Snadno se ov nsledujc tvrzen
Lemma 10.2 Hadamardovo kdovn
1. Jsou-li x a y dva rzn dky matice M , je pak vzdlenost d(x y) vektor x a
y rovna slu n2 nebo n.
2. -dky matice M tvo binrn (n 2n n2 )-kd.
Dukaz. Snadn
cvien. Toti, vezmeme-li 2 rzn
dky vznikl
z H , nutn je poet
mst, kde se dky li, roven potu mst, kde jsou oba dky stejn
, tj. d(x y) = n2 .
Podobn, vezmeme-li 2 rzn
dky, z nich jeden vznikl z H a druh z ;H a zrove
oba z rznch vektor z H , je nutn opt poet mst, kde se dky li, roven potu
mst, kde jsou oba dky stejn
, tj. opt d(x y) = n2 . Ppad, kdy oba dky vznikly
ze stejn
ho vektoru, nm dv vzdlenost rovnu n. Posledn ppad, kdy oba dky
vznikly z ;H , se pevede na prvn ppad. Zbvajc st tvrzen je triviln.
Provedeme-li ve uveden
ptkrt za sebou na matici H2 , obdrme n = 32 a
to je pesn kdovn pouit
Marinerem. Kdy zskan
ve uvedenm postupem se
nazvaj Hadamardovy kdy.
88
10. MARINERV KD A REED-MULLEROVY KDY
89
10.2 Reed-Mullerovo k
dovn
Tato prakticky dleit tda kd byla objevena I.S. Reedem a D.E. Mullerem v
roce 1954. Abychom mohli popsat tyto kdy, budeme nejprve prezentovat jednoduch
zpsob zkonstruovn novch kdovn ze starch pvodnch.
Lemma 10.3 Je-li dn (n M1 d1) binrn kdovn C1 a jin (n M2 d2) binrn
kdovn C2 , meme pak denovat tet binrn kdovn C3 = C1 C2 jakoto
C3 = f(u u + v) : u 2 C1 v 2 C2 g:
Pitom C3 je (2n M1 M2 d3)-kd, kde
d3 = minf2d1 d2g:
(4.14)
Dukaz. Toti d
lka kdovch slov v C3 je nutn 2n a snadno se ov, e jich je prv
M1 M2 . To plyne z toho, e pokud (u1 u1 + v1 ) = (u2 u2 + v2) je nutn u1 = u2 a
tedy i v1 = v2 . Takovchto uspodanch dvojic (u v) je prv M1 M2 . Zbv ovit,
e minimln d
lka kdovn C3 , kterou zname d3, je rovna minf2d1 d2g. To je ale
zejm
. Toti, je-li (u1 u1 + v1 ) =
6 (u2 u2 + v2 ), pak mohou nastat nsledujc ppady
1. u1 = u2 : pak d(v1 v2) = d((u1 u1 + v1) (u2 u2 + v2 )) d2.
2. v1 = v2 : pak d(u1 u2) + d(u1 u2 ) = d((u1 u1 + v1 ) (u2 u2 + v2)) 2d1.
3. v1 =
6 v2 a v1 =6 v2 : pak ozname-li In = fi : i(u1) =6 i (u2)g, Ie = fi :
i (u1) = i (u2)g, Jn = fi : i(v1 ) =
6 i (v2)g, Je = fi : i(v1 ) = i (v2)g, je
d((u1 u1 + v1 ) (u2 u2 + v2)) = jInj + jJe \ Inj + jJn \ Iej = jJnj +2jJe \ In j d2.
Pitom v prvnm a druh
m ppad me pro vhodn vybran
dvojice nastat rovnost,
tj. tvrzen plat.
Denujme nyn rekurzivn Reed-Mullerv kd C (r m) pedpisem:
Pro vechna nezporn cel sla m a r takov, e 0 r m, denujeme C (r m)
jakoto kd d
lky n = 2m takov, e
C (0 m) = f0 1g
(4.15)
kde 0 = (0 0 : : : 0) a 1 = (1 1m : : : 1), C (m m) je mnoina vech binrnch vektor
d
lky n = 2m tj. C (m m) = 22 a
C (r + 1 m + 1) = C (r + 1 m) C (r m)
89
(4.16)
KAPITOLA 4. KDY OPRAVUJC CHYBY
90
pro r < m. Meme pak tyto kdy konstruovat nsledovn:
m = 1 C (0 1)
C (1 1)
m = 2 C (0 2)
C (1 2)
=
=
=
=
=
f00 11g
f00 01 10 11g
f0000 1111g
C (1 1) C (0 1)
f0000 0011 0101 0110 1001 1010 1100 1111g
atd. Aplikujeme-li nyn lemma 10.3, obdrme nsledujc vtu:
Vta 10.4 Pro vechna nezporn cel sla m a r takov, e 0 r m je ReedMullerv C (r m) binrn kd charakteristiky (nr Mr dr ), kde
!
!
!
P
m
m
1. Mr = 2a , kde a = ri=0 i = 1 + 1 + : : : + mr ,
2. nr = 2m ,
3. dr = 2m;r .
Dukaz. Dkaz povedeme indukc vzhledem k denici C (r m). Toti pro C (0 m) =
f0 1g je poet slov M0 roven dvma a protoe zrove nutn a = 1, prvn st
tvrzen pro C (0 m) plat. Protoe d
lka nr vektor je dle denice 2m, plat druh st
tvrzen. Protoe kd obsahuje pouze dva vektory, kter
se li na nr = 2m mstech, je
vzdlenost kdu rovna nr = 2m;0 = dr . Uvame nyn kd C (m m), co je mnoina
vech binrnch vektor d
lky n = 2m = nm . Je tedy v naem ppad a = n a
tedy i Mm = 2a .Vzdlenost kdu je pak nutn 1 = 2m;m . Vnujme se nyn ppadu
C (r + 1 m + 1) = C (r + 1 m) C (r m). Z induknho pedpokladu a lemmatu 10.3
vme, e
!
!
!
!
!
Pr+1 m
Pr+1 m Pr m
Pr+1 m +Pr m
i=0 i
i=0 i
i=0 i
i=0 i
i=0 i
=2
:
Mr+1 = 2
2
=2
Dle vme, e nr+1 = 2 2m = 2m+1 a dr+1 = minf2 2m;r;1 2m;r g = 2m;r =
2m+1;(r+1) .
Problmy 4.1
1. Ukate, e pokud plat
!
P
n
;
1
d
;
2
k
(a) 2 i=0
< 2n ,
i
pak existuje binrn linern -n k]-kd s minimln vzdlenost alespo d. Tud
odvote, e
90
10. MARINERV KD A REED-MULLEROVY KDY
91
(a) 2k A2 (n d),
kde k je nejvt pirozen slo splnujc nerovnost (1). Nvod: Zkonstruujte
matici H typu (n ; k) n, takovou, e jej hodnost je nejve d ; 2.
2. Ukate, e je-li H Hadamardova matice du n, je nutn n = 1 2 nebo je n
nsobek 4. Poznamenejme, e existuje hypotza, e pokud n je nsobek ty,
existuje Hadamardova matice du n.
91
92
KAPITOLA 4. KDY OPRAVUJC CHYBY
92
P
loha A
Nhodn jevy a nhodn veliiny
Tento dodatek obsahuje zkladn pojmy nutn
pro pochopen probran
ltky. Je
zaloen na skriptech -4].
1 Miteln prostor a vztahy mezi nhodnmi jevy
Neprzdnou mnoinu monch vsledk nhodn
ho pokusu zname + a nazvme
ji zkladn prostor . Mon
vsledky nhodn
ho pokusu zname !t, t 2 T , kde T je
indexov mnoina.
Syst
m podmnoin A zkladnho prostoru +, kter
1. obsahuje zkladn prostor,
2. s kadmi dvma mnoinami obsahuje i jejich rozdl,
3. obsahuje-li kadou ze spoetn
posloupnosti mnoin, obsahuje i jejich sjednocen
se nazv jevov pole .
Poznamenejme, e m-li zkladn prostor alespo dva prvky, nen jevov
pole
uvedenmi temi axiomy ureno jednoznan.
Je-li A 2 A, ekneme, e A je nhodn jev vzhledem k jevov
mu poli A. Dvojici
(+ A) nazveme miteln prostor , mnoinu + pak nazveme jist jev, mnoinu nemon jev. Prvek ! 2 T+ nazveme elementrn jev. Nech' I je libovoln neprzdn
indexov
mnoina. Pak i2I Ai zna spole
n nastoupen nhodnch jev Ai, i 2 I
S
a i2I Ai zna nastoupen alespo jednoho z nhodnch jev Ai, i 2 I . Ai = + ; Ai
zna opa
n nhodn jev k nhodnmu jevu Ai, i 2 I . Pitom to, e ! 2 Ai , i 2 I
znamen, e mon vsledek ! je pzniv jevu Ai .
Nech' i j 2 I . Pak Ai ; Aj znamen nastoupen jevu Ai za nenastoupen jevu Aj ,
Aj Ai znamen, e nhodn jev Aj m za dsledek nhodn jev Ai a Ai \ Aj = znamen, e nhodn
jevy Ai a Aj jsou neslu
iteln.
93
94
PLOHA A. N
HODN JEVY A N
HODN VELIINY
2 Pravdpodobnostn prostor
Nech' (+ A) je miteln prostor. Pravdpodobnost rozumme relnou mnoinovou
funkci P : A ! R, kter je
1. nezporn (pro vechna A 2 A je P (A) 0),
S1
P1
1
2. spoetn aditivn (81
i=1 8j =i+1Ai \ Aj = =) P ( i=1 Ai ) = i=1 P (Ai)),
3. normovan (P (+) = 1).
Trojice (+ A P ) se nazv pravdpodobnostn prostor. Za pedpokladu, e A 6=
f +g, nen pravdpodobnost P uvedenmi temi axiomy jednoznan urena.
3 Klasick pravdpodobnost
Nech' zkladn prostor + je konen neprzdn mnoina a nech' jevov
pole A obsahuje vechny podmnoiny zkladnho prostoru tj. A = 2. Ozname m(+) = j+j
poet vech monch vsledk a pro libovoln jev A 2 A ozname m(A) = jAj poet
monch vsledk pznivch jevu A. Pak relnou funkci P : A ! R denovanou pro
vechna A 2 A vztahem
(A)
P (A) = m
m(+)
nazveme klasick pravdpodobnost. Vem elementrnm jevm pak piazujeme stej1
nou pravdpodobnost m()
. Nen-li tato podmnka splnna, nelze klasickou pravdpodobnost pout.
Vta 3.1 Bute A1 : : : An 2 A libovoln nhodn jevy. Pak plat
P (Sni=1 Ai) = Pni=1 PP(Ai) ; P1i<jn P (Ai \ Aj ) + : : : +
(;1)l 1i1<:::<iln P (Ai1 \ : : : \ Ail ) + : : : + (;1)n;1P (A1 \ : : : \ An):
4 Podmnn pravdpodobnost
Nech' (+ A P ) je pravdpodobnostn prostor, H 2 A nhodn jev s nenulovou pravdpodobnost. Pro kad
A 2 A denujeme podmnnou pravdpodobnost vzorcem
\ H):
P (AjH ) = P (PA(H
)
Vta 4.1 Vta o nsoben pravdpodobnost Nech( (+ A P ) je pravdpodobnostn prostor, A1 : : : An 2 A nhodn jevy takov, e P (A1 \ : : : \ An;1 ) > 0. Pak
plat
P (A1 \ : : : \ An ) = P (A1) P (A2jA1) P (A3jA1 \ A2 ) : : : P (AnjA1 \ A2 \ : : : \ An;1 ):
94
5. STOCHASTICKY NEZ
VISL N
HODN JEVY
95
Nech' (+ A P ) je pravdpodobnostn prostor a nech' je dn rozklad (Hi : i 2 I )
zkladnho prostoru + na nejve spoetn mnoho jev Hi o nenulovch pravdpodobnostech P (Hi). *kme, e je dn pln systm hypotz. Potom
1. pro libovoln jev A 2 A plat formule pln pravdpodobnosti:
X
P (A) = P (Hi) P (AjHi)
i2I
2. pro nhodn jev A s nenulovou pravdpodobnost a pro libovoln jev Hk z
pln
ho syst
mu hypot
z plat 1. Bayesv vzorec:
k ) P (AjHk )
P (Hk jA) = P P (H
i2I P (Hi) P (AjHi)
3. pro nhodn jev A s nenulovou pravdpodobnost a pro libovoln jev B 2 A
plat 2. Bayesv vzorec:
P P (H ) P (AjH ) P (B jA \ H )
i
P (B jA) = i2I P i P (H ) iP (AjH )
:
i
i
i2I
Pouit 1. Bayesova vzorce: V souladu s textem lohy stanovme jevy Hi , i 2 I , kter
se navzjem vyluuj a pitom vyerpvaj vechny monosti. Jeden z nich mus bt
nhodn jev, jeho pravdpodobnost ns zajm. Jev, o nm je v loze eeno, e
skuten nastal, ozname A. Pak pro i 2 I vypoteme apriorn pravdpodobnosti
P (Hi) a podmnn
pravdpodobnosti P (AjHi). Dosazenm do 1. Bayesova vzorce
vypoteme aposteriorn pravdpodobnost P (Hk jA).
Pouit 2. Bayesova vzorce: Stanovme opt pln syst
m hypot
z Hi , i 2 I . Jev,
kter skuten nastal, ozname A a nhodn jev, na jeho pravdpodobnost se ptme,
ozname B . Pak pro i 2 I vypoteme apriorn pravdpodobnosti P (Hi) a podmnn
pravdpodobnosti P (AjHi) a P (B jA \ Hi). Dosazenm do 2. Bayesova vzorce
dostaneme pravdpodobnost P (B jA).
Charakteristick znak, kter odliuje lohy vedouc na 1. Bayesv vzorec od loh
vedoucch na 2. Bayesv vzorec spov v tom, e v prvnm ppad se ptme na
pravdpodobnost jevu, kter je toton s jednou z hypot
z, kdeto ve druh
m ppad
se ptme na pravdpodobnost jevu, kter je zcela nov a nesouvis s ostatnmi jevy
v loze popsanmi.
5 Stochasticky nezvisl
nhodn
jevy
Nech' (+ A P ) je pravdpodobnostn prostor. *ekneme, e nhodn
jevy A1 A2 : : : An
jsou stochasticky nezvisl vzhledem k pravdpodobnosti P , jestlie plat multiplikativn vztahy:
95
PLOHA A. N
HODN JEVY A N
HODN VELIINY
96
8i < j :
P (Ai \ Aj ) = P (Ai) P (Aj )
8i < j < k : P (Ai \ Aj \ Ak ) = P (Ai) P (Aj ) P (Ak )
:
:
:
P (A1 \ : : : \ An) = P (A1) : : : P (An):
Denici lze rozit i na spoetnou posloupnost jev: *ekneme, e jevy A1 A2 : : : Ak : : : 2
A jsou stochasticky nezvisl vzhledem k pravdpodobnosti P , jestlie pro vechna
pirozen n jsou stochasticky nezvisl
nhodn
jevy A1 A2 : : : An.
Ovujeme-li stochastickou nezvislost nhodnch jev, musme prozkoumat platnost vech multiplikativnch jev.
Je-li v textu lohy eeno, e jevy jsou stochasticky nezvisl
a mme-li stanovit
pravdpodobnost nastoupen alespo jednoho z tchto jev, vyuijeme de Morganova
pravidla a potme
n
\n
n
\n
Y
P ( Ai) = P ( Ai) = 1 ; P ( Ai) = 1 ; (1 ; P (Ai)):
i=1
i=1
i=1
i=1
6 Borelovsk
mnoiny a nhodn
veliiny
Nech' n je pirozen
slo. Mnoinu Rn nazvme n-rozmrnm prostorem a mnoinu
R1 = RN nazvme spo
etn rozmrnm prostorem.
Minimln jevov
pole na Rn obsahujc tdu vech interval (;1 x1 ](;1 x2 ]
: : : (;1 xn] pro (x1 x2 : : : xn) 2 Rn, nazvme n-rozmrnm borelovskm polem
B(n) a prvky tohoto pole nazvme
n-rozmrnmi borelovskmi mnoinami. Podobn
pro spoetn
borelovsk
pole B(1) .
Mezi borelovsk
mnoiny pat zejm
na przdn mnoina, cel konen rozmrn
pop. spoetn rozmrn prostor, vechny jednobodov
, konen
resp. spoetn
mnoiny, vechny intervaly, vechny oteven
i uzaven
oblasti a vechna nejve spoetn
sjednocen takovch mnoin. Kart
zsk souin borelovskch mnoin je opt borelovsk mnoina, ale vy dimenze.
Zobrazen X : + ! R se nazv nhodn veliina vzhledem k jevov
mu poli A,
jestlie
8B 2 B : f! 2 + : X (!) 2 B g = X ;1(B ) 2 A
tj. pln vzor kad
borelovsk
mnoiny je nhodnm jevem.
Obraz X (!) se nazv seln realizace nhodn
veliiny X pslun k mon
mu
vsledku !. Jestlie nehroz nebezpe nedorozumn, zapisujeme nhodnou veliinu
i jej realizaci tm symbolem X . Mnoinu f! 2 + : X (!) 2 B g zkrcen zapisujeme
fX 2 B g.
96
7. N
HODN VEKTORY
97
Vme, e kad mnoina typu fX 2 B g (kde B 2 B(n) ) je jevem. Ve specilnm ppad B = fxg nebo B = (;1 x] peme jednodueji fX = xg fX xg.
Podmnky mohou bt vyjadovny logickmi spojkami negace, konjunkce, disjunkce
a implikace. Jim odpovdaj mnoinov
operace komplement, prnik, sjednocen a
relace mnoinov
inkluze.
Zpis odpovdajc pravdpodobnosti zkrtme takto: P (f! 2 + : X (!) 2 B g) :=
P (X 2 B ), co je pravdpodobnost, e nhodn veliina X se realizuje v mnoin
B P (f! 2 + : X (!) 2 B gjf! 2 + : Y (!) 2 C g := P (X 2 B jY 2 C ), co je
pravdpodobnost, e nhodn veliina X se realizuje v mnoin B za podmnky, e
nhodn veliina Y se realizuje v mnoin C .
Funkce 5 : R ! R denovan vztahem 8x 2 R : 5(x) = P (X x) se nazv
distribu
n funkce nhodn veli
iny X vzhledem k pravdpodobnosti P .
Nhodn veliina X se nazv diskrtn, jestlie existuje funkce (x) nulov v R s
vjimkou nejm
n jednoho a nejve spoetn mnoha bod, kde je kladn
(vlastnost
P
1
D1: pro vechna x 2 R je (x) 0), je normovan (vlastnost D2: P
x=;1 (x) = 1,
kde se staj jen kladn
hodnoty) a plat pro ni 8x 2 R : 5(x) = tx (t). Tato
funkce se nazv pravdpodobnostn funkce nhodn
veliiny X . Krom D1, D2 m
tyto vlastnosti: 8x 2 R : (x) = P (X = x), je-li x0 2 R libovoln, ale pevn dan
bod, pak (x0 ) = 5(x0 ) ; limx!x;0 5(x).
Pro diskr
tn nhodnou veliinu je charakteristick
, e nabv pouze konen nebo
nejve spoetn mnoha hodnot. Jej distribun funkce m schodovit charakter.
M-li funkce (x) vlastnosti D1, D2, pak existuje pravdpodobnostn prostor
(+ A P ) a na nm denovan diskr
tn nhodn veliina X tak, e (x) je jej
pravdpodobnostn funkce.
7 Nhodn
vektory
Nech' (+ A P ) je pravdpodobnostn prostor, X1 X2 : : : Xn nhodn
veliiny denovan
na (+ A P ), 51 52 : : : 5n jejich distribun funkce a jedn-li se o diskr
tn
nhodn
veliiny, pak 1 2 : : : n bute jejich pravdpodobnostn funkce.
Nhodn vektor je uspodan n-tice X = (X1 X2 : : : Xn). Jeho distribun
funkci denujeme vztahem:
5(x1 x2 : : : xn) = P (X1 x1 \ X2 x2 \ : : : \ Xn xn):
Nhodn vektor X = (X1 X2 : : : Xn) se nazv diskr
tn, jestlie existuje funkce
(x) nulov v Rn s vjimkou nejm
n jednoho a nejve spoetn mnoha bod, kde
D1: pro vechna x 2 Rn je (x) 0), je normovan (vlastnost
je kladn
(vlastnost
P
P
1
D2: 1
: xn) = 1,Pkde se staj jen kladn
hodnoty) a plat
x1 =;1 : : : xn =;1 (x1 : : P
pro ni 8x 2 R : 5(x1 : : : xn) = t1 x1 : : : tn xn (t1 : : : tn). Tato funkce se nazv
pravdpodobnostn funkce diskr
tnho nhodn
ho vektoru X. Krom D1, D2 m tyto
97
98
PLOHA A. N
HODN JEVY A N
HODN VELIINY
n
vlastnosti:
1 i n libovoln index, pak
P1 : : : 8Px12 R P: 1(x) = : P: :(PX1 = x),(je-li
x1 =;1
xi;1 =;1 xi+1 =;1
xn =;1 x1 : : : xn ) = i (xi ).
Nech' T je neprzdn indexov mnoina. *ekneme, e nhodn
veliiny Xt jsou
stochasticky nezvisl
, jestlie pro vechny konen
podmnoiny fu : : : vg T a
vechny borelovsk
podmnoiny Bu : : : Bv jsou stochasticky nezvisl
jevy fXu 2
Bug, . . . , fXv 2 Bv g tj. (x1 : : : xn) = 1 (x1 : : : n(xn ).
Zobrazen g : R ! R nazvme borelovskou funkc, jestlie vzor borelovsk
mnoiny je borelovsk mnoina tj.
8B 2 B(1) : fx 2 R : g(x) 2 B g 2 B(1) :
Obecn zobrazen g = (g1 g2 : : : gn) : Rn ! Rm nazvme borelovskou funkc,
jestlie vzor borelovsk
mnoiny je borelovsk mnoina tj.
8B 2 B(m) : f(x1 : : : xn) 2 Rn : (g1(x1 : : : xn) : : : gm(x1 : : : xn)) 2 B g 2 B(n) :
Mezi borelovsk
funkce nle zejm
na vechny funkce spojit
na cel
m n;rozmrn
m
prostoru nebo v kad
z disjunktnch oblast, na n byl tento prostor rozloen. Rovn
limita vude konvergentn posloupnosti takovchto funkc je borelovsk funkce.
Z dan
nhodn
veliiny X : + ! R vytvome pomoc borelovsk
funkce g : R !
R zobrazen Y : + ! R dan
takto:
8! 2 + : Y (!) = g(X (!)):
Toto zobrazen je opt nhodn veliina. Nazv se transformovan nhodn veli
ina
.
Z dan
ho nhodn
ho vektoru X = (X1 : : : Xn) : + ! Rn vytvome pomoc
borelovsk
funkce g = (g1 : : : gm) : Rn ! Rm zobrazen Y : + ! Rm dan
takto:
8! 2 + : Y (!) = g(X (!)):
Toto zobrazen je opt nhodn vektor. Nazv se transformovan nhodn vektor.
Rozepsno:
8! 2 + : (Y1(!) : : : Ym(!)) = (g1(X1(!) : : : Xn(!)) : : : gm(X1(!) : : : Xn(!))):
Pedpokldejme nyn, e X je diskr
tn nhodn vektor s pravdpodobnostn
funkc (x1 : : : xn) a g : Rn ! R je borelovsk funkce. Odvodme pravdpodobnostn funkci (y) transformovan
nhodn
veliiny Y (!) = g(X (!)). Toti
(y) = P (Y = y) = P (g(X1 : : : Xn) = y) = P ((X1 : : : Xn) 2 S (y))
kde S (y) = f(x1 : : : xn) 2 Rn : g(x1 : : : xn) = yg, tedy
X
(y) =
(x1 : : : xn):
(x1 :::xn )2S (y)
98
8. STEDN HODNOTA, ROZPTYL, KOVARIANCE A KOEFICIENT
KORELACE N
HODNCH VELIIN
99
8 Stedn hodnota, rozptyl, kovariance a koecient
korelace nhodnch veliin
Nech' je dn pravdpodobnostn prostor (+ A P ) a skalrn nhodn veliina X .
Je-li nhodn veliina X diskr
tn a m pravdpodobnostn funkci P(x), nazvme
jej stedn hodnotou vzhledem k pravdpodobnosti P slo E (X ) = 1
x=;1 x (x)
za pedpokladu, e ppadn nekonen ada vpravo absolutn konverguje. Jinak ekneme, e E (X ) neexistuje. Stedn hodnota E (X ) je slo, kter
charakterizuje polohu
selnch realizac nhodn
veliiny X na seln
ose. Nech' YP= g(X ), kde g je borelovsk funkce, X diskr
tn nhodn veliina. Pak E (Y ) = x2R g(x)(x), pokud
nekonen ada vpravo absolutn konverguje. &slo D(X ) = E (-X ; E (X )]2 ) nazvme rozptylem nhodn
veliiny X vzhledem kppravdpodobnosti P za pedpokladu,
e ob stedn hodnoty vpravo existuj. &slo D nazvme smrodatnou odchylkou
nhodn
veliiny X . Pro vpoty je vhodn tvar D(X ) = E (X 2 ) ; -E (X )]2. Rozptyl
D(X ) je slo, kter
charakterizuje variabilitu selnch realizac nhodn
veliiny X
kolem stedn hodnoty E (X ).
Nech' (X1 X2) je nhodn vektor. Kovarianc nhodnch veliin X1 X2 nazvme slo C (X1 X2) = E (-X1 ; E (X1)]-X2 ; E (X2 )]) za pedpokladu, e stedn
hodnoty vpravo existuj. Kovariance C (X1 X2) je slo, kter
charakterizuje spolenou variabilitu selnch realizac nhodnch veliin X1 X2 kolem stednch hodnot
E (X1 ) E (X2). Je-li C (X1 X2) = 0 ekneme, e nhodn
veliiny X1 X2 jsou nekorelovan
, tzn. e mezi nimi neexistuje dn linern zvislost. Pro vpoty je vhodn
tvar C (X1 X2 ) = E (X1 X2) ; E (X1)E (X2 ).
Koecientem korelace nhodnch veliin X1 X2 nazvme slo
0
1
X
;
E
(
X
)
X
;
E
(
X
)
1
1
2
2 A
R(X1 X2 ) = E @ q
q
= q C (X1q X2) D(X1)
D(X2)
D(X1) D(X2)
q
q
D(X1) D(X2) 6= 0 za pedpokladu, e stedn hodnoty vpravo existuj. Koecient korelace R(X1 X2 ) je slo, kter
charakterizuje mru tsnosti linern zvislosti
selnch realizac nhodnch veliin X1 X2. Nabv hodnot z intervalu < ;1 1 >.
9 Cauchy-Schwarz-Buakovsk
ho nerovnost, Markovova a ebyevova nerovnost
a) Cauchy-Schwarz-Buakovskho nerovnost
Nech' X1 X2 jsou nhodn
veliiny. Jestlie existuj jejich stedn hodnoty a rozptyly, pak
q
q
jC (X1 X2)j D(X1) D(X2) tj. jR(X1 X2)j 1
99
100
PLOHA A. N
HODN JEVY A N
HODN VELIINY
a rovnost nastane tehdy a jen tehdy, kdy mezi veliinami X1 X2 existuje s pravdpodobnost 1 pln linern zvislost, tedy existuj konstanty a1 a2 tak, e P (X2 =
a1 + a2X1 ) = 1.
b) Markovova nerovnost
Jestlie je P (X > 0) = 1 a E (X ) existuje, pak pro vechna " > 0 plat
P (X > "E (X )) 1" :
b) )ebyevova nerovnost
Jestlie existuj E (X ) a D(X ), pak pro kad
t > 0 plat:
q
P (jX ; E (X )j > t D(X )) t12 :
100
Rejst
k
Aq (n d), 69
n-rozmrn borelovsk mnoina, 96
n-rozmrn
borelovsk
pole B(n) , 96
r-t
rozen kanlu, 40
r-sf
ra se stedem y, 52
1. Bayesv vzorec, 95
2. Bayesv vzorec, 95
binrn symetrick kanl, 39
binrn vypoutc kanl, 39
bit, 18
blokov kd, 59
borelovsk funkce, 98
Cauchy-Schwarz-Bu akovsk
ho nerovnost,
99
cyklick kd, 84
&ebyevova nerovnost, 100
dekdovac chyba, 43
dekdovac pravidlo, 43
dekdovn, 43
detekovn, 42
diskr
tn kanl bez pamti, 38
diskr
tn nhodn veliina, 97
distribun funkce nhodn
veliiny X
vzhledem k pravdpodobnosti P ,
97
elementrn jev, 93
entropie nhodn
veliiny, 11
entropie nhodn
ho vektoru, 11
formule pln
pravdpodobnosti, 95
101
generujc matice, 75
generujc polynom, 86
Gilbert-Varshamova hranice, 72
Hadamardova matice, 87
Hadamardv kd, 88
Hammingova vzdlenost, 46, 61
Hammingv -n k]-kd, 83
hlavn probl
m teorie kdovn, 69
index podgrupy, 79
informace o U poskytnut V, 19
informace udlosti, 17
informan znak, 78
jednoznan dekdovateln
kdovn, 24
jevov
pole, 93
jist jev, 93
kapacita kanlu, 47
klasick pravdpodobnost, 94
kd, 24
kd C zrove oprav v chyb a ur u
chyb, 63
kd C oprav v chyb, 60
kd C oprav prv v chyb, 60
kd C ur u chyb, 59
kd C ur prv u chyb, 60
kd d
lky n, 43
kdovn, 24
kdov
slovo, 43, 59
koecientem korelace nhodnch veliin, 99
konen
geometrie, 71
kontrola parity, 42, 68, 78
REJSTK
102
kontroln znak, 78
koset, 80
kovariance nhodnch veliin, 99
Kroneckerv souin, 87
linern kd, 75
Markovova nerovnost, 100
matice kanlu , 38
maximln pravdpodobnost chyby, 50
miteln prostor, 93
minimln vzdlenost, 61
minimln vzdlenost kdu C , 61
mon chybov vektor, 80
mon vsledek je pzniv jevu, 93
nhodn
jevy jsou nesluiteln
, 93
nhodn
kdovn, 52
nhodn jev, 93
nhodn vektor, 97
nastoupen alespo jednoho z nhodnch jev , 93
nejistota nhodn
veliiny, 11
nemon jev, 93
nr
objem Vnr
(x) sf
ry S
(x), 61
opan nhodn jev k nhodn
mu jevu,
93
optimln kd, 69
perfektn kd, 73
Plotkinova hranice, 73
podmnn entropie nhodn
promnn
,
14
podmnn pravdpodobnost, 94
polomr pokryt, 72
pozin permutace, 66
pravdpodobnost, 94
pravdpodobnost chyby, 49
pravdpodobnostn funkce, 97
pravdpodobnostn funkce diskr
tnho
nhodn
ho vektoru, 97
pravdpodobnostn prostor, 94
pravidlo idelnho pozorovatele, 45
pravidlo maximln pravdpodobnosti,
45
pravidlo minimln chyby, 45
pravidlo minimln vzdlenosti, 46
prnik x \ y binrnch slov x a y, 67
Reed-Mullerv kd C (r m), 89
reprezentant kosetu, 80
rozptyl nhodn
veliiny, 99
rozen kdovn, 24
rozen kdu, 68
d konen
grupy, 79
n
sf
ra Snr
(x) v Zr se stedem x a polomrem , 61
Singletonova hranice, 73
slovo, 60
smrodatn odchylka, 99
souin kanl, 58
spolen
nastoupen nhodnch jev, 93
stochastick matice, 39
stochasticky nezvisl
nhodn
jevy, 95
stedn hodnota, 99
symbol kontroly parity, 78
symbolov permutace, 66
syndrom kosetu, 81
transformovan nhodn veliina, 98
transformovan nhodn vektor, 98
trhlinov chyba, 57
triviln perfektn kd, 73
pln syst
m hypot
z, 95
vha slova, 61
vektor, 60
vstupn rozdlen kanlu, 44
zkladn prostor, 93
zdroj, 23
zdroj s nulovou pamt, 23
102
REJSTK
103
zdrojem bez pamti, 23
zdrojov
slovo, 24
zkrcen kdu typu xi = s, 68
zprva, 24, 42, 59
103
REJSTK
104
104
Literatura
-1]
-2]
-3]
-4]
-5]
-6]
-7]
-8]
-9]
-10]
-11]
J. Admek: Stochastick procesy a teorie informace - lohy. &VUT, Praha 1989.
J. Admek: Kdovn. SNTL, Praha 1989.
J. Admek: Foundations of Coding Theory. John Wiley & Sons, New York 1991.
M. Budkov, 7. Mikol, P. Oseck: Teorie pravdpodobnosti a matematick
statistika - sbrka pklad. Masarykova univerzita, Brno 1996.
V. Klma: Kdy, komprimace a ifrovn. Chip 2/1993, str. 24-28.
L. Kuera a J. Neetil: Algebraick metody diskrtn matematiky. SNTL, Praha
1989.
J. Paseka: Kryptograe. Uebn texty Masarykova univerzita, Brno 1997.
7. Porubsk a O. Groek: .ifrovanie. Algoritmy, Metdy, Prax. Grada, Praha
1992.
S. Roman: Introduction to Coding and Information Theory. Springer-Verlag New
York, New York 1997.
D. Welsh: Codes and Cryptography. Oxford University Press, New York 1989.
A. D. Wyner: The wire-tap channel. Bell Syst. Tech. J. 54, 1975, str. 1355-1387.
105

Podobné dokumenty

DATOVÁ KOMUNIKACE

DATOVÁ KOMUNIKACE ulovili jsme mamuta. sně dli jsme mamuta. þ Z hlediska vysílá ní, př enosu, př íjmu a uchová vá ní zprá v lze obecně definovat signál jako fyziká lní veličinu(y), v jejíž ně který ch parametrech je...

Více

Nové technologie mobilních komunikací

Nové technologie mobilních komunikací vývojové tendence v oblasti mobilních systémů 3G se však postupem času ukázal jako nereálný. V současné době je podle doporučení ITU-R M.1457 s názvem „Detailed specification of the radio interface...

Více

Cesta (ne)obyčejného člověka 2

Cesta (ne)obyčejného člověka 2 V průběhu čtvrtého dne se otevřelo mé kreativní vědomí a v mé mysli se začal odvíjet nekonečný proud myšlenek na tuto knihu. Trvalo to více jak 24 hodin. Kniha postupně nabývala podoby, kterou se j...

Více

Ukládání a komprese obrazu

Ukládání a komprese obrazu komprimovaný soubor je posloupnost bitových kódů (přes hranice bytů) na počátku je délka kódu 9 bitů, slovník obsahuje 258 položek prvních 256 položek (kódy 0 − 255) jsou jednobytové „řetězc...

Více

Masarykova Univerzita Plošná fotometrie eliptických galaxi´ı

Masarykova Univerzita Plošná fotometrie eliptických galaxi´ı na prvnı́ pohled jevı́. Plynné oblasti se ale vyskytujı́ bud’ ve velice horkých formách ionizovaného nebo dvakrát excitovaného vodı́ku, nebo v chladné formě H I a pozorujı́ se převážně ...

Více