Vícerozměrné statistické metody

Transkript

Vícerozměrné statistické metody
Vícerozměrné statistické metody
Diskriminační analýza
Jiří Jarkovský, Simona Littnerová
Typy vícerozměrných analýz
y
Faktorové osy
ORDINAČNÍ METODY
SHLUKOVÁ ANALÝZA
y
x
x
y
KLASIFIKACE
podobnost
Diskriminační prostor
x
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
2
Obecné zásady tvorby predikčních modelů
•
Požadavky na kvalitní predikční model
– Maximální predikční síla
– Maximální interpretovatelnost
– Minimální složitost
•
Tvorba modelů
– Neobsahuje redundantní proměnné
– Je otestován na nezávislých datech
•
Výběr proměnných – Algoritmy typu dopředné a zpětné eliminace jsou pouze pomocným ukazatelem při výběru proměnných finálního modelu
– Při výběru proměnných se uplatní jak klasické statistické metody (ANOVA), tak expertní znalost významu proměnných a jejich zastupitelnosti
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
3
1.Tvorba modelu
Vysvětlovaná
proměnná
Vytváření modelů
Prediktory
• Nebezpečí „přeučení“ modelu
• Testování modelu na známých
datech
•Krosvalidace
2.Validace modelu
3. Aplikace modelu
•Parametry ovlivňující
vysvětlovanou charakteristiku
pacienta
• Rovnice umožňující predikci
• Platnost modelu pouze v rozsahu
prediktorů
?
?
?
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
• Individuální predikce stavu
nenámých pacientů
• Model musí být podložen
korektní statistikou a rozsáhlými
daty
4
Diskriminační analýza
•
Cíle diskriminační analýzy
– Identifikace proměnných (prediktorů) diskriminujících mezi předem danými skupinami objektů
– Klasifikace objektů do skupin
•
Předpoklady diskriminační analýza
– Obdoba lineární regrese
– Oddělení objektů podél přímky ve vícerozměrném prostoru (lineární vztah); existuje nicméně kvadratická diskriminační analýza
– Předpoklad vícerozměrného normálního rozdělení prediktorů v každé ze skupin
– Citlivá na přítomnost odlehlých hodnot – Citlivá na redundantní proměnné v modelu
•
Typy diskriminační analýzy
– Podle typu vztahu
• Lineární
• Kvadratická – Podle účelu
• Kanonická diskriminační analýza – identifikace proměnných významných pro diskrminaci
• Klasifikační diskriminační analýza – klasifikace neznámých objektů do skupin
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
5
Princip diskriminační analýzy
•
Kombinací několika proměnných získáme nový pohled odlišující existující skupiny objektů, které není možné odlišit žádnou z proměnných samostatně
X2
B B
B B B BB B
B
B
B
A B
B
BB
B
A
B
A A AA B B B
A
B
A A AA A B
A
A
A
AA A
AA
X1
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
6
Kroky diskriminační analýzy
•
•
Metoda lineárního modelování obdobná analýze rozptylu, regresi nebo kanonické korelační analýze (nejsnáze pochopitelná je její analogie k ANOVA)
Výpočet probíhá v následujících základních krocích: – Testování významnosti rozdílů v hodnocených proměnných mezi existujícími skupinami objektů; tato část výpočtu je vlastně MANOVA (multivariate analysis of variance, vícerozměrná ANOVA)
• Pokud je potvrzena alternativní hypotéza rozdílů mezi skupinami objektů následuje tvorba vlastního modelu
– Nalezení lineární kombinace proměnných, která nejlépe odlišuje mezi skupinami objektů (diskriminační funkce) Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
7
Historie diskriminační analýzy
•
•
•
Popsána pod názvem canonical variate
analysis (CVA) Fisherem v roce 1936 pro dvě skupiny; Rao (1948, 1952) ji rozšířil pro více než 2 skupiny
Je spjata se slavnými „Fisherovými kosatci“ na nichž ji Fisher v roce 1936 popsal
Fisherovy kosatce
– Shromážděny na poolostrově Gaspé (Quebec
v Kanadě) botanikem Edgarem Andersonem
Petals
Versicola
Virginic
Setosa
Sepals
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
8
SETOSA
VIRGINIC
VERSICOL
VIRGINIC
VERSICOL
SEPALWID
VERSICOL
2.6
2.4
2.2
2.0
1.8
1.6
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0.0
SETOSA
SETOSA
PETALWID
4.6
4.4
4.2
4.0
3.8
3.6
3.4
3.2
3.0
2.8
2.6
2.4
2.2
2.0
1.8
PETALWID
PETALLEN
VERSICOL
SETOSA
SEPALWID
VIRGINIC
8
7
6
5
4
3
2
1
0
SEPALLEN
VIRGINIC
SEPALLEN
8.5
8.0
7.5
7.0
6.5
6.0
5.5
5.0
4.5
4.0
PETALLEN
Předstupeň diskriminační analýzy: popis vztahu prediktorů a existujících skupin objektů
Nicméně pozor na pouze jednorozměrný výběr proměnných – diskriminace objektů může být dána pouze jejich kombinací
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
9
Význam identifikace redundantních proměnných
•
Redundantní proměnné snižují stabilitu modelu a mohou vést až k nesmyslným výsledkům
X
Proměnná se silnější diskriminační silou a nekorelovaná s druhou proměnnou snadno vyhrává zařazení do modelu, další proměnné následují dle jejich významu
X
V případě dvou korelovaných proměnných s obdobnou diskriminační silou pouze jedna vyhrává zařazení do modelu (výsledek dán nepatrnými náhodnými odlišnostmi), druhá je vyřazena nebo vstupuje s do modelu s minimálním významem ‐> problém s interpretací a stabilitou
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
10
Identifikace redundantních proměnných
•
Korelační analýza a XY grafy
– Jednoduchý výpočet
– Analyzuje vztahy pouze dvojic proměnných
•
Analýza hlavních komponent nebo faktorová analýza
– Analyzuje vzájemné vztahy sady proměnných
– Usnadňuje výběr neredundantních proměnných nebo nahrazení proměnných faktorovými osami
•
Analýza vzájemného vysvětlení proměnných (analýza redundance)
– Ve statistických software často součást regresní analýzy nebo diskriminační analýzy
– R2 a Tolerance – R2 popisuje kolik variability dané proměnné je vysvětleno ostatními proměnnými v modelu? Tolerance je 1‐R2, tedy kolik unikátní variability na proměnnou připadá (principem je vícerozměrná regrese, ta determinuje i předpoklady výpočtu) – VIF (Variance Inflation Factor) je počítán jako 1/Tolerance, při VIF>10 je kolinearita považována
za velmi závažnou (nicméně nejsou dány žádné závazné hranice VIF)
•
Expertní znalost proměnných
– Vyřazovány jsou korelované proměnné s obtížným měřením, zatížené chybami, nízkou vyplněností apod.
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
11
Ověření diskriminační funkce na nezávislém souboru
•
•
•
Při tvorbě modelů může dojít k problému, kdy vytvořený model je perfektně „vycvičen“ řešit danou úlohu na datovém soubor na němž byla vytvořena
Z tohoto důvodu je problematické testovat výsledky modelu na stejném souboru, na němž byla vytvořena ‐> jde o důkaz kruhem
Řešením je testování výsledků modelu na souboru se známým výsledkem (zde známým zařazením objektů do skupin), který se nepodílel na definici modelu
– Krosvalidace
• datový soubor je náhodně rozdělen na několik podsouborů (2 nebo více)
• Na jednom podsouboru je vytvořen model a jeho výsledky testovány na zbývajících podsouborech
• Výpočet je proveden postupně na všech podsouborech
– One out leave out
• Model je vytvořen na celém souboru bez jednoho objektu
• na tomto objektu je model testován
• postup je zopakován pro všechny objekty
– Permutační metody
• Jackknife, bootstrap – model je postupně vytvářen
na náhodných podvýběrech souboru a testován na zbytku dat
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
Testování Model I
Podsoubor I
Model I
Podsoubor II
Model II
Testování Model II
12
Algebra diskriminační analýzy
•
Výpočet diskriminační analýzy je možné snadno popsat analogií s ANOVA a PCA
– ANOVA – definice matice rozptylu jako rozptylu vztaženého k rozdílům mezi skupinami
– PCA – identifikace faktorových os vysvětlujících maximum rozptylu (zde rozptylu mezi skupinami)
G‐ počet skupin, n – počet objektů
Celkový rozptyl
Sloučený rozptyl uvnitř skupin
Rozptyl mezi skupinami
Suma čtverců
Matice rozptylu
T
S =T
W = W1 + ... + Wg
V =W
B = T −W
A= B
n −1
n−g
g −1
– Pro rozptyl mezi skupinami pak hledáme pohled maximalizující vysvětlenou variabilitu; v obecném tvaru jde o stejný vzorec jako v případě PCA
( A − λkV )uk = 0
(V −1 A − λk I )uk = 0
Kde λ jsou eigenvalue a u eigenvektory
– Počet os definovaných eigenvektory je g‐1
– Eigenvektory jsou různě standardizovány
−1
• Normalizované eigenvektory C = U (U 'VU ) 2 definují tzv. kanonický prostor diskriminační analýzy; transformace vede k maximalizaci variability mezi centroidy skupin a sféricitě rozptylu uvnitř skupin
• Další metody jsou standardizace na délku 1 nebo druhou odmocninu z eigenvalue; ty nicméně nezaručují sfericitu rozptylu uvnitř skupin
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
13
Vztah původních proměnných a kanonických os
Kanonické osy nejsou v prostoru původních proměnných ortogonální
Původní proměnné
Kanonické osy použité jako ortogonální mění rotaci skupin objektů v prostoru
Kanonické osy Normalizace eigenvektorů
−1
pomocí C = U (U 'VU ) 2
vede ke sféricitě variability (pouze v případě homogenity rozptylu)
Skupiny objektů
Dle Legendre a Legendre, 1998, Numerical ecology
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
14
Pojmy a výstupy diskriminační analýzy
•
Popis významu proměnných v modelu
–
–
–
–
•
Wilks lambda modelu
Wilks lambda proměnných
Partial lambda
Tolerance
Kanonická analýza
– Eigenvektory
– Eigenvalues
•
Klasifikace neznámých objektů
– Diskriminační funkce
– A priori probability
– Posterior probability
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
15
Wilks lambda
•
•
Měří odlišnost v pozici centroidů skupin definovaných danými proměnnými
Je počítána jako poměr determinantů matice sumy čtverců a vektorového součinu W a T, kde
– W je složená matice sumy čtverců uvnitř každé analyzované skupiny (analogie k variabilitě uvnitř skupin v ANOVA)
– T je matice skalárních produktů centrovaných proměnných pro všechny objekty bez ohledu na to, z jaké skupiny pochází (obdoba celkové variability v ANOVA)
Λ=
•
•
W
T
Tento poměr má rozsah od 0 (maximální rozdíl v pozici centroidů skupin) až 1 (žádný rozdíl mezi centroidy skupin)
Wilks lambda může být následně převedeno na chi‐square nebo F statistiku a statisticky testováno
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
16
Popis modelu
1
2
1•
2•
3•
4•
5•
6•
7•
3
4
5
6
7
Celkové Wilks lambda – na škále 0 (nejlepší diskriminace) až 1 (žádná diskriminace) popisuje celkovou kvalitu modelu všech proměnných
Wilks lambda jednotlivých proměnných – jde o wilks lambda celého modelu při vyřazení dané proměnné
Partial lambda – unikátní příspěvek dané proměnné k diskriminaci
F to remove – F statistika asociovaná s příslušnou partial lambda
P value – statistická významnost F to remove a tedy i partial lambda
Tolerance – unikátní variabilita proměnné nevysvětlená ostatními proměnnými v modelu
R2 –variabilita proměnné vysvětlená kombinací ostatních proměnných v modelu
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
17
Mahalanobisova vzdálenost (Mahalanobis 1936)
•
Jde o obecné měřítko vzdálenosti beroucí v úvahu korelaci mezi parametry a je nezávislá na rozsahu hodnot parametrů. Počítá vzdálenost mezi objekty v systému souřadnic jehož osy nemusí být na sebe kolmé. V praxi se používá pro zjištění vzdálenosti mezi skupinami objektů. Jsou dány dvě skupiny objektů w1 a w2 o n1 a n2 počtu objektů a popsané p parametry:
D52 ( w1 , w2 ) = d 12V −1 d 12`
•
Kde je vektor o délce p rozdílů mezi průměry p parametrů v
obou skupinách. d 12
V je vážená disperzní matice (matice kovariancí parametrů) uvnitř skupin objektů.
1
[(n1 − 1)S1 + (n − 2)S 2 ]
V=
n1 + n 2 − 2
•
d 12
kde S1 a S2 jsou disperzní matice jednotlivých skupin. Vektor měří rozdíl mezi p‐
rozměrnými průměry skupin a V vkládá do rovnice kovarianci mezi parametry.
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
Mahalanobisova vzdálenost v diskriminační analýze
•
•
Používána pro popis vzájemných vzdáleností centroidů skupin
Používána pro popis vzdáleností objektů od centroidů skupin a následně pro výpočet posterior probabilities zařazení objektů do skupin Vzdálenosti centroidů
Vzdálenosti objektů od centroidů
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
19
Dopředná a zpětná eliminace
•
•
Dopředná a zpětná eliminace proměnných z modelu (forward, backward stepwise) je obecná technika používaná při tvorbě regresních, diskriminačních a jiných modelů
Proměnné jsou do modelu postupně přidávány (ubírány) podle jejich významu v modelu
Každá proměnná je individuálně zhodnocena co do významu pro diskriminaci skupin
Schéma dopředné eliminace proměnných v modelu
V případě zpětné eliminace začíná proces od modelu se všemi proměnnými a postupně jsou vyřazovány proměnné s nejmenším příspěvkem k diskriminační síle modelu
Proces je třeba expertně kontrolovat, riziková je např. přítomnost redundantních proměnných
V 1. kroku je vybrána proměnná s největším individuálním významem pro diskriminaci skupin K vybrané proměnné jsou postupně přidávány další proměnné a je hodnocen význam dvojic proměnných pro diskriminaci skupin
V 2. kroku je do modelu přidána ta proměnná, která v kombinaci s již dříve vybranými proměnnými nejvíce přispívá k diskriminaci skupin
Postup je opakován až do vyčerpání všech proměnných nebo do situace kdy přidání další proměnné již nevylepšuje diskriminační schopnosti modelu
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
20
Definice modelu prostřednictvím stepwise analýzy
•
Před zahájením výpočtu je třeba nastavit Toleranci přidání proměnné (=hodnota při které nebude proměnná do modelu zařazena z důvodu redundance), F to enter
a F to remove jsou hodnoty F spjaté s danou proměnnou, při které je daná proměnná zařazena/ vyřazena z modelu
Forward stepwise
Backward stepwise
Discriminant Function Analysis Summary (Spreadsheet1)
Step 3, N of vars in model: 3; Grouping: IRISTYPE (3 grps)
Wilks' Lambda: .02498 approx. F (6,290)=257.50 p<0.0000
Wilks'
Partial F-remove p-value Toler. 1-Toler.
Lambda Lambda (2,145)
(R-Sqr.)
N=150
PETALLEN 0.038316 0.651835 38.72447 0.000000 0.736416 0.263584
SEPALWID 0.043777 0.570520 54.57693 0.000000 0.749212 0.250788
PETALWID 0.036884 0.677135 34.56869 0.000000 0.668905 0.331095
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
21
Kanonická analýza
•
•
Analogická k výpočtu analýzy hlavních komponent, liší se významem vytvořených os (kanonických kořenů; eigenvektorů)
Na rozdíl od PCA, kde význam osy je spjat s vyčerpanou variabilitou dat u diskriminační analýzy je význam os určen následovně:
– 1. osa – největší diskriminace mezi centroidy skupin objektů
– 2. osa – druhá největší diskriminace mezi centroidy skupin objektů
– Atd.
•
•
Počet kanonických kořenů je dán jako počet skupin objektů‐1 Na rozdíl od PCA nemusí být kanonické kořeny ortogonální
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
22
Kanonická analýza ‐ výsledky
•
Eigenvektory popisují příspěvek jednotlivých proměnných k definici kanonických kořenů
Eigenvalues popisují variabilitu spjatou s kanonickými osami (tedy s rozdílem mezi centroidy skupin)
Root 1 vs. Root 2
5
SETOSA
VERSICOL
VIRGINIC
4
3
2
Root 2
•
1
0
-1
-2
-3
-4
-15
-10
-5
0
5
10
15
Root 1
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
23
PCA vs. Diskriminační analýza
Maximální vyčerpaná variabilita (PCA) vs. Maximální diskriminace (DA)
3
3
2
2
1
1
ROOT_2
Factor2
•
0
0
-1
-1
-2
-2
-3
-4
-3
-2
-1
0
1
2
3
4
Factor1
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
-3
-10
-8
-6
-4
-2
0
2
4
6
8
10
ROOT_1
24
12
Klasifikace neznámých objektů pomocí diskriminační analýzy
•
•
•
•
Využívá tzv. klasifikační funkci Jde o sadu rovnic (pro každou skupinu jedna rovnice)
Objekt je zařazen do skupiny, jejíž klasifikační funkce nabývá nejvyšší hodnoty
V kombinaci s apriori a posterior probabilities je určena finální pravděpodobnost zařazení objektu do skupiny
SETOSA = 23.5 * SEPALLEN + 23.6 * SEPALWID + ...
atd .
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
25
A priori a posterior probabilities
•
A priori probabilities – přirozeně daná pravděpodobnost výskytu skupiny objektů
– Proporcionální – předpokládáme, že struktura souboru odpovídá realitě a tedy i poměr skupin objektů v souboru odpovídá realitě
– Rovnoměrná – každá skupina má pravděpodobnost dánu jako 100 / počet skupin
– Uživatelské – dány expertní znalostí a nastaveny analytikem
•
Posterior probabilities
– Vznikají jako kombinace apriori pravděpodobností a Mahalanobisových vzdáleností objektu od centroidů skupin
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
26
60
60
50
50
50
40
40
30
30
30
20
20
20
10
10
10
0
0
0
IRISTYPE: SETOSA
IRISTYPE: VERSICOL
IRISTYPE: VIRGINIC
SETOSA
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
0.8865
13.3054
25.7243
38.1431
50.5620
62.9809
75.3997
87.8186
100.2375
112.6564
125.0752
137.4941
149.9130
162.3318
174.7507
187.1696
199.5884
212.0073
224.4262
236.8450
249.2639
60
0.3734
7.6246
14.8758
22.1270
29.3782
36.6294
43.8806
51.1318
58.3830
65.6342
72.8854
80.1366
87.3878
94.6390
101.8902
109.1414
116.3926
123.6438
130.8950
138.1462
145.3975
40
0.1174
14.4403
28.7633
43.0862
57.4092
71.7321
86.0550
100.3780
114.7009
129.0238
143.3468
157.6697
171.9927
186.3156
200.6385
214.9615
229.2844
243.6073
257.9303
272.2532
286.5761
Klasifikace objektů dle vzdálenosti
Inconclusive area – nejednoznačné zařazení, nízké p vzhledem ke všem skupinám
VERSICOL
VIRGINIC
Mahalanobisova vzdálenost od daného centroidu
27
Celkové vyhodnocení výsledků diskriminační analýzy
•
•
•
Popis výsledků klasifikace vůči známému zařazení objektů do skupin
Pro validní výsledky a hodnocení kvality modelu by mělo být provedeno na souboru, který se nepodílel na definici modelu (viz. crossvalidace apod.)
Kromě vlastní klasifikační funkce a Mahalanobisových vzdáleností ovlivňuje zařazení objektů do skupin i apriori pravděpodobnost zařazení
Výsledky při různé apriori pravděpodobnosti Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
28
Diskriminační analýza ‐ shrnutí
•
Cílem analýzy je:
– Identifikace proměnných odlišujících vícerozměrně skupiny objektů
– Vytvoření modelu pro klasifikaci neznámých objektů
•
Omezení analýzy
Vícerozměrné normální rozdělení v každé skupině Pozor na odlehlé hodnoty
Pozor na redundantní proměnné
Rovnice modelu je v základní verzi lineární a tedy i hodnocený problém musí mít lineární řešení
– Testování modelu provádět na souboru, který se nepodílel na definici modelu
–
–
–
–
•
Výstupy
– Klasifikační funkce pro zařazení objektů do skupin
– Pravděpodobnost zařazení jednotlivých objektů do skupin ‐ > interpretace
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
29
Ordinační analýzy: shrnutí
•
•
Analýza hlavních komponent, faktorová analýza, korespondenční analýza, multidimensional scaling i diskriminační analýza se snaží zjednodušit vícerozměrnou strukturu dat výpočtem souhrnných os
Metody se liší v logice tvorby těchto os
–
–
–
–
Maximální variabilita (analýza hlavních komponent, korespondenční analýza)
Maximální interpretovatelnost os (faktorová analýza)
Převod asociační matice do Euklidovského prostoru (multidimensional scaling)
Odlišení existujících skupin (diskriminační analýza)
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
30
Příprava nových učebních materiálů pro obor Matematická biologie
je podporována projektem ESF č. CZ.1.07/2.2.00/07.0318 „VÍCEOBOROVÁ INOVACE STUDIA
MATEMATICKÉ BIOLOGIE“
Jiří Jarkovský, Simona Littnerová: Vícerozměrné statistické metody
31

Podobné dokumenty

Vícerozměrné statistické metody

Vícerozměrné statistické metody Vzájemnou pozici objektů ve vícerozměrném prostoru lze popsat jejich vzdáleností Dle vzdálenosti objektů je můžeme slučovat do shluků a přiřazení  objektů ke  shlukům ve vícerozměrném prostoru násl...

Více

Počítačová analýza vícerozměrných dat v oborech přírodních

Počítačová analýza vícerozměrných dat v oborech přírodních polohy respektive i rozptýlení. Po provedené standardizaci můžeme pomocí vah přiřadit znakům různou důležitost. Standardizace tvoří často první krok v předúpravě vícerozměrných dat. Obecný termín š...

Více

Vícerozměrné statistické metody

Vícerozměrné statistické metody menší tím větší je šance, že výsledky analýzy jsou ovlivněny náhodnými procesy.  Za minimální  poměr pro získání validních výsledků je považováno 10 objektů na 1 dimenzi.  Pro vícerozměrné analýzy ...

Více

Vícerozměrné statistické metody

Vícerozměrné statistické metody – nepřítomnost odlehlých hodnot (s výjimkou situace kdy analýzu provádíme za účelem  identifikace odlehlých hodnot) – nepřítomnost více skupin objektů (s výjimkou situace kdy analýzu provádíme za ú...

Více

Celkové výsledky zde

Celkové výsledky zde VII. KLUBOVÁ VÝSTAVA - Praha - 7.11.1999 Celkové výsledky: BLACK AND TAN: Psi: Třída mladých: V1, CAJC V2 VD3 VD4 D Třída otevřená: V1, CAC VD2 VD3 Třída vítězů: V1, CAC Třída veteránů: V1, Nej. ve...

Více

4. Isomerie - Katedra organické chemie

4. Isomerie - Katedra organické chemie Název této prostorové isomerie souvisí s vlastnostmi některých látek, totiž schopností stáčet rovinu polarizovaného světla. O těchto látkách pak hovoříme jako o opticky aktivních látkách. Je zajíma...

Více

ČAS 2011 - Czech Aerosol Society

ČAS 2011 - Czech Aerosol Society souboru u první a přes 40% u druhů zimy. Zajímavým zjištěním je, že ve všech případech je ve vnitřním ovzduší nalezen nezanedbatelný faktor (13,7%; 11,9% a 9,1%) ukazující na vliv Cl iontů ve spoje...

Více

heparin

heparin ACD: obsahuje 2.5% Glukozy , tj 138.9 mmol/l CVVH (n=18): přísun 29.19±11.4 mmol/h CVVHDF (n=23): přísun 25.02±9.92 mmol/h (p=0.27) n=41: mean 26.9±10.7 mmol/h, tj. 646 mmol glukózy/24 hod, tj. pří...

Více

Stáhnout učebnici

Stáhnout učebnici • nalezení smysluplných pohledů na data popsaná velkým množstvím proměnných; • nalezení a popsání skrytých vazeb mezi proměnnými a tím zjednodušení jejich struktury; • jednoduchá vizualizace dat, k...

Více