zde v pdf

Transkript

zde v pdf
Bayesovská statistika
Klíč k porozumění
Bayesovská
statistika
Klíč k porozumění vesmíru?
vesmíru?
D. Černý 2012
Co je statistika?
frekventistická definice:
„metody pro zacházení s daty získanými nějakou opakující
se operací. [...] Statistik na pravděpodobnost pohlíží jako
na idealizaci četnosti případů, v nichž se vyskytne určitý
výsledek při opakovaných pokusech“ (Hoel 1966)
(„methods for dealing with data that have been obtained by a repetitive
operation. [...] The statistician looks on probability as an idealization of the
proportion of times that a certain result will occur in repeated trials“)
bayesovská definice:
„statistika je studium toho, jak jsou stupně víry
pozměňovány daty“ (Lindley 1965)
(„statistics is the study of how degrees of belief are altered by data“)
frekventizmus: pravděpodobnost je objektivní vlastnost
nedovoluje mluvit o pravděpodobnosti jevů, které nejsou
výsledkem opakovaných pokusů (zítra ráno na mě spadne
meteorit, Miloš Zeman vyhraje prezidentské volby 2013)
bayesovská definice pravděpodobnosti to umožňuje – víc
odpovídá běžnému užívání slova „pravděpodobnost“...
... za cenu subjektivity: moje pravděpodobnost může být
jiná než vaše
frekventizmus: tradičnější, ale historicky vzato mladší
bayesovský přístup: od roku 1763; po prvotním nezájmu a
následném krátkém období popularity zavržen; od 2. pol.
20. století znovu na vzestupu
Exkurz do historie
reverend Thomas Bayes (?1701
....– 7.4.1761): presbytariánský
....kněz v Tunbridge Wells
za života publikoval dvě práce:
....teologickou Divine Benevolence
....(Laskavost Boží) a anonymně
....obhajobu diferenciálního počtu
nejdůležitější dílo: An essay
....towards solving a problem in.the
....doctrine of chances (Esej
....o řešení problému v doktríně o možnostech) vydal po jeho
....smrti R. Price jakožto důkaz Boží existence
Bayesův teorém
základ bayesovské statistiky
v moderní podobě jej zformuloval až Pierre-Simon Laplace
P ( H j | D, M ) =
P( H j | M ) × P( D | H j , M )
∑
k
i =1
P( H i | M ) × P( D | H i , M )
pravděpodobnost hypotézy (Hj) v závislosti na datech (D)
a (případně) modelu (M) = počáteční pravděpodobnost
hypotézy krát pravděpodobnost dat v závislosti na
hypotéze děleno celkovou pravděpodobností dat
,
Bayesovský slovník
P (Hj|M) = apriorní pravděpodobnost (prior)
– to, co víme nebo si myslíme předem, ještě před získáním dat (např.
výsledky předchozích experimentů)
– problém nastává, když předem nevíme nic (... nebo ne?)
P (D|Hj,M) = věrohodnost (likelihood)
– pravděpodobnost, s jakou bychom pozorovali právě ta data, která
skutečně pozorujeme, kdyby naše hypotéza byla správná
– jde o opak toho, co doopravdy chceme znát
P (Hj|D,M) = aposteriorní pravděpodobnost (posterior)
– výsledek celého snažení: pravděpodobnost naší hypotézy v závislosti
na předchozích znalostech (prior) a současně nových datech
Randall Munroe, xkcd: Frequentists vs. Bayesians (http://xkcd.com/1132)
Jak to víme?
• k použití Bayesova teorému není nutné pravděpodobnost
vnímat bayesovsky (subjektivně); stejně dobře jej lze využít
i ve frekventizmu
• přijmeme-li na chvíli frekventistické pojetí
pravděpodobnosti, lze Bayesův teorém snadno odvodit
roboti se buď umějí proměnit v auto (jev A), nebo ne (¬
¬A)
• četnost: P(A) = 2 ze 6 = 1/3
buď nás chtějí zabít (jev B), nebo ne (¬
¬B)
• P(B) = 3 ze 6 = 1/2
oba jevy můžeme zkombinovat a zjistit tzv. sdružené
pravděpodobnosti:
•
•
•
•
P(A,B) = 1 ze 6 = 1/6
P(A,¬B) = 1 ze 6 = 1/6
P(¬A,B) = 2 ze 6 = 1/3
P(¬A,¬B) = 2 ze 6 = 1/3
Závislá pravděpodobnost: mám před sebou robota, který se
umí proměnit v auto. Jaká je pravděpodobnost, že mě chce
zabít, v závislosti na tomto zjištění?
P (A, B )
P (B | A ) =
P (A )
P ( B | A) =
+
1
1
6
=
=
1
2
3
2 z 6 robotů se umějí proměnit v auto
1 z 6 to umí a současně nás chce zabít
funguje to i obráceně: pravděpodobnost, že se robot umí
proměnit v auto vzhledem k tomu, že nás chce zabít, je:
P (A, B ) 1
P (A | B ) =
=
P (B )
3
P ( A , B ) = P (B | A ) × P ( A )
P ( A , B ) = P ( A | B ) × P (B ) ⇒
P ( A | B ) × P (B ) = P ( B | A ) × P ( A )
1
1 =
1
1
×
×
3
2
2
3
P (B | A ) × P ( A )
P (A | B ) =
P (B )
1 1
×
1
2
3
P (A | B ) =
=
1
3
2
jmenovatel: celková P, že nás robot chce zabít
P (B ) = P (B , A ) + P ( B , ¬ A )
ve statistice celkové pravděpodobnosti říkáme marginální
abychom spočítali marginální pravděpodobnost, že nás
robot chce zabít, marginalizujeme přes schopnost proměnit
se v auto:
A
B
¬B
¬A
stejně tak lze spočítat i marginální pravděpodobnost, že se
robot umí proměnit v auto, marginalizací přes úmysl nás
zabít: P(A) = P(A,B) + P(A,¬
¬B)
A
B
¬B
¬A
marginalizací přes různé hypotézy dostaneme celkovou
pravděpodobnost dat (marginální věrohodnost)
podělením součinu (prior × věrohodnost) touto celkovou
pravděpodobností zaručíme, že součet posteriorů bude 1
→ jmenovatel Bayesova teorému je normalizační konstanta
důležitost jmenovatele – upraveno podle Paula O. Lewise:
Klára, Lukáš a Martin jsou poslední tři lidé na světě. Klára
čeká dítě, ale neví, jestli s Lukášem, nebo s Martinem.
Naštěstí má k dispozici genetický test a talent pro
bayesovskou statistiku. Její genotyp je aa, genotyp dítěte je
Aa. Alela A je tedy od otce. Je v závislosti na tomto zjištění
otcem spíš Lukáš, nebo Martin?
Lukáš
Martin
součet řádky
Alely
AA
Aa
Prior
½
1
Věrohodnost
1
½
½
Prior krát
věrohodnost
½
¼
¾
Posterior
⅔
⅓
1
Problém: co znamená ta ¼ pravděpodobnost, že
otcem není ani Lukáš, ani Martin? Není Klára
těhotná vůbec, nebo je otcem mimozemšťan?
Podělením marginální pravděpodobností dat
normalizujeme na jedničku
v případě otcovství pracujeme s diskrétními (nespojitými)
hypotézami: buď platí jedna, nebo druhá, ale nic mezi tím –
Lukáš nemohl být otcem jen trošku
za hypotézu ale můžeme klidně považovat i nějakou
hodnotu spojité veličiny (kámen, co mi spadl na nohu, vážil
2,44 kg)
problém: jak potom přes různé hypotézy marginalizovat pro
výpočet jmenovatele?
řešení: musíme se od pravděpodobností přesunout k hustotě
pravděpodobnosti
hustota pravděpodobnosti je funkce, která přiřazuje určitou
pravděpodobnost ne jednotlivým hodnotám, ale každému
intervalu (rozmezí) hodnot spojité veličiny
proč hustota?
hustota není hmotnost, ale hmotnost vztažená k objemu:
hustota pravděpodobnosti není pravděpodobnost, ale
pravděpodobnost vztažená k šířce rozmezí hodnot spojité
veličiny
věci se stejnou hmotností mohou mít různý objem a tedy
různou hustotu (kilo železa vs. kilo peří), a stejně
pravděpodobné intervaly hodnot mohou být různě široké
Příklad: průměrná výška občana EU k roku 2006 činila 170
cm. Předpokládejme, že výšku Evropanů popisuje normální
(gaussovské) rozdělení a že žádný dospělý občan EU není
nižší než 102 cm nebo vyšší než 238 cm.
Pravděpodobnost každé konkrétní
Pravděpodobnost
jakékoli
hodnoty (např. 170
cm přesně)
konkrétní
hodnoty
je 0:
bodová
je 0, protože
bodová
hodnota
hodnota
je sinterval
je interval
nulovous nulovou
šířkou;
šířkou
nulová na
šířka
vůbec anezáleží
tom,
znamená
plochu.
že křivkanulovou
je ve 170
cm
Na
výšce
IQ 100 i
vyšší
než nezáleží:
ve 136 cm
Pravděpodobnost,
Pravděpodobnost,žežeIQ
spadá
do
výškačlověka
náhodně
vybraného
rozmezí
95–105
je cm,
člověka
je 165
až 175
stejná,
jako
žeže
spadá
do
je
stejná,
jako
je mezi
rozmezí
182,5
a 238 117–170
cm (0,231),
ale oba
ale(0,1974),
oba intervaly
mají
intervaly
mají
různou
šířku
(10různou
a 55,5
šířku
a 53i hustotu
bodů IQ)
cm)(10
a tedy
pravděpodobnosti
a tedy i hustotu
Plocha pod křivkou =
pravděpodobnost;
má velikost 1
výška (cm)
(vytvořeno pomocí FooPlot a maartendecat.be)
• abychom zjistili marginální pravděpodobnost pro spojité
veličiny, musíme zjistit plochu pod křivkou – integrovat:
f(x)
dx
Δx
když Δx
pošleme k 0,
dostáváme
derivaci
∫ f (x ) dx
problém: ne každé pravděpodobnostní rozdělení je tak hezké
když hypotéza zahrnuje hodnoty 2 spojitých veličin α a β,
Bayesův teorém vypadá takto:
p(α , β | D, M ) =
p(α | M ) p(β | M ) p(D | α , β , M )
∫α ∫β p(D | α , β , M ) p(α , β | M ) dα dβ
Marginální pravděpodobnost má
podobu dvourozměrného integrálu
(prostor pod plochou)
některé obory využívají
modely s tisíci parametry
→ mnoharozměrné integrály,
které nelze řešit analyticky
MCMC
složité integrály lze obejít Markovovými řetězci Monte Carlo
(MCMC, Markov Chain Monte Carlo)
„technika na řešení problémů“ – od uvedení v 90. letech
úspěšně nasazena na problémy ve fyzice, informatice,
biologii i ekonomii
díky MCMC se bayesovské metody staly praktickými
MCMC a další metody Monte Carlo od začátku vyžadovaly
velkou výpočetní sílu (= počítače), ale jejich základní
myšlenka – řešit úlohy opakovaným náhodným vzorkováním
– je poměrně stará
Exkurz do historie 2: Buffonova jehla
Georges-Louis Leclerc de Buffon, 1777: odhad hodnoty
parametru (číslo π) simulací (pouštěním jehly na papír)
π≈
2 × délka jehly × n jehel
rozestup linek × n protnutí
červená: jehla
protnula linku
zelená: jehla spadla
mezi linky
moderní Monte Carlo: výzkum atomových zbraní v Los
Alamos
myšlenka: vytvořme na počítači určitý počet „virtuálních“
neutronů a simulujme jejich průchod štěpným materiálem
jako náhodný proces: umístění, rychlost, čas první srážky,
vzdálenost mezi srážkami atd. budou určeny náhodnými
čísly, která taháme z nějakého uniformního rozdělení
na konci zbylé neutrony spočtěme a příslušné rychlosti
odhadněme
Monte Carlo neumí vzorkovat ze složitých rozdělení, která
nelze popsat transformací uniformního rozdělení → MCMC
Markovův řetězec: proces, při němž systém přechází mezi
různými stavy tak, že každý další stav závisí jen na stavu,
který mu bezprostředně předchází, ne na celé historii řetězce
P( X k +1 = xk +1 | X 1 = x1 ,..., X k = xk ) = P( X k +1 = xk +1 | X k = xk )
sběr vzorků: každý vzorek koreluje s tím předchozím
poběží-li řetězec dost dlouho, rozdělení získaných vzorků
bude aproximovat jakékoli rozdělení, z nějž vzorky taháme
každý vzorek je obměnou předchozího: blízké vzorky spolu
korelují a neodrážejí cílové rozdělení: aby byly nezávislé, je
nutné jich většinu vyhodit a nechat si např. jen každý 1000.
Když si MCMC robot vybere, na
Pokud je poměr menší než 1,
jaké místo vstoupí dalším krokem,
robot si vytáhne náhodné
podělí jeho výšku (= aposteriorní
číslo mezi 0 a 1. Je-li menší
hustotu pravděpodobnosti) výškou než daný poměr (či stejné),
své nynější pozice (marginální
krok dolů přijme. Pozvolné
věrohodnosti se vykrátí) a podle
klesání bude většinou přijato
toho krok buď udělá, nebo
– zde s P = 2,60/3,15 =
zamítne
0,83
Krok nahoru je vždy přijat,
protože poměr je větší než 1
(2,35/1,15 = 2,04)
2,35
... naopak krok
ze strmého útesu
bude přijat jen
zřídka
(zde s P =
0,25/4,65
= 0,06)
4,65
3,15
2,60
1,15
Překresleno podle Paula O. Lewise
0,25
Robot si svůj další krok
vybírá z návrhového
rozdělení
Toto rozdělení
je symetrické:
používáme
Metropolisův
algoritmus
Návrhové rozdělení ovlivňuje jen to, jak
rychle dospějeme k výsledku. Důležitý je
rozptyl (velký: robot navrhuje dlouhé
kroky, které jen málokdy skutečně udělá;
malý: pohyb je opatrný a robot krajinu
prohledává jen pomalu) a symetrie (zda
P(A → B) = P(B → A)
Asymetrické
rozdělení:
Rozdělení navrhuje krok doleva 3× častěji než krok doprava
→ vzniklou nerovnováhu musíme kompenzovat pomocí
Metropolis-Hastingsova poměru, který sníží
pravděpodobnost přijetí kroku doleva
a zvýší pravděpodobnost kroku doprava
(zobecnění Metropolisova algoritmu)
MetropolisHastingsův
(MH)
algoritmus
Zvláštním případem MH je Gibbsův vzorkovač:
všem parametrům krom jednoho dáme pevné
hodnoty; místo jediného n-rozměrného integrálu
máme n jednorozměrných
když necháme MCMC běžet dost dlouho, aposteriorní
pravděpodobnost každého rozmezí hodnot bude přímo
úměrná tomu, kolik vzorků z něj řetězec nasbíral (čím
víckrát do něj robot šlápnul)
problém je v tom „dost dlouho“ – chceme, aby řetězec
„zkonvergoval na cílovém rozdělení“ (konvergence,
stacionarita), ale jak poznat, kdy to je?
čím podobnější je návrhové rozdělení cílovému
(aposteriornímu) rozdělení, tím rychleji řetězec zkonverguje
když robot (řetězec) přijímá skoro každý navržený krok, asi
našlapuje velmi blízko své aktuální polohy a neprozkoumává
tedy krajinu (parametrový prostor) dost rychle: slow mixing
přijímá-li robot kroků moc málo, dlouho stojí na místě
obecně je ideální přijmout 20–60% kroků
„Poor mixing“: plata trvající
po mnoho generací ukazují,
že se řetězec zasekl na
místě: délka kroku je příliš
velká
Řetězec se hýbe, ale ne moc –
délka kroku je příliš malá
Správně se chovající MCMC: řetězec
rychle přeskakuje mezi různými
oblastmi parametrového prostoru, graf
by měl vypadat jako „bílý šum“
MCMCMC (MC3)
Metropolis-Coupled Markov Chain Monte Carlo (MC3)
místo jednoho řetězce několik paralelních; jeden (studený)
sbírá vzorky, další (nahřáté) mu „prohledávají“ rozdělení
nahřáté řetězce umocňují hustotu pravděpodobnosti na číslo
menší než 1 (exponent = „teplota“): „zploští“ kopce i údolí
narazí-li nahřívané řetězce na oblast s vysokou aposteriorní
pravděpodobností, mohou se – s určitou pravděpodobností –
prohodit s tím studeným
lepší je mít jich víc, ideálně s různým stupněm nahřátí
Burn-in
další problém: první kroky robot dělá z náhodně vybraného
místa a než se dostane do oblastí s vyšší pravděpodobností,
postupuje spíš podle priorů než žádaného rozdělení
velkou část prvních vzorků tedy musíme vyhodit
z 10 000 000 generací (navržených, třeba i nepřijatých
kroků) tak např. může zbýt jen 5 000 vzorků (vzorkujeme
každý 1000. krok, první půlku vyhodíme jako burn-in)
Burn-in: první vzorky, které řetězec sebral,
neodpovídají tomu, jak moc je ve skutečnosti
daná oblast pravděpodobná
Burn-in na grafu věrohodností: řetězec
se původně pohyboval v oblastech s
velmi nízkým posteriorem
Konvergence
stav, kdy řetězec shromáždil dost vzorků na to, aby
dostatečně přesně odrážely pravděpodobnostní rozdělení,
které nás zajímá: hodnoty věrohodností v grafu se ustálily
konvergence
simulátorova noční můra: falešná konvergence
Zdánlivě stabilní plato naznačuje, že řetězec
dosáhl stacionarity, ale po mnoha generacích
došlo k přesunu do oblastí s ještě vyšší
věrohodností: když k tomu dojde moc
pozdě, nikdy na to nemusíme přijít (většina
MCMC analýz nenechává řetězce běžet déle
než pár desítek milionů generací)
Zdroje:
http://www.arthurx.org/Thomas_Bayes/Thomas_Bayes_Grafure.gif
Obrázky:
http://xkcd.com/1132
http://blogs.swa-jkt.com/swa/10749/files/2012/11/Darian_G12_Math_AreaUnderGraph5.html_.png
Brennan A, Kharroubi SA 2007 Efficient computation of partial expected value of sample information using Bayesian approximation. J Health
Econom 26(1): 122–48, Fig. 4
http://mathworld.wolfram.com/BuffonsNeedleProblem.html
http://media.picfor.me/0011878/httpwwwtoon-wallpaperscomffuturamabender-evolution_1440jpg-Bender-futurama-Funny-Shits_large.jpg
http://www.emeraldinsight.com/fig/498_10_1016_S0196-1152_07_15007-9.png
http://bigscale.files.wordpress.com/2012/05/nd2.jpg
http://matstrand.com/guides/MCMC/
http://3.bp.blogspot.com/_zLwIdu2sLKM/TPU7WaVmVqI/AAAAAAAACoI/TYz7JIQuIXg/s1600/sas_dx_plot.jpg
Lewis PO 2001 Phylogenetic systematics turns over a new leaf. Trends Ecol Evol 16: 30–7, Fig. Id,e
http://www.protistologie.cz/files/MolTax/Molekularni%20taxonomie8-text.pdf
Citace, použitá literatura:
http://www.whoi.edu/fileserver.do?id=13263&pt=2&p=13354 (Paul O Lewis)
http://www.molecularevolution.org/molevolfiles/presentations/Lewis_Bayesian_28Jan2011.pdf (Paul O. Lewis)
Hoel PG 1966 Introduction to Mathematical Statistics. 3rd edition. New York: John Wiley and Sons
Lindley DV 1965 Introduction to Probability and Statistics from a Bayesian Viewpoint (Parts 1, 2). Cambridge: Cambridge Univ Press
http://www.ulb.ac.be/di/map/gbonte/mod_stoch/introduction.pdf
http://en.wikipedia.org/wiki/Buffon's_needle
Richey M 2010 The evolution of Markov Chain Monte Carlo methods. American Mathematical Monthly 117(5): 383–413
Robert C, Casella G 2011 A short history of Markov Chain Monte Carlo: Subjective recollections from incomplete data. Statist Sci 26(1): 102–
15
Metropolis N 1987 The beginning of the Monte Carlo method. Los Alamos Science 15: 125–30
http://mcmcrobot.org/
http://web.mit.edu/~wingated/www/introductions/mcmc-gibbs-intro.pdf
The Simulator: Mark Huber a spol., 2008: http://goo.gl/S8Bqh, Bayesian Girl: Marian Farah a spol., 2010: http://goo.gl/z3ChL
Bayesovský kabaret představuje: The Simulator
On a warm summer's evening
on a plane bound for ISBA,
I met up with the simulator;
we were both too tired to sleep,
So we took turns a-staring
out the window at the darkness,
'Til boredom overtook us,
and he began to speak.
Jednoho horkého letního odpoledne
v letadle mířícím na ISBA
jsem se setkal se simulátorem;
oba moc unavení, než abychom spali
a tak jsme se střídali
v zírání z okna do tmy
než nás přemohla nuda
a on začal mluvit.
He said, „Son, I've made my life
out of reading people's data,
and knowing what the numbers tell,
by the way the series lies,
So if you don't mind my saying,
I can see you're out of models,
For a taste of your data,
I'll give you some advice.“
Řekl: „Synku, postavil jsem si život
na tom, že čtu lidem jejich data,
že vím, co čísla říkají,
z toho, jak je uspořádaná řada,
takže jestli nevadí, že to říkám,
vidím, že ti došly modely,
za ochutnávku tvých dat
ti dám jednu radu.“
So I handed him my laptop,
and he downloaded my last file,
Then he bummed a thumbdrive,
and I watched its blinking light,
And the night got deadly quiet,
and his face lost all expression,
He said, "Boy, if you're running
chains,
ya gotta learn to do it right.“
Tak jsem mu podal svůj laptop
a on si stáhl můj poslední soubor
pak mi sebral flashku
a já sledoval její blikající světlo
a noc se ponořila do mrtvého ticha
a z tváře mu zmizel všechen výraz.
Řekl, „Chlapče, když chceš pouštět
řetězce,
musíš se naučit dělat to správně.“
You got to know when to propose
'em, know when to reject 'em,
Know when to stop a chain,
and know when to run,
You never find your error,
while you're taking samples,
There'll be time enough for error
bars,
when the chain is done.
Musíš vědět, kdy je navrhnout,
vědět, kdy je zamítnout,
vědět, kdy ukončit řetězec
a vědět, kdy ho spustit.
Nikdy nezjistíš svou chybu,
zatímco sbíráš vzorky,
na chybové úsečky bude dost času,
až řetězec doběhne.
Every runner knows
that the secret to chain burn-in,
Is knowing what to throw away,
and knowing what to keep,
Because every run is perfect,
and every run is worthless,
And the best that you can hope for
is results you can repeat.
Každý simulátor ví,
že tajemstvím řetězcového burn-inu
je vědět, co vyhodit,
a vědět, co si nechat,
protože každý běh je dokonalý
a každý je bezcenný
a to nejlepší, v co můžeš doufat,
jsou výsledky, které jde zreplikovat
And when he’finished speaking,
he turned back towards the window,
Closed down his black ThinkPad,
and faded off to sleep,
And somewhere in the darkness,
his chain it reached convergence,
but in his final words I found a trick
that I could keep.
A když skončil svojí řeč,
otočil se zpátky k oknu,
zavřel svůj černý ThinkPad
a zvolna usnul.
A tam někde v temnotě
jeho řetězec – dosáhl konvergence,
ale v jeho závěrečných slovech
jsem našel trik, který si nechám.
You got to know when to propose
'em,
know when to reject 'em,
Know when to stop a chain,
and know when to run,
You never find your error,
while you're taking samples,
There'll be time enough for error
bars,
when the chain is done.
Musíš vědět, kdy je navrhnout,
vědět, kdy je zamítnout,
vědět, kdy ukončit řetězec
a vědět, kdy ho spustit.
Nikdy nezjistíš svou chybu,
zatímco sbíráš vzorky,
na chybové úsečky bude dost času,
až řetězec doběhne.
Bayesian Girl
I’m a Bayesian girl in a Bayesian
world,
I like my prior, I like my likelihood
You can work with me
only if you believe in
conditionality and likelihood
principles.
Jsem bayesovská dívka
v bayesovském světě
Líbí se mi můj prior i věrohodnost
Můžeš se mnou pracovat,
jenom když věříš
v podmíněnost a věrohodnostní
principy.
Come on Bayesians let’s go party!
Bayesovci, jdeme pařit!
I’m a Bayesian girl in a Bayesian
world,
I like my prior, I like my likelihood
You can work with me
only if you believe in
conditionality and likelihood
principles.
Jsem bayesovská dívka
v bayesovském světě
Líbí se mi můj prior i věrohodnost
Můžeš se mnou pracovat,
jenom když věříš
v podmíněnost a věrohodnostní
principy.
I Gibbs step, MH step
in MCMC land
Here on Earth, or in space,
Bayes is so in demand
Gibbsovsky, MetropolisHastingovsky kráčím zemí MCMC
Tady na Zemi i ve vesmíru
je po Bayesovi taková poptávka!
Write report, turn in paper,
apply for that extra grant
Then it’s time, hit the town,
and go party!
Napište zprávu, odevzdejte studii,
ucházejte se o ten grant navíc
Pak je čas, vyražte za zábavou
a jděte pařit!
You can shift... you can scale...
don’t forget... to normalize!
Můžeš posouvat... můžeš škálovat...
nezapomeň normalizovat!
I’m a Bayesian girl in a Bayesian
world,
I like my prior, I like my likelihood
You can work with me
only if you believe in
Jsem bayesovská dívka
v bayesovském světě
Líbí se mi můj prior i věrohodnost
Můžeš se mnou pracovat,
jenom když věříš
conditionality and likelihood
principles.
v podmíněnost a věrohodnostní
principy.
Come on Bayesians
Ah-ah-ah-yeah
Come on Bayesians
Ooh-oh-ooh-oh
Come on Bayesians
Ah-ah-ah-yeah
Come on Bayesians
Ooh-oh-ooh-oh
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
Random walks are my game,
let’s go on a Lévy flight
Normal’s boring but I know,
DP mixtures are all right.
Náhodné pocházky, to je moje,
proleťme se Lévyho letem
Normální rozdělení je nuda,
ale směsice Dirichletových procesů
jsou OK
Slice it here, tune it there,
maybe log it everywhere
Mostly pray, shrug and say,
let’s go party!
Ukroj to tady, dolaď to tam,
možná to všude zlogaritmuj
Spíš se modli, pokrč rameny
a řekni – jdeme pařit!
You can shift... you can scale...
don’t forget... to normalize!
You can shift... you can scale...
don’t forget... to normalize!
Můžeš posouvat... můžeš škálovat...
nezapomeň normalizovat!
Můžeš posouvat... můžeš škálovat...
nezapomeň normalizovat!
Come on Bayesians
Ah-ah-ah-yeah
Come on Bayesians
Ooh-oh-ooh-oh
Come on Bayesians
Ah-ah-ah-yeah
Come on Bayesians
Ooh-oh-ooh-oh
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
I’m a Bayesian girl in a Bayesian
world,
I like my prior, I like my likelihood
You can work with me
only if you believe in
conditionality and likelihood
principles.
Jsem bayesovská dívka
v bayesovském světě
Líbí se mi můj prior i věrohodnost
Můžeš se mnou pracovat,
jenom když věříš
v podmíněnost a věrohodnostní
principy.
I’m a Bayesian girl in a Bayesian
world,
I like my prior, I like my likelihood
You can work with me
only if you believe in
conditionality and likelihood
principles.
Jsem bayesovská dívka
v bayesovském světě
Líbí se mi můj prior i věrohodnost
Můžeš se mnou pracovat,
jenom když věříš
v podmíněnost a věrohodnostní
principy.
Come on Bayesians
Ah-ah-ah-yeah
Come on Bayesians
Ooh-oh-ooh-oh
Come on Bayesians
Ah-ah-ah-yeah
Come on Bayesians
Ooh-oh-ooh-oh
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
let’s go party!
Bayesovci, jdeme pařit!
Oh, I’m having so much fun!
Well girl, we’re just getting started!
Oh, I love you Bayes!
Wow, tohle je taková zábava!
No a to teprve začínáme!
Miluju tě, Bayesi!