zde v pdf
Transkript
zde v pdf
Bayesovská statistika Klíč k porozumění Bayesovská statistika Klíč k porozumění vesmíru? vesmíru? D. Černý 2012 Co je statistika? frekventistická definice: „metody pro zacházení s daty získanými nějakou opakující se operací. [...] Statistik na pravděpodobnost pohlíží jako na idealizaci četnosti případů, v nichž se vyskytne určitý výsledek při opakovaných pokusech“ (Hoel 1966) („methods for dealing with data that have been obtained by a repetitive operation. [...] The statistician looks on probability as an idealization of the proportion of times that a certain result will occur in repeated trials“) bayesovská definice: „statistika je studium toho, jak jsou stupně víry pozměňovány daty“ (Lindley 1965) („statistics is the study of how degrees of belief are altered by data“) frekventizmus: pravděpodobnost je objektivní vlastnost nedovoluje mluvit o pravděpodobnosti jevů, které nejsou výsledkem opakovaných pokusů (zítra ráno na mě spadne meteorit, Miloš Zeman vyhraje prezidentské volby 2013) bayesovská definice pravděpodobnosti to umožňuje – víc odpovídá běžnému užívání slova „pravděpodobnost“... ... za cenu subjektivity: moje pravděpodobnost může být jiná než vaše frekventizmus: tradičnější, ale historicky vzato mladší bayesovský přístup: od roku 1763; po prvotním nezájmu a následném krátkém období popularity zavržen; od 2. pol. 20. století znovu na vzestupu Exkurz do historie reverend Thomas Bayes (?1701 ....– 7.4.1761): presbytariánský ....kněz v Tunbridge Wells za života publikoval dvě práce: ....teologickou Divine Benevolence ....(Laskavost Boží) a anonymně ....obhajobu diferenciálního počtu nejdůležitější dílo: An essay ....towards solving a problem in.the ....doctrine of chances (Esej ....o řešení problému v doktríně o možnostech) vydal po jeho ....smrti R. Price jakožto důkaz Boží existence Bayesův teorém základ bayesovské statistiky v moderní podobě jej zformuloval až Pierre-Simon Laplace P ( H j | D, M ) = P( H j | M ) × P( D | H j , M ) ∑ k i =1 P( H i | M ) × P( D | H i , M ) pravděpodobnost hypotézy (Hj) v závislosti na datech (D) a (případně) modelu (M) = počáteční pravděpodobnost hypotézy krát pravděpodobnost dat v závislosti na hypotéze děleno celkovou pravděpodobností dat , Bayesovský slovník P (Hj|M) = apriorní pravděpodobnost (prior) – to, co víme nebo si myslíme předem, ještě před získáním dat (např. výsledky předchozích experimentů) – problém nastává, když předem nevíme nic (... nebo ne?) P (D|Hj,M) = věrohodnost (likelihood) – pravděpodobnost, s jakou bychom pozorovali právě ta data, která skutečně pozorujeme, kdyby naše hypotéza byla správná – jde o opak toho, co doopravdy chceme znát P (Hj|D,M) = aposteriorní pravděpodobnost (posterior) – výsledek celého snažení: pravděpodobnost naší hypotézy v závislosti na předchozích znalostech (prior) a současně nových datech Randall Munroe, xkcd: Frequentists vs. Bayesians (http://xkcd.com/1132) Jak to víme? • k použití Bayesova teorému není nutné pravděpodobnost vnímat bayesovsky (subjektivně); stejně dobře jej lze využít i ve frekventizmu • přijmeme-li na chvíli frekventistické pojetí pravděpodobnosti, lze Bayesův teorém snadno odvodit roboti se buď umějí proměnit v auto (jev A), nebo ne (¬ ¬A) • četnost: P(A) = 2 ze 6 = 1/3 buď nás chtějí zabít (jev B), nebo ne (¬ ¬B) • P(B) = 3 ze 6 = 1/2 oba jevy můžeme zkombinovat a zjistit tzv. sdružené pravděpodobnosti: • • • • P(A,B) = 1 ze 6 = 1/6 P(A,¬B) = 1 ze 6 = 1/6 P(¬A,B) = 2 ze 6 = 1/3 P(¬A,¬B) = 2 ze 6 = 1/3 Závislá pravděpodobnost: mám před sebou robota, který se umí proměnit v auto. Jaká je pravděpodobnost, že mě chce zabít, v závislosti na tomto zjištění? P (A, B ) P (B | A ) = P (A ) P ( B | A) = + 1 1 6 = = 1 2 3 2 z 6 robotů se umějí proměnit v auto 1 z 6 to umí a současně nás chce zabít funguje to i obráceně: pravděpodobnost, že se robot umí proměnit v auto vzhledem k tomu, že nás chce zabít, je: P (A, B ) 1 P (A | B ) = = P (B ) 3 P ( A , B ) = P (B | A ) × P ( A ) P ( A , B ) = P ( A | B ) × P (B ) ⇒ P ( A | B ) × P (B ) = P ( B | A ) × P ( A ) 1 1 = 1 1 × × 3 2 2 3 P (B | A ) × P ( A ) P (A | B ) = P (B ) 1 1 × 1 2 3 P (A | B ) = = 1 3 2 jmenovatel: celková P, že nás robot chce zabít P (B ) = P (B , A ) + P ( B , ¬ A ) ve statistice celkové pravděpodobnosti říkáme marginální abychom spočítali marginální pravděpodobnost, že nás robot chce zabít, marginalizujeme přes schopnost proměnit se v auto: A B ¬B ¬A stejně tak lze spočítat i marginální pravděpodobnost, že se robot umí proměnit v auto, marginalizací přes úmysl nás zabít: P(A) = P(A,B) + P(A,¬ ¬B) A B ¬B ¬A marginalizací přes různé hypotézy dostaneme celkovou pravděpodobnost dat (marginální věrohodnost) podělením součinu (prior × věrohodnost) touto celkovou pravděpodobností zaručíme, že součet posteriorů bude 1 → jmenovatel Bayesova teorému je normalizační konstanta důležitost jmenovatele – upraveno podle Paula O. Lewise: Klára, Lukáš a Martin jsou poslední tři lidé na světě. Klára čeká dítě, ale neví, jestli s Lukášem, nebo s Martinem. Naštěstí má k dispozici genetický test a talent pro bayesovskou statistiku. Její genotyp je aa, genotyp dítěte je Aa. Alela A je tedy od otce. Je v závislosti na tomto zjištění otcem spíš Lukáš, nebo Martin? Lukáš Martin součet řádky Alely AA Aa Prior ½ 1 Věrohodnost 1 ½ ½ Prior krát věrohodnost ½ ¼ ¾ Posterior ⅔ ⅓ 1 Problém: co znamená ta ¼ pravděpodobnost, že otcem není ani Lukáš, ani Martin? Není Klára těhotná vůbec, nebo je otcem mimozemšťan? Podělením marginální pravděpodobností dat normalizujeme na jedničku v případě otcovství pracujeme s diskrétními (nespojitými) hypotézami: buď platí jedna, nebo druhá, ale nic mezi tím – Lukáš nemohl být otcem jen trošku za hypotézu ale můžeme klidně považovat i nějakou hodnotu spojité veličiny (kámen, co mi spadl na nohu, vážil 2,44 kg) problém: jak potom přes různé hypotézy marginalizovat pro výpočet jmenovatele? řešení: musíme se od pravděpodobností přesunout k hustotě pravděpodobnosti hustota pravděpodobnosti je funkce, která přiřazuje určitou pravděpodobnost ne jednotlivým hodnotám, ale každému intervalu (rozmezí) hodnot spojité veličiny proč hustota? hustota není hmotnost, ale hmotnost vztažená k objemu: hustota pravděpodobnosti není pravděpodobnost, ale pravděpodobnost vztažená k šířce rozmezí hodnot spojité veličiny věci se stejnou hmotností mohou mít různý objem a tedy různou hustotu (kilo železa vs. kilo peří), a stejně pravděpodobné intervaly hodnot mohou být různě široké Příklad: průměrná výška občana EU k roku 2006 činila 170 cm. Předpokládejme, že výšku Evropanů popisuje normální (gaussovské) rozdělení a že žádný dospělý občan EU není nižší než 102 cm nebo vyšší než 238 cm. Pravděpodobnost každé konkrétní Pravděpodobnost jakékoli hodnoty (např. 170 cm přesně) konkrétní hodnoty je 0: bodová je 0, protože bodová hodnota hodnota je sinterval je interval nulovous nulovou šířkou; šířkou nulová na šířka vůbec anezáleží tom, znamená plochu. že křivkanulovou je ve 170 cm Na výšce IQ 100 i vyšší než nezáleží: ve 136 cm Pravděpodobnost, Pravděpodobnost,žežeIQ spadá do výškačlověka náhodně vybraného rozmezí 95–105 je cm, člověka je 165 až 175 stejná, jako žeže spadá do je stejná, jako je mezi rozmezí 182,5 a 238 117–170 cm (0,231), ale oba ale(0,1974), oba intervaly mají intervaly mají různou šířku (10různou a 55,5 šířku a 53i hustotu bodů IQ) cm)(10 a tedy pravděpodobnosti a tedy i hustotu Plocha pod křivkou = pravděpodobnost; má velikost 1 výška (cm) (vytvořeno pomocí FooPlot a maartendecat.be) • abychom zjistili marginální pravděpodobnost pro spojité veličiny, musíme zjistit plochu pod křivkou – integrovat: f(x) dx Δx když Δx pošleme k 0, dostáváme derivaci ∫ f (x ) dx problém: ne každé pravděpodobnostní rozdělení je tak hezké když hypotéza zahrnuje hodnoty 2 spojitých veličin α a β, Bayesův teorém vypadá takto: p(α , β | D, M ) = p(α | M ) p(β | M ) p(D | α , β , M ) ∫α ∫β p(D | α , β , M ) p(α , β | M ) dα dβ Marginální pravděpodobnost má podobu dvourozměrného integrálu (prostor pod plochou) některé obory využívají modely s tisíci parametry → mnoharozměrné integrály, které nelze řešit analyticky MCMC složité integrály lze obejít Markovovými řetězci Monte Carlo (MCMC, Markov Chain Monte Carlo) „technika na řešení problémů“ – od uvedení v 90. letech úspěšně nasazena na problémy ve fyzice, informatice, biologii i ekonomii díky MCMC se bayesovské metody staly praktickými MCMC a další metody Monte Carlo od začátku vyžadovaly velkou výpočetní sílu (= počítače), ale jejich základní myšlenka – řešit úlohy opakovaným náhodným vzorkováním – je poměrně stará Exkurz do historie 2: Buffonova jehla Georges-Louis Leclerc de Buffon, 1777: odhad hodnoty parametru (číslo π) simulací (pouštěním jehly na papír) π≈ 2 × délka jehly × n jehel rozestup linek × n protnutí červená: jehla protnula linku zelená: jehla spadla mezi linky moderní Monte Carlo: výzkum atomových zbraní v Los Alamos myšlenka: vytvořme na počítači určitý počet „virtuálních“ neutronů a simulujme jejich průchod štěpným materiálem jako náhodný proces: umístění, rychlost, čas první srážky, vzdálenost mezi srážkami atd. budou určeny náhodnými čísly, která taháme z nějakého uniformního rozdělení na konci zbylé neutrony spočtěme a příslušné rychlosti odhadněme Monte Carlo neumí vzorkovat ze složitých rozdělení, která nelze popsat transformací uniformního rozdělení → MCMC Markovův řetězec: proces, při němž systém přechází mezi různými stavy tak, že každý další stav závisí jen na stavu, který mu bezprostředně předchází, ne na celé historii řetězce P( X k +1 = xk +1 | X 1 = x1 ,..., X k = xk ) = P( X k +1 = xk +1 | X k = xk ) sběr vzorků: každý vzorek koreluje s tím předchozím poběží-li řetězec dost dlouho, rozdělení získaných vzorků bude aproximovat jakékoli rozdělení, z nějž vzorky taháme každý vzorek je obměnou předchozího: blízké vzorky spolu korelují a neodrážejí cílové rozdělení: aby byly nezávislé, je nutné jich většinu vyhodit a nechat si např. jen každý 1000. Když si MCMC robot vybere, na Pokud je poměr menší než 1, jaké místo vstoupí dalším krokem, robot si vytáhne náhodné podělí jeho výšku (= aposteriorní číslo mezi 0 a 1. Je-li menší hustotu pravděpodobnosti) výškou než daný poměr (či stejné), své nynější pozice (marginální krok dolů přijme. Pozvolné věrohodnosti se vykrátí) a podle klesání bude většinou přijato toho krok buď udělá, nebo – zde s P = 2,60/3,15 = zamítne 0,83 Krok nahoru je vždy přijat, protože poměr je větší než 1 (2,35/1,15 = 2,04) 2,35 ... naopak krok ze strmého útesu bude přijat jen zřídka (zde s P = 0,25/4,65 = 0,06) 4,65 3,15 2,60 1,15 Překresleno podle Paula O. Lewise 0,25 Robot si svůj další krok vybírá z návrhového rozdělení Toto rozdělení je symetrické: používáme Metropolisův algoritmus Návrhové rozdělení ovlivňuje jen to, jak rychle dospějeme k výsledku. Důležitý je rozptyl (velký: robot navrhuje dlouhé kroky, které jen málokdy skutečně udělá; malý: pohyb je opatrný a robot krajinu prohledává jen pomalu) a symetrie (zda P(A → B) = P(B → A) Asymetrické rozdělení: Rozdělení navrhuje krok doleva 3× častěji než krok doprava → vzniklou nerovnováhu musíme kompenzovat pomocí Metropolis-Hastingsova poměru, který sníží pravděpodobnost přijetí kroku doleva a zvýší pravděpodobnost kroku doprava (zobecnění Metropolisova algoritmu) MetropolisHastingsův (MH) algoritmus Zvláštním případem MH je Gibbsův vzorkovač: všem parametrům krom jednoho dáme pevné hodnoty; místo jediného n-rozměrného integrálu máme n jednorozměrných když necháme MCMC běžet dost dlouho, aposteriorní pravděpodobnost každého rozmezí hodnot bude přímo úměrná tomu, kolik vzorků z něj řetězec nasbíral (čím víckrát do něj robot šlápnul) problém je v tom „dost dlouho“ – chceme, aby řetězec „zkonvergoval na cílovém rozdělení“ (konvergence, stacionarita), ale jak poznat, kdy to je? čím podobnější je návrhové rozdělení cílovému (aposteriornímu) rozdělení, tím rychleji řetězec zkonverguje když robot (řetězec) přijímá skoro každý navržený krok, asi našlapuje velmi blízko své aktuální polohy a neprozkoumává tedy krajinu (parametrový prostor) dost rychle: slow mixing přijímá-li robot kroků moc málo, dlouho stojí na místě obecně je ideální přijmout 20–60% kroků „Poor mixing“: plata trvající po mnoho generací ukazují, že se řetězec zasekl na místě: délka kroku je příliš velká Řetězec se hýbe, ale ne moc – délka kroku je příliš malá Správně se chovající MCMC: řetězec rychle přeskakuje mezi různými oblastmi parametrového prostoru, graf by měl vypadat jako „bílý šum“ MCMCMC (MC3) Metropolis-Coupled Markov Chain Monte Carlo (MC3) místo jednoho řetězce několik paralelních; jeden (studený) sbírá vzorky, další (nahřáté) mu „prohledávají“ rozdělení nahřáté řetězce umocňují hustotu pravděpodobnosti na číslo menší než 1 (exponent = „teplota“): „zploští“ kopce i údolí narazí-li nahřívané řetězce na oblast s vysokou aposteriorní pravděpodobností, mohou se – s určitou pravděpodobností – prohodit s tím studeným lepší je mít jich víc, ideálně s různým stupněm nahřátí Burn-in další problém: první kroky robot dělá z náhodně vybraného místa a než se dostane do oblastí s vyšší pravděpodobností, postupuje spíš podle priorů než žádaného rozdělení velkou část prvních vzorků tedy musíme vyhodit z 10 000 000 generací (navržených, třeba i nepřijatých kroků) tak např. může zbýt jen 5 000 vzorků (vzorkujeme každý 1000. krok, první půlku vyhodíme jako burn-in) Burn-in: první vzorky, které řetězec sebral, neodpovídají tomu, jak moc je ve skutečnosti daná oblast pravděpodobná Burn-in na grafu věrohodností: řetězec se původně pohyboval v oblastech s velmi nízkým posteriorem Konvergence stav, kdy řetězec shromáždil dost vzorků na to, aby dostatečně přesně odrážely pravděpodobnostní rozdělení, které nás zajímá: hodnoty věrohodností v grafu se ustálily konvergence simulátorova noční můra: falešná konvergence Zdánlivě stabilní plato naznačuje, že řetězec dosáhl stacionarity, ale po mnoha generacích došlo k přesunu do oblastí s ještě vyšší věrohodností: když k tomu dojde moc pozdě, nikdy na to nemusíme přijít (většina MCMC analýz nenechává řetězce běžet déle než pár desítek milionů generací) Zdroje: http://www.arthurx.org/Thomas_Bayes/Thomas_Bayes_Grafure.gif Obrázky: http://xkcd.com/1132 http://blogs.swa-jkt.com/swa/10749/files/2012/11/Darian_G12_Math_AreaUnderGraph5.html_.png Brennan A, Kharroubi SA 2007 Efficient computation of partial expected value of sample information using Bayesian approximation. J Health Econom 26(1): 122–48, Fig. 4 http://mathworld.wolfram.com/BuffonsNeedleProblem.html http://media.picfor.me/0011878/httpwwwtoon-wallpaperscomffuturamabender-evolution_1440jpg-Bender-futurama-Funny-Shits_large.jpg http://www.emeraldinsight.com/fig/498_10_1016_S0196-1152_07_15007-9.png http://bigscale.files.wordpress.com/2012/05/nd2.jpg http://matstrand.com/guides/MCMC/ http://3.bp.blogspot.com/_zLwIdu2sLKM/TPU7WaVmVqI/AAAAAAAACoI/TYz7JIQuIXg/s1600/sas_dx_plot.jpg Lewis PO 2001 Phylogenetic systematics turns over a new leaf. Trends Ecol Evol 16: 30–7, Fig. Id,e http://www.protistologie.cz/files/MolTax/Molekularni%20taxonomie8-text.pdf Citace, použitá literatura: http://www.whoi.edu/fileserver.do?id=13263&pt=2&p=13354 (Paul O Lewis) http://www.molecularevolution.org/molevolfiles/presentations/Lewis_Bayesian_28Jan2011.pdf (Paul O. Lewis) Hoel PG 1966 Introduction to Mathematical Statistics. 3rd edition. New York: John Wiley and Sons Lindley DV 1965 Introduction to Probability and Statistics from a Bayesian Viewpoint (Parts 1, 2). Cambridge: Cambridge Univ Press http://www.ulb.ac.be/di/map/gbonte/mod_stoch/introduction.pdf http://en.wikipedia.org/wiki/Buffon's_needle Richey M 2010 The evolution of Markov Chain Monte Carlo methods. American Mathematical Monthly 117(5): 383–413 Robert C, Casella G 2011 A short history of Markov Chain Monte Carlo: Subjective recollections from incomplete data. Statist Sci 26(1): 102– 15 Metropolis N 1987 The beginning of the Monte Carlo method. Los Alamos Science 15: 125–30 http://mcmcrobot.org/ http://web.mit.edu/~wingated/www/introductions/mcmc-gibbs-intro.pdf The Simulator: Mark Huber a spol., 2008: http://goo.gl/S8Bqh, Bayesian Girl: Marian Farah a spol., 2010: http://goo.gl/z3ChL Bayesovský kabaret představuje: The Simulator On a warm summer's evening on a plane bound for ISBA, I met up with the simulator; we were both too tired to sleep, So we took turns a-staring out the window at the darkness, 'Til boredom overtook us, and he began to speak. Jednoho horkého letního odpoledne v letadle mířícím na ISBA jsem se setkal se simulátorem; oba moc unavení, než abychom spali a tak jsme se střídali v zírání z okna do tmy než nás přemohla nuda a on začal mluvit. He said, „Son, I've made my life out of reading people's data, and knowing what the numbers tell, by the way the series lies, So if you don't mind my saying, I can see you're out of models, For a taste of your data, I'll give you some advice.“ Řekl: „Synku, postavil jsem si život na tom, že čtu lidem jejich data, že vím, co čísla říkají, z toho, jak je uspořádaná řada, takže jestli nevadí, že to říkám, vidím, že ti došly modely, za ochutnávku tvých dat ti dám jednu radu.“ So I handed him my laptop, and he downloaded my last file, Then he bummed a thumbdrive, and I watched its blinking light, And the night got deadly quiet, and his face lost all expression, He said, "Boy, if you're running chains, ya gotta learn to do it right.“ Tak jsem mu podal svůj laptop a on si stáhl můj poslední soubor pak mi sebral flashku a já sledoval její blikající světlo a noc se ponořila do mrtvého ticha a z tváře mu zmizel všechen výraz. Řekl, „Chlapče, když chceš pouštět řetězce, musíš se naučit dělat to správně.“ You got to know when to propose 'em, know when to reject 'em, Know when to stop a chain, and know when to run, You never find your error, while you're taking samples, There'll be time enough for error bars, when the chain is done. Musíš vědět, kdy je navrhnout, vědět, kdy je zamítnout, vědět, kdy ukončit řetězec a vědět, kdy ho spustit. Nikdy nezjistíš svou chybu, zatímco sbíráš vzorky, na chybové úsečky bude dost času, až řetězec doběhne. Every runner knows that the secret to chain burn-in, Is knowing what to throw away, and knowing what to keep, Because every run is perfect, and every run is worthless, And the best that you can hope for is results you can repeat. Každý simulátor ví, že tajemstvím řetězcového burn-inu je vědět, co vyhodit, a vědět, co si nechat, protože každý běh je dokonalý a každý je bezcenný a to nejlepší, v co můžeš doufat, jsou výsledky, které jde zreplikovat And when he’finished speaking, he turned back towards the window, Closed down his black ThinkPad, and faded off to sleep, And somewhere in the darkness, his chain it reached convergence, but in his final words I found a trick that I could keep. A když skončil svojí řeč, otočil se zpátky k oknu, zavřel svůj černý ThinkPad a zvolna usnul. A tam někde v temnotě jeho řetězec – dosáhl konvergence, ale v jeho závěrečných slovech jsem našel trik, který si nechám. You got to know when to propose 'em, know when to reject 'em, Know when to stop a chain, and know when to run, You never find your error, while you're taking samples, There'll be time enough for error bars, when the chain is done. Musíš vědět, kdy je navrhnout, vědět, kdy je zamítnout, vědět, kdy ukončit řetězec a vědět, kdy ho spustit. Nikdy nezjistíš svou chybu, zatímco sbíráš vzorky, na chybové úsečky bude dost času, až řetězec doběhne. Bayesian Girl I’m a Bayesian girl in a Bayesian world, I like my prior, I like my likelihood You can work with me only if you believe in conditionality and likelihood principles. Jsem bayesovská dívka v bayesovském světě Líbí se mi můj prior i věrohodnost Můžeš se mnou pracovat, jenom když věříš v podmíněnost a věrohodnostní principy. Come on Bayesians let’s go party! Bayesovci, jdeme pařit! I’m a Bayesian girl in a Bayesian world, I like my prior, I like my likelihood You can work with me only if you believe in conditionality and likelihood principles. Jsem bayesovská dívka v bayesovském světě Líbí se mi můj prior i věrohodnost Můžeš se mnou pracovat, jenom když věříš v podmíněnost a věrohodnostní principy. I Gibbs step, MH step in MCMC land Here on Earth, or in space, Bayes is so in demand Gibbsovsky, MetropolisHastingovsky kráčím zemí MCMC Tady na Zemi i ve vesmíru je po Bayesovi taková poptávka! Write report, turn in paper, apply for that extra grant Then it’s time, hit the town, and go party! Napište zprávu, odevzdejte studii, ucházejte se o ten grant navíc Pak je čas, vyražte za zábavou a jděte pařit! You can shift... you can scale... don’t forget... to normalize! Můžeš posouvat... můžeš škálovat... nezapomeň normalizovat! I’m a Bayesian girl in a Bayesian world, I like my prior, I like my likelihood You can work with me only if you believe in Jsem bayesovská dívka v bayesovském světě Líbí se mi můj prior i věrohodnost Můžeš se mnou pracovat, jenom když věříš conditionality and likelihood principles. v podmíněnost a věrohodnostní principy. Come on Bayesians Ah-ah-ah-yeah Come on Bayesians Ooh-oh-ooh-oh Come on Bayesians Ah-ah-ah-yeah Come on Bayesians Ooh-oh-ooh-oh let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! Random walks are my game, let’s go on a Lévy flight Normal’s boring but I know, DP mixtures are all right. Náhodné pocházky, to je moje, proleťme se Lévyho letem Normální rozdělení je nuda, ale směsice Dirichletových procesů jsou OK Slice it here, tune it there, maybe log it everywhere Mostly pray, shrug and say, let’s go party! Ukroj to tady, dolaď to tam, možná to všude zlogaritmuj Spíš se modli, pokrč rameny a řekni – jdeme pařit! You can shift... you can scale... don’t forget... to normalize! You can shift... you can scale... don’t forget... to normalize! Můžeš posouvat... můžeš škálovat... nezapomeň normalizovat! Můžeš posouvat... můžeš škálovat... nezapomeň normalizovat! Come on Bayesians Ah-ah-ah-yeah Come on Bayesians Ooh-oh-ooh-oh Come on Bayesians Ah-ah-ah-yeah Come on Bayesians Ooh-oh-ooh-oh let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! I’m a Bayesian girl in a Bayesian world, I like my prior, I like my likelihood You can work with me only if you believe in conditionality and likelihood principles. Jsem bayesovská dívka v bayesovském světě Líbí se mi můj prior i věrohodnost Můžeš se mnou pracovat, jenom když věříš v podmíněnost a věrohodnostní principy. I’m a Bayesian girl in a Bayesian world, I like my prior, I like my likelihood You can work with me only if you believe in conditionality and likelihood principles. Jsem bayesovská dívka v bayesovském světě Líbí se mi můj prior i věrohodnost Můžeš se mnou pracovat, jenom když věříš v podmíněnost a věrohodnostní principy. Come on Bayesians Ah-ah-ah-yeah Come on Bayesians Ooh-oh-ooh-oh Come on Bayesians Ah-ah-ah-yeah Come on Bayesians Ooh-oh-ooh-oh let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! let’s go party! Bayesovci, jdeme pařit! Oh, I’m having so much fun! Well girl, we’re just getting started! Oh, I love you Bayes! Wow, tohle je taková zábava! No a to teprve začínáme! Miluju tě, Bayesi!