1 ISSN: 1805-4951 - Acta Informatica Pragensia

Transkript

1 ISSN: 1805-4951 - Acta Informatica Pragensia
Recenzovaný vědecký časopis / Peer-reviewed scientific journal
Ročník / Year: 2014
Číslo / Number: 1
ISSN: 1805-4951
Vydává / Publisher:
Vysoká škola ekonomická v Praze / University of Economics Prague
Recenzovaný vědecký časopis / Peer-reviewed scientific journal
Ročník / Year: 2014
Vychází dvakrát ročně / Published twice a year
Číslo / Number: 1
Místo vydání / Place of edition: Praha (Prague)
ISSN 1805-4951
Vydává / Publisher:
Vysoká škola ekonomická v Praze / University of Economics Prague
nám. W. Churchilla 4
130 67 Praha 3
Czech Republic (The European Union)
IČ / ID: 61384399
Web: http://aip.vse.cz
Kontakt a informace / Contact and information:
Václav Řezníček – [email protected]
Zdeněk Smutný – [email protected]
Redakční rada / Board of editors:
Stanislava Mildeová1 | University of Economics Prague, Czech Republic
Klára Antlová | Technical University of Liberec, Czech Republic
Martin Boháček | University of Economics Prague, Czech Republic
Tomáš Bruckner | University of Economics Prague, Czech Republic
Vesna Čančer | University of Maribor, Slovenia
Rasa Daugėlienė | Kaunas University of Technology, Lithuania
Jiří Fišer | Jan Evangelista Purkyne University in Ústí nad Labem, Czech Republic
Milan Houška | Czech University of Life Sciences Prague, Czech Republic
Miloslav Hub | University of Pardubice, Czech Republic
Petr Kučera | Komix, Prague, Czech Republic
Petr Máša | Partners Financial Services, Prague, Czech Republic
Jan Ministr | VSB-Technical University of Ostrava, Czech Republic
Eve Mitleton-Kelly | London School of Economics, United Kingdom
Ingeborg Němcová | University of Economics Prague, Czech Republic
Jan Rauch | University of Economics Prague, Czech Republic
Václav Řezníček | University of Economics Prague, Czech Republic
Markus Schwaninger | University of St. Gallen, Switzerland
Antonín Slabý | University of Hradec Králové, Czech Republic
Zdeněk Smutný | University of Economics Prague, Czech Republic
Olga Štěpánková | Czech Technical University in Prague, Czech Republic
Prokop Toman | Czech University of Life Sciences Prague, Czech Republic
Milan Turčáni | Constantine the Philosopher University in Nitra, Slovakia
Viktor Vojtko | University of South Bohemia in České Budějovice, Czech Republic
Jan Voráček | College of Polytechnics Jihlava, Czech Republic
1
Šéfredaktorka / Editor in Chief
OBSAH / CONTENT:
Recenzované stati / Peer-reviewed papers
Analýza dopadu úniků dat na tržní hodnotu firem v období 2008 – 2012 ............................... 1
/ Analysis of the Impact of Data Breaches on the Market Value of Companies
in the Period 2008 – 2012
Tomáš Klíma, Adam Krbušek
O čitelnosti příloh datových zpráv v PDF na platformě OS X ................................................. 8
/ On the Legibility of Data Message PDF Attachments on the OS X Platform
Tomáš Zahradnický
The Third World War? In The Cyberspace.
Cyber Warfare in the Middle East. ......................................................................................... 23
Martina Knopova, Eva Knopova
Business Case v podmínkách obchodního řízení a IT Governance........................................ 33
/ Business Case in Terms of Business Management and IT Governance
Jan Juříček
CADAQUES: Metodika pro komplexní řízení kvality dat a informací ................................. 44
/ CADAQUES: The Methodology for Complex Data and Information Management
David Pejčoch
A Project Team: a Team or Just a Group? ............................................................................. 57
Kateřina Hrazdilová Bočková, Daniela Maťovčíková, Martina Polčáková
Systémový charakter modelování možných trendů
důsledků klimatických změn nástroji geografických informačních systémů ......................... 70
/ System Nature of Modelling of Possible Trends in the Effects of Climate
Change through the Technology of Geographic Information Systems Tools
Veronika Vlčková
Model pre sledovanie objektu s prediktívnym
riadením zdrojov streamingu v multikamerových systémoch ................................................ 89
/ Object Tracking Model with Predictive Control of Streaming
Sources in Multicameras Systems
Dávid Cymbalák, Miroslav Michalko, František Jakab
Approach to Hand Tracking and Gesture Recognition
Based on Depth-Sensing Cameras and EMG Monitoring .................................................... 104
Ondrej Kainz, František Jakab
Simulácia PID regulátora v programovom prostredí Matlab ............................................... 113
/ Simulation of PID Controller in the Programming Environment Matlab
Štefan Koprda
Knižní recenze / Book reviews
Digitální demence................................................................................................................. 125
/ Digital dementia
Václav Řezníček
Zamyšlení / Reflections
Informace hypermoderní doby ............................................................................................. 128
/ Information in Hypermodern Age
Miloš Vítek
Acta Informatica Pragensia
3(1), 2014, 1–7, DOI: 10.18267/j.aip.31
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Analýza dopadu úniků dat na tržní hodnotu
firem v období 2008 – 2012
Analysis of the Impact of Data Breaches on the Market
Value of Companies in the Period 2008 – 2012
Tomáš Klíma1, Adam Krbušek1
1
Katedra systémové analýzy, Fakulta informatiky a statistiky,
Vysoká škola ekonomická v Praze
nám. W. Churchilla 4, 130 67 Praha 3
[email protected]
Abstrakt: Za posledních patnáct let dochází k nárůstu počtu i závažnosti datových
úniků u firem nakládajících s důvěrnými daty zákazníků a dalších osob. Cílem řady
zkoumání bylo posoudit dopad takovýchto incidentů na tržní hodnotu postižených
firem, nicméně všechny se zabývaly úniky před rokem 2008. Cílem tohoto
příspěvku je představit výzkum, v rámci kterého byla provedena analýza dopadu
úniků dat na tržní hodnotu na vzorku 27 firem postižených takovýmto incidentem
mezi léty 2008 a 2012.
Klíčová slova: únik dat, tržní hodnota, analýza dopadu
Abstract: In the last fifteen years we can observe significant rise in the number
and seriousness of the data breaches among the companies dealing with customer
data. The aim of many analyses was to determine the impact of these breaches on
market value, focusing on the breaches prior to 2008. The aim of this article is to
present the findings from the analysis focused on 27 companies that suffered data
breach between 2008 and 2012.
Keywords: Data breach, Market value, Impact analysis
2
Klíma, Krbušek
1
Úvod
Hlavním problémem při určování výše škod utrpěných firmami v důsledku bezpečnostních
incidentů je obtížnost získání potřebných dat. Pokud firma zažije bezpečnostní incident,
v jehož důsledku jí uniknou osobní data klientů, tak je velice těžké odhadnout, nakolik ztratí
důvěru klientů a investorů, stejně tak jako se nedá předem říci, zda se nestane terčem žalob ze
strany postižených jedinců, popřípadě jak velké pokuty bude muset platit. Jelikož není možné
přesně stanovit, jaké následky bude daný bezpečnostní incident na firmu mít, tak se ani nedá
přesně určit, jak budou ovlivněny její tržby, konkurenceschopnost a podíl na trhu. Právě
absence těchto dat určení celkové výše škod značně znesnadňuje. „Vzhledem k obtížnostem
při odhalování skutečných nákladů různých bezpečnostních incidentů je dobré hledat
alternativní ukazatele k přímým nákladům.“ (Yayla, Hu, 2011)
Jedním z alternativních způsobů určení výše nákladů bezpečnostních incidentů je sledování
změn tržní hodnoty postižených firem. Jelikož tržní hodnota firem odráží jejich skutečnou
hodnotu a je určovaná na základě všech informací a faktů, které jsou veřejně známé v daný
okamžik, tak jakýkoliv incident, který firma zažije, by se měl na její tržní hodnotě projevit.
Právě změna ceny akcií způsobená určitým incidentem by měla měřit jeho finanční dopad1.
Zde se tedy pracuje s předpokladem, že velikost reakce akciového trhu na specifický incident
představuje očekávanou cenu daného incidentu. (Yayla, Hu, 2011)
Na základě výše zmíněného vzniklo několik studií, které se snaží zjistit, jaký mají
bezpečnostní incidenty dopad na tržní hodnotu postižených firem. Studie se samozřejmě
zabývají pouze firmami, které jsou veřejně obchodované na akciové burze. V případě firem,
které veřejně obchodovatelné nejsou, tuto metodu použít nelze, protože u nich neexistují
potřebná data.
2
Rešerše studií
Kevin M. Gatzlaff a Kathleen A. McCullough publikovali v roce 2010 studii zabývající se
dopadem bezpečnostních incidentů na tržní hodnotu postižených firem (Gatzlaff,
McCullough, 2010). Pro tuto studii byl použit vzorek 77 firem, které zažily mezi lety 2004 –
2006 bezpečnostní incident. Výsledkem bylo zjištění, že bezpečnostní incidenty, v důsledku
kterých firmě unikla citlivá data, mají značně negativní vliv na cenu akcií a průměrný CAR je
v časovém horizontu jednoho dne -0,84%. Dále bylo zjištěno, že se průměrná cena akcií vrátí
na původní hodnotu po 40 dnech a průměrná ztráta způsobená bezpečnostními incidenty je 84
milionů dolarů.
Další studie zabývající se danou problematikou byla publikována v roce 2009 (Goel, Shawky,
2009). V této studii se autoři zabývali dopadem 168 bezpečnostních incidentů, které se
odehrály v období mezi lety 2004 – 2008, na cenu akcií postižených firem. Výsledkem bylo
zjištění, že bezpečnostní incidenty mají negativní vliv na cenu akcií a průměrný propad ceny
akcií postižených firem je 1%.
Studie (Cavusoglu et al., 2004) uvádí, že firmy v průběhu dvou dnů od oznámení
bezpečnostního incidentu ztrácí v průměru 2,1% ze své tržní hodnoty. Ve studii (Campbell et
al., 2003) bylo zjištěno, že pokud bezpečnostní incident zahrnuje únik citlivých/důležitých
informací, nastane negativní dopad na tržní hodnotu postižené společnosti a cena jejích akcií
1
Za úvahu též stojí využití této metody jako alternativy stanovení očekávaného dopadu incidentů za účelem
analýzy a řízení rizik v podniku. Expertní odhad v těchto případech trpí značnou mírou subjektivity a využití
přesnější metody by přineslo i relevantnější ohodnocení rizik.
3
Acta Informatica Pragensia
klesne v průměru o 5,5%. Dále pak bylo zjištěno, že pokud uniknou data, která nejsou nijak
významná, je dopad incidentu na cenu akcií minimální.
3
Analýza dopadu bezpečnostních incidentů
na tržní hodnotu postižených firem
Studie popsané výše poukazují na to, že bezpečnostní incidenty mají negativní dopad na tržní
hodnotu postižených firem. Tyto studie se nicméně liší svými výsledky, které nejsou jednotné.
Výzkum popsaný dále je tedy věnován vlastní analýze dopadu bezpečnostních incidentů na
tržní hodnotu postižených firem, které zaznamenaly únik dat mezi lety 2008 – 2012. Toto
období bylo vybráno záměrně, jelikož na rozdíl od předchozích let, z tohoto období žádné
podobné analýzy zatím neexistují. Základem analýzy pak je hypotéza říkající, že bezpečnostní
incidenty mají negativní dopad na tržní hodnotu postižených firem.
3.1
Popis metody CAR
Při ověřování hypotézy byla použita stejná metoda, jakou kolektiv v čele s Katherine
Campbell popsal a aplikoval ve své práci (Campbell et al., 2003). Hlavním důvodem jejího
výběru byla možnost srovnat výsledky zde prezentované studie se studiemi historickými, což
by v případě výběru jiné metody, nebo tvorby vlastní možné nebylo. Metoda CAR si dává za
úkol určit rozdíl mezi očekávanou cenou akcií a cenou skutečnou. Jejím cílem je určení
velikosti dopadu neočekávaných událostí na tržní hodnotu firem – mezi neočekávané události
se dá zařadit například zveřejnění informací o úniku dat, oznámení mimořádných dividend,
oznámení fúzí, apod.
Rozdíl mezi očekávanou cenou akcií a cenou skutečnou se nazývá abnormální výnos (AR).
V této studii se bude pracovat s jeho souhrnnou hodnotou, nazvanou kumulativní abnormální
výnos (CAR), která slouží k určení toho, jak velký dopad měla určitá událost na cenu akcií. V
tomto článku je tedy použito analýzy kumulativního abnormálního výnosu k určení vlivu
datových úniků (tedy neočekávané události) na tržní cenu zkoumaných firem.
Rovnice pro CAR je následující:
(1)
Kde t a t představují časové okno události. V případě této práce bylo časové okno zvoleno
v intervalu (-3;10) dní okolo data, kdy byly zveřejněny informace o incidentu.
Rovnice pro AR je následující:
(2)
Kde R je výnos akcií i v den t a R je výnos tržního portfolia m v den t. Pro účel této práce
byl jako ukazatel pro R použit burzovní index S&P 500. Proměnná α pak je intercept a β
je korelace výnosů jednotlivých akcií firmy i vůči burzovnímu indexu. Rovnice pro R je
následující:
(3)
4
3.2
Klíma, Krbušek
Zdrojová data
Pro vlastní analýzu byl vybrán vzorek 27 firem, které zažily mezi lety 2008 – 2012 únik dat2.
Tyto firmy byly vyhledány díky specializovanému serveru datalossdb.org, který shromažďuje
informace o bezpečnostních incidentech vedoucích k únikům dat. Veškeré informace o
bezpečnostních incidentech získané z tohoto serveru byly následně ověřeny v tisku.
Při výběru firem se postupovalo podle několika kritérií. Hlavním kritériem bylo, že každá
z požadovaných firem musela zažít v daném časovém horizontu (od začátku roku 2008 do
konce roku 2012) únik dat. Dále bylo důležité, aby každá z těchto firem byla v době úniku dat
kótovaná na akciové burze. Posledním kritériem byla znalost přesného data, kdy se informace
o úniku dat staly všeobecně známé. Toto kritérium je klíčové, jelikož pokud by přesné datum
známé nebylo, tak by nebylo možné určit, jaký dopad bezpečnostní incident na cenu akcií
dané firmy měl.
Jako ukazatel trhu byl zvolen burzovní index S&P 500 a časové okno okolo události, v níž je
sledována cena akcií, bylo nastaveno v intervalu (-3;10) dní okolo data, kdy byly zveřejněny
informace o incidentu.
Samotná data, použitá pro analýzu, byla obstarána z několika zdrojů. Jedním z nich byl již
zmiňovaný server datalossdb.org, kde byly vyhledány informace o bezpečnostních
incidentech. Informace o cenách akcií zkoumaných firem byly získány prostřednictvím
internetového portálu Yahoo!, konkrétně jeho služby finance.yahoo.com. Prostřednictvím
služby finance.yahoo.com byla obstarána data o vývoji burzovního indexu S&P 500.
3.3
Vyhodnocení výsledků
Pro vyhodnocení výsledků analýzy se testovala hypotéza říkající, že bezpečnostní incidenty
mají negativní dopad na tržní hodnotu postižených firem. Tato hypotéza se testovala na
analyzovaném vzorku dat pomocí t-testu na hladině pravděpodobnosti α=0,05.
Pro výpočet byl použit následující vzorec:
t
x
μ
s´
√n
(4)
Kde x představuje aritmetický průměr hodnot CAR, μ je nulová hypotéza, s ´ je směrodatná
odchylka a n představuje počet pozorování.
Pro testování hypotéz byla stanovena nulová hypotéza H říkající, že bezpečnostní incidenty
nemají žádný dopad na tržní hodnotu postižených firem. Jako alternativní hypotéza H byla
zvolena námi testovaná hypotéza, říkající, že bezpečnostní incidenty mají negativní dopad na
tržní hodnotu postižených firem. Potvrzení, či vyvrácení nulové hypotézy a následné přijetí, či
nepřijetí hypotézy alternativní, se provedlo tak, že se t-hodnota porovnala s kritickou
hodnotou t rozdělení pro stanovenou hladinu významnosti.
Pro potvrzení alternativní hypotézy H musí být μ μ . Kritický obor je v tomto případě
W
t
t
. Hodnota t rozdělení je pro hladinu významnosti α =0,05 při 27
pozorováních rovna 1,706, což znamená, že pro přijetí alternativní hypotézy H bylo nutné,
aby byla hodnota t menší než -1,706.
2
Ve vzorku jsou zastoupené následující firmy: GE Money, SAIC, JPMorgan Chase, Heartland Payment
Systems, TeleTech Holdings, Bank of America, Citigroup, Sony, Hartford Life Insurance Company, Adobe
Systems, Barnes & Noble, NVIDIA Corporation, Yahoo!, LinkedIn, DIRECTV, Global Payments, Coca-Cola,
WellPoint, The Toronto-Dominion Bank, First Republic Bank, Intel Corporation, Wells Fargo & Company,
Digital River, AT&T, AMR Corporation, Netflix, Wal-Mart Stores.
Acta Informatica Pragensia
5
Na základě výsledků t-testu byla hypotéza říkající, že bezpečnostní incidenty mají na tržní
hodnotu postižených firem negativní dopad, potvrzena.
Na Grafu 1 je možné vidět, jaký má zveřejnění bezpečnostních incidentů dopad na tržní
hodnotu postižených firem. Průměrná hodnota CAR je u analyzovaných firem jeden den po
oznámení
bezpečnostního
incidentu
-2,71362%,
po
dvou
dnech od oznámení bezpečnostního incidentu je -4,51908% a po třech dnech je
-4,00159%. Po čtyřech a více dnech již dopad bezpečnostních incidentů na
tržní hodnotu postižených firem není podle t-hodnoty průkazný. Detailní výsledky analýzy
jsou v Tab. 1.
Na základě výsledků analýzy bylo zjištěno, že bezpečnostní incidenty mají značně negativní
dopad na tržní hodnotu postižených firem a průměrný CAR je jeden den po zveřejnění
incidentu -2,71362%.
Na základě výsledků analýzy bylo dále zjištěno, že cena akcií společnosti začíná klesat ještě
před tím, než je bezpečnostní incident oficiálně oznámen – průměrný CAR je jeden den před
oznámením incidentu -1,09777%. To je možné pozorovat na Grafu 1. Tento jev může být
způsoben únikem informací o incidentu před jeho oficiálním oznámením, nebo například
insider tradingem, kdy držitelé akcií, kteří jsou nějak spjati s postiženou firmou, využijí toho,
že mají k dispozici informace o bezpečnostním incidentu dříve, než je oficiálně oznámen a
začnou prodávat své akcie.
Graf 1. Výsledky analýzy CAR a AR. Zdroj: Autoři
Dny
-3
-2
-1
0
1
2
3
4
AR
-0,66891
-0,08156
-0,34729
-0,75041
-0,86544
-1,80545
0,51748
0,39501
CAR
t-hodnota (CAR)
-0,66891
-1,985082246
-0,75047
-1,707312112
-1,09777
-2,788519656
-1,84818
-3,012819789
-2,71362
-3,209476252
-4,51908
-2,166951351
-4,00159
-1,998282172
-3,60658
-1,596725899
6
Klíma, Krbušek
5 0,27222 -3,33435
6 0,14443 -3,18992
7 -0,06175 -3,25167
8 0,31434 -2,93732
9 -0,61874 -3,55607
10 0,03098 -3,52509
-1,581890825
-1,647797533
-1,633667775
-1,542929864
-1,745479156
-1,790948782
Tab. 1. Výsledky analýzy. Zdroj: Autoři
3.4
Porovnání výsledků
Při vyhodnocování výsledků analýzy bylo zjištěno, že bezpečnostní incidenty mají negativní
dopad na tržní hodnotu postižených firem. Pokud se tento závěr porovná s výsledky
předchozích studií provedených jinými autory, je patrné, že se navzájem shodují.
Ačkoliv se studie shodují v tom, že bezpečnostní incidenty mají negativní dopad na tržní
hodnotu postižených firem, výsledné hodnoty CAR jsou rozdílné. Příkladem může být studie
(Goel, Shawky, 2009), jejímž výsledkem bylo zjištění, že průměrná hodnota CAR je jeden
den od zveřejnění incidentu -1,03%. Na tomto příkladu je vidět, že se výsledná hodnota CAR
neshoduje s výsledkem této analýzy, kdy hodnota CAR byla jeden den od zveřejnění
incidentu -2,71362%.
Dalším příkladem je studie (Cavusoglu et al., 2004), která uvádí, že firmy dva dny od
oznámení bezpečnostního incidentu ztrácí v průměru 2,1% ze své tržní hodnoty. Tato hodnota
opět nekoresponduje s výsledkem této analýzy, kdy hodnota CAR byla dva dny od oznámení
incidentu v průmětu -4,51908%.
Rozdílné hodnoty CAR této a jiných studií mohou být způsobeny odlišným obdobím, které
bylo zkoumáno. Zatímco jiní autoři zkoumali období předcházející roku 2008, tato studie se
zabývá obdobím mezi lety 2008 – 2012, včetně. Vzhledem k tomu, že mezi lety 2008 – 2012
probíhala světová finanční krize, která zažívala v letech 2008 a 2010 svá maxima, může být
volba jiného období důvodem rozdílných hodnot CAR. Finanční krize v tomto období totiž
způsobila volatilitu cen prakticky všech finančních instrumentů na trhu, což mohlo do určité
míry ovlivnit reakci trhu na oznámení informací o bezpečnostním incidentu (Jo et al., 2009).
Dalším možným důvodem je snížení citlivosti investorů na zprávy o datových únicích,
kterých bylo v posledních letech takové množství, že je širší veřejnost, mimo ty největší
případy, přestala vnímat.
4
Závěr
Analýza dopadu bezpečnostních incidentů na tržní hodnotu postižených firem byla provedena
na vzorku 27 firem, které zaznamenaly únik dat mezi lety 2008 – 2012. Toto období bylo
vybráno záměrně, jelikož na rozdíl od předchozích let z tohoto období žádné podobné analýzy
zatím neexistují. K analýze byla použita metoda CAR (cumulative abnormal return), což je
stejná metoda, jakou použili autoři předchozích studií. Základem analýzy byla hypotéza
říkající, že bezpečnostní incidenty mají negativní dopad na tržní hodnotu postižených firem.
Tato hypotéza se testovala na analyzovaném vzorku dat pomocí t-testu na hladině
pravděpodobnosti α=0,05, přičemž byla na základě jeho výsledků potvrzena.
Na základě výsledků analýzy bylo zjištěno, že bezpečnostní incidenty mají značně negativní
dopad na tržní hodnotu postižených firem a průměrný CAR je jeden den po zveřejnění
incidentu -2,71362%.
Acta Informatica Pragensia
7
Výsledky analýzy dále ukazují, že cena akcií společnosti začíná klesat ještě před tím, než je
bezpečnostní incident oficiálně oznámen – průměrný CAR je jeden den před oznámením
incidentu -1,09777%. Tento jev může být způsoben únikem neoficiálních informací
o bezpečnostním incidentu před jeho oficiálním oznámením, nebo například insider
tradingem.
Při porovnání výsledků této analýzy s výsledky předchozích studií, byla nalezena shoda –
závěrem všech studií bylo zjištění, že bezpečnostní incidenty mají negativní dopad na tržní
hodnotu postižených firem. Přestože se závěry studií shodují, hodnoty CAR se od sebe liší.
Rozdílné hodnoty CAR této a jiných studií mohou být způsobeny odlišným obdobím, které
bylo zkoumáno, vzhledem k tomu, že mezi lety 2008 – 2012 probíhala světová finanční krize.
Poděkování
Příspěvek byl zpracován jako součást výzkumného projektu IGA, VŠE v Praze: „Inovace
systému řízení digitální forenzní laboratoře“ (F4/74/2014).
Seznam použitých zdrojů
Campbell, K., Gordon, L.,A., Loeb, M.P., Lei, Z. (2003). The economic cost of publicly announced information
security breaches: empirical evidence from the stock market. Journal of Computer Security. 11, 431-448.
Cavusoglu, H., Mishra, B., Raghunathan, S. (2004). The Effect of Internet Security Breach Announcements on
Market Value: Capital Market Reactions for Breached Firms and Internet Security Developers.
International Journal of Electronic Commerce. 9(1) 69-104.
Goel, S., Shawky, H.A. (2009). Estimating the market impact of security breach announcements on firm values.
Information & Management. 46(7), 404-410.
Gatzlaff, K.M., McCullough, K.A. (2010). The effect of data breaches on shareholder wealth. Risk Management
and Insurance Review. 13(1), 61-83.
Jo, H., Lee, C., Munguia, A., Nguyen, C. (2009). Unethical misuse of derivatives and market volatility around
the global financial crisis. Journal of Academic and Business Ethics. 12, 1-11.
Yayla, A.A., Hu, Q. (2011). The impact of information security events on the stock value of firms: the effect of
contingency factors. Journal of Information Technology, 26(1), 60-77.
Acta Informatica Pragensia
3(1), 2014, 8–22, DOI: 10.18267/j.aip.32
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
O čitelnosti příloh datových zpráv
v PDF na platformě OS X
On the Legibility of Data Message PDF Attachments on the OS X Platform
Tomáš Zahradnický1
1
Katedra počítačových systémů, Fakulta informačních technologií,
České vysoké učení technické v Praze
Thákurova 9, 166 21 Praha 3
[email protected]
Abstrakt: Informační systém Datových schránek je významným informačním
systémem státní infrastruktury. Návrhu takové informačního systému je nutné
věnovat patřičnou péči i vzhledem k tomu, že pokud by se v návrhu později
objevila trhlina, mohla by mít nedozírné následky na všechny uživatele. Trhlina,
o které budeme pojednávat, se týká způsobu zasílání některých datových zpráv
obsahujících přílohy ve formátu PDF. Některé z těchto příloh nemusí být příjemci
používajícími výchozí internetový prohlížeč Safari na operačním systému OS X
schopni správně otevřít. Článek tuto situaci analyzuje a dává odpověď na otázku,
kdy bude příloha ve formátu PDF otevřena správně a kdy nikoliv.
Klíčová slova: Datová zpráva, datová schránka, ISDS, PDF, OS X, Safari.
Abstract: The Data Message Information System is a remarkable information
system of the state infrastructure. Design of an information system of such
importance should be done with much care also due to fact that if a design flaw
appeared later, it could have severe impacts at the users. A flaw that will be
discussed in this paper applies to a data message sending process of messages
containing PDF attachments. Users with the default Safari web browser on OS X
do not need to be always able to open such attachments. The paper analyses the
situation and gives an answer to a question when will a PDF attachment be opened
correctly and when not.
Keywords: Data Message, Data Mailbox, DMIS, PDF, OS X, Safari.
Acta Informatica Pragensia
1
9
Úvod
Informační systém (IS) Datových schránek (ISDS) byl zřízen zákonem č. 300/2008 Sb. a byl
uveden do provozu dne 1. 11. 2009. Správu ISDS zajišťuje Ministerstvo vnitra České
republiky (MVČR) a provoz Česká pošta, s.p. ISDS je denně využíván orgány státní správy,
samosprávy i desítkami tisíc dalších subjektů. Primární funkcí systému je odesílání a příjem
datových zpráv, které mohou obsahovat přílohy. Podporované přílohy datových zpráv jsou
uvedeny v příloze 3. vyhlášky MVČR č. 194/2009 Sb. ve znění pozdějších úprav. Informační
systém takovýchto rozměrů musí být navržen perfektně ve všech směrech, i vzhledem k tomu,
že pokud by se objevila v jeho návrhu později trhlina, mohla by mít zásadní následky. Autor
tohoto článku se setkal s případem, kdy ISDS v rámci datové zprávy zaslané přes tento systém
nesprávně identifikoval PDF soubory obsahující žaloby, v důsledku čehož se některé soubory
žaloby jevily na počítači s operačním systémem OS X, do kterého byly staženy, jako
v jednom případě čitelné a ve druhém nikoliv. Analýza této skutečnosti a její příčiny jsou
předmětem tohoto článku.
Následující kapitola provede počáteční analýzu komponentů komunikace mezi webovým
prohlížečem Safari a ISDS. Z analýzy vyplynou požadavky na návrh metod pro monitorování
komunikace a operačního systému s cílem určení příčiny výše uvedeného problému. Následně
budou navržené metody aplikovány, bude zachycena vzájemná komunikace serveru ISDS
s webovým prohlížečem Safari a bude zjištěno, jakou roli hraje v procesu operační systém
a jeho součásti. Zachycená komunikace bude vyhodnocena a bude určena příčina problému.
2
Předběžná analýza problému
Autor textu má k dispozici ve své datové schránce dva rozsudky jednoho ze soudů v Praze
vydaných v letech 2013 a 2014, které byly zaslány jako přílohy datových zpráv ve formátu
PDF. Po přihlášení do ISDS, otevření této datové zprávy a následném stažení PDF dokumentu
s rozsudkem bylo pozorováno nestandardní chování prohlížeče Safari, který je výchozím
prohlížečem na platformě OS X. Aby bylo možné zjistit, proč k tomuto chování dochází, bude
nutné provést analýzu komunikace mezi prohlížečem Safari a ISDS, a dále mezi Safari
a částmi operačního systému, a to prostřednictvím metod reverzního inženýrství v souladu
s § 66 odst. 1. písm. d) zákona č. 121/2000 Sb. ve znění pozdějších úprav.
2.1
Analýza komunikace s ISDS
Uživatel komunikuje s ISDS prostřednictvím svého webového prohlížeče. Na platformě OS X
je výchozím prohlížečem webový prohlížeč Safari, který je instalován spolu s operačním
systémem. Vzhledem k tomu, že Safari je značně sofistikovaná aplikace, jejíž činnost je
rozprostřena mezi několik vzájemně komunikujících procesů, bude nejdříve nutné
identifikovat proces, který zajišťuje komunikaci prohlížeče se serverem ISDS. Tento proces
bude v dalším označován jako komunikační proces (KP). Po identifikaci KP bude nutné se
zaměřit na jeho komunikaci s ISDS, kterou bude nutné zachytit v čitelné podobě, a následně ji
analyzovat. Nakonec bude nutné se zaměřit na roli operačního systému OS X a některých jeho
komponentů, aby bylo možné potvrdit anebo vyvrátit jejich spoluúčast na problému.
2.1.1
Identifikace komunikačního procesu
Komunikační proces (KP) bude možné identifikovat pomocí nástroje fs_usage představující
standardní systémový nástroj příkazové řádky operačního systému OS X. Tento
nástroj vypisuje až do doby jeho ukončení informace o systémových voláních prováděných ze
10
Zahradnický
všech běžících procesů, která se týkají aktivit souborového systému a síťového stacku.
Z výpisů tohoto nástroje bude možné určit jméno KP.
2.1.2
Monitorování komunikace mezi ISDS a KP
ISDS vyžaduje použití spojení zabezpečeného na transportní vrstvě ISO/OSI síťového modelu
protokolem Transport Layer Security verze 1.0 (Dierks, Allen, 1999) (TLS) anebo Secure
Socket Layer verze 3.0 (Freier, Karlton, Kocher, 2011) (SSL). Pro odposlech komunikace
těmito protokoly připadají v úvahu následující 2 možnosti:
1. Použít útoku typu Man-in-the-Middle (MITM) (Prowell, Kraus, Borkin, 2010), při
kterém by komunikace mezi ISDS a webovým prohlížečem procházela přes
prostředníka. Prostředník by musel: i) vstoupit do procesu navazování spojení mezi
ISDS a KP tak, že by si s oběma komunikujícími stranami zřídil vlastní šifrovací klíče,
ii) dešifrovat komunikaci přicházející z ISDS, zaznamenávat ji a následně ji šifrovat
klíčem zřízeným mezi ním a KP a iii) dešifrovat komunikaci přicházející z KP,
zaznamenávat ji a následně ji šifrovat klíčem zřízeným mezi ním a ISDS. Tuto metodu
by bylo možné realizovat například s nástrojem Ettercap (Ornaghi et al., 2013) anebo
Mitmproxy (Cortesi, Hils, 2013).
2. Využít skriptovatelnosti nástroje pro ladění aplikací LLDB (LLVM Developer Group,
2014) a v něm zajistit, aby při přijímání a odesílání dat byla tato data zapisována navíc
například do konzole ladícího nástroje, anebo do externího souboru.
První z uvedených možností vyžaduje provedení útoku MITM a do komunikace mezi ISDS a
KP je nutné aktivně zasahovat. Aby byly vyloučeny jakékoliv možné změny dat aktivním
zásahem do komunikace, bude upřednostněno získání dat bez aktivní účasti prostředníka
v podobě takové, v jaké přicházejí ze serveru ISDS do KP a naopak. Proto bude rozpracována
druhá z výše uvedených možností, bude navržena, implementována a aplikována metoda
zachycující komunikaci mezi ISDS a KP přímo z prostředí nástroje pro ladění aplikací LLDB.
2.2
Analýza chování prohlížeče Safari ve vztahu k operačnímu systému
Prohlížeč Safari využívá služeb operačního systému v podobě volání knihovních funkcí
z nejrůznějších systémových frameworků. Bude tedy nutné analyzovat, jakým způsobem do
procesu stahování souboru vstupuje operační systém a jeho součásti a hrají-li v tomto procesu
svoji roli. Toto bude možné zjistit opět nástrojem pro ladění aplikací.
2.3
Shrnutí předběžné analýzy problému
Aby bylo možné provést analýzu chybného stažení souboru z ISDS, bude nutné nejdříve určit,
který proces z množiny procesů webového prohlížeče Safari na platformě OS X provádí
komunikaci se serverem ISDS. Tento proces bude následně analyzován pomocí nástroje pro
ladění aplikací LLDB a pomocí skriptů v LLDB bude chování KP přizpůsobeno tak, aby
navíc prováděl monitorování komunikace mezi webovým prohlížečem a ISDS.
Tato komunikace bude zaznamenávána a bude následně posouzena na možné příčiny
chybného stažení. Nakonec bude nutné zjistit, nehraje-li v procesu stahování svoji roli také
operační systém či některá jeho součást, což bude zjištěno rovněž pomocí nástroje LLDB.
V následující kapitole bude proveden návrh metod vedoucích ke zjištění potřebných
informací.
Acta Informatica Pragensia 11
3
Návrh metod
V této kapitole bude uveden návrh metod vedoucích k určení KP, jeho následnému
přizpůsobení k monitorování dat, pomocí nástrojů pro ladění počítačového softwaru. Dále
bude rozpracována metoda analýzy komponent operačního systému, které se mohou také
podílet na zjištěné chybě.
3.1
Zjištění komunikačního procesu
Činnost webového prohlížeče Safari je rozdělena mezi několik nezávislých vzájemně
komunikujících procesů, a to převážně z bezpečnostních důvodů. Jednotlivé panely webových
stránek v oknech prohlížeče jsou umístěny každá do svého vlastního procesu com.apple.WebKit.WebContent (WebContent). Takové rozdělení má dobré důvody, mezi něž patří
i použití zásuvných modulů, jejichž pád by způsobil pád prohlížeče. Pokud dojde k pádu
zásuvného modulu, dojde k pádu jediné aplikace WebContent a nedojde tak k pádu
prohlížeče. Mimo procesů WebContent však existují i další procesy, které jsou v důsledku
spuštění prohlížeče Safari spuštěny, a proto není na první pohled zřejmé, který proces
zajišťuje vlastní komunikaci mezi prohlížečem a ISDS. Vzhledem k tomu, že pro síťovou
komunikaci se musí na platformě OS X používat knihovní funkce BSD soketů a každý soket
je reprezentován popisovačem souborů (angl. file descriptor), je možné pro identifikaci KP
použít standardní konzolový nástroj fs_usage, který vypisuje přístup ke všem popisovačům
souborů, tedy i těm, které reprezentují jednotlivé síťové sokety. Nástroj bude vhodné použít
s parametry -w pro získání širokého výstupu, a dále -f network pro výpis síťově
specifických informací. Spuštění proběhne z prostředí aplikace Terminal.app příkazem:
sudo fs_usage -w -f network a po dobu běhu nástroje fs_usage bude z webového
prohlížeče Safari navázáno připojení k webovému serveru ISDS. Nástroj fs_usage vypíše do
konzole aplikace Terminal.app mj. i informaci o tom, které procesy operačního systému
komunikovaly pomocí síťových soketů a mezi těmito procesy musí být i hledaný KP.
3.2
Návrh metody monitorování komunikačního procesu
Po identifikaci KP bude použit nástroj pro ladění aplikací LLDB (LLVM Developer Group,
2014). Tento nástroj bude spuštěn z prostředí aplikace Terminal.app po dobu běhu KP.
Po spuštění LLDB bude použit jeho příkaz attach, kterým dojde k připojení nástroje LLDB
ke KP a k přerušení běhu KP. Pro komunikaci protokolem TLS se na OS X používají funkce
SSLRead pro příjem dat a funkce SSLWrite pro odesílání dat. Ty provádějí šifrování a
dešifrování dat, která přijímají a odesílají prostřednictvím soketových funkcí. Prototypy
funkcí SSLRead a SSLWrite jsou následující (Apple, 2014a):
OSStatus SSLRead (
SSLContextRef context,
void *data,
size_t dataLength,
size_t *processed
);
OSStatus SSLWrite (
SSLContextRef context,
const void *data,
size_t dataLength,
size_t *processed
);
Obě funkce vrací datový typ OSStatus, kterým informují o výsledku příjmu (SSLRead) anebo
odesílání dat (SSLWrite). Parametr context označuje, o které TLS spojení jde, parametr
data obsahuje u příjmu dat ukazatel na blok, do kterého se uloží přijímaná data, u odesílání
dat ukazatel na blok, který se bude odesílat. Parametr dataLength určuje velikost bloku dat a
parametr processed obsahuje ukazatel, do kterého funkce uloží množství zpracovaných dat.
12
Zahradnický
Dokumentace (Apple, 2011) definuje, kde tyto parametry nalezneme v okamžicích vstupu a
výstupu z funkcí SSLRead a SSLWrite. V 64bitové architektuře x86-64 jsou parametry při
volání funkcí postupně ukládány do registrů procesoru rdi, rsi, rdx a rcx. Parametr
context bude tedy umístěn v registru rdi, parametr data v registru rsi, parametr
dataLength v registru rdx a parametr processed v registru rcx. Na funkce SSLRead a
SSLWrite bude nutné nastavit body přerušení programu (angl. breakpoint), a to pomocí
příkazů:
(lldb) breakpoint set -b SSLWrite
(lldb) breakpoint set -b SSLRead
Nastavení bodů přerušení na tyto funkce způsobí, že dojde k přerušení běhu KP v případě, že
se bude pokoušet odeslat anebo přijmout data ze šifrovaného spojení s ISDS. Pouhé přerušení
je pro naše účely nedostatečné. V okamžiku přerušení funkce SSLWrite jsou odesílaná data
v čitelné podobě k dispozici a ukazuje na ně registr rsi. Toto však neplatí u funkce SSLRead,
u které jsou přijímaná data k dispozici až po jejím úspěšném dokončení. Nástroj LLDB je
skriptovatelný a je možné ke každému bodu přerušení přiřadit skript, který se automaticky
vykoná při přerušení programu. Předmětem následujících dvou sekcí bude návrh skriptů, které
zřídí odposlech odesílání dat funkcí SSLWrite a přijímání funkcí SSLRead.
3.2.1
Metoda odposlechu u funkce SSLWrite
Funkce SSLWrite slouží pro odesílání dat a prostřednictvím ní KP zasílá data ISDS. Data
v čitelné podobě jsou v okamžiku volání funkce k dispozici a ukazuje na ně ukazatel ve
druhém parametru funkce SSLWrite, který je obsažený v registru rsi. Pro naše potřeby je
postačující vytisknout pouze prvních 1024 bajtů dat do konzole ladícího nástroje a nechat KP
následně pokračovat bez další interakce. Požadovaného chování lze dosáhnout pomocí
nastavení následujícího skriptu k bodu přerušení u funkce SSLWrite:
(lldb) breakpoint command add 1
Enter your debugger command(s).
> memory read -c 1024 $rsi
> process continue
> DONE
Type 'DONE' to end.
Příkaz breakpoint command add 1 přiřadí k bodu přerušení č. 1, který byl nastaven na
funkci SSLWrite, skript obsahující tři příkazy:
1. memory read vypisuje prvních 1024 bajtů dat odesílaného bloku do konzole aplikace
LLDB – data se vytisknou v aplikaci Terminal.app;
2. process continue instruuje nástroj LLDB k tomu, aby obnovil běh procesu KP,
který po jeho provedení bude automaticky pokračovat bez další interakce;
3. DONE ukončuje zadávání skriptu.
Chování KP je tímto nastavením přizpůsobeno tak, že funkce SSLWrite vypisuje díky
přiřazení skriptu prvních 1024 bajtů odesílaných dat v čitelné podobě do konzole aplikace
LLDB.
3.2.2
Metoda odposlechu u funkce SSLRead
Funkce SSLRead slouží pro příjem dat odesílaných z ISDS směrem do KP. V době volání
funkce SSLRead z KP však data nejsou ještě známa. KP předává funkci SSLRead ukazatel na
Acta Informatica Pragensia 13
vyhrazené místo v paměti, do kterého má funkce uložit dešifrovaná data z TLS spojení
s ISDS. Odposlech dat z funkce SSLRead je nutné rozdělit do 2 kroků, a to: i) zapamatování si
ukazatele na vyhrazené místo, do kterého mají být přijmutá data uložena, který je určen
argumentem data a nachází se v době přerušení programu v registru rsi a ii) tisk přijmutých
dat v okamžiku opouštění funkce SSLRead.
Prvním krokem je zapamatování si adresy ukazatele na místo v paměti, do kterého budou
uložena přijímaná dešifrovaná data z ISDS. Toho lze dosáhnout opět použitím přiřazení
skriptu k bodu přerušení č. 2:
(lldb) breakpoint command add 2
Enter your debugger command(s). Type 'DONE' to end.
> expression long $readaddr=$rsi
> process continue
> DONE
Příkaz breakpoint command add 2 přiřadí k bodu přerušení č. 2, který byl nastaven na
funkci SSLRead, skript obsahující tři příkazy:
1. expression long $readaddr=$rsi uloží obsah registru rsi do globální proměnné
označené jako $readaddr;
2. process continue instruuje nástroj LLDB k tomu, aby obnovil běh procesu KP,
který po jeho provedení bude automaticky pokračovat bez další interakce;
3. DONE ukončuje zadávání skriptu.
Výše uvedený skript zajistí uložení hodnoty registru rsi v době vstupu do funkce v době, kdy
registr rsi obsahuje ukazatel na datový blok, do kterého se budou přijímat dešifrovaná data
z TLS spojení. Skript hodnotu registru rsi uloží do globální proměnné $readaddr. Vzhledem
k tomu, že data dosud nejsou známa, bude nutné s jejich tiskem vyčkat až na okamžik
dokončení funkce.
Druhým krokem je tisk přijatých dat do konzole aplikace Terminal.app, který bude proveden
v době, kdy jsou data již k dispozici – na poslední instrukci funkce SSLRead. Pro tyto účely
bude nutné zjistit, kde funkce SSLRead končí a na poslední její instrukci nastavit třetí bod
přerušení. Konec funkce SSLRead lze nalézt například pomocí příkazu:
(lldb) disassemble -n SSLRead
Security`SSLRead:
0x7fff8b57eab8: pushq %rbp
0x7fff8b57eab9: movq
%rsp, %rbp
0x7fff8b57eabc: pushq %r15
...
0x7fff8b57ed31: popq
%r14
0x7fff8b57ed33: popq
%r15
0x7fff8b57ed35: popq
%rbp
0x7fff8b57ed36: ret
Z výpisu vyplývá, že poslední instrukcí funkce SSLRead je instrukce ret, nacházející se na
adrese 0x7fff8b57ed36. Na tuto adresu bude nutné nastavit třetí bod přerušení příkazem:
(lldb) breakpoint set -a 0x7fff8b57ed36
Nyní je nutné k bodu přerušení č. 3 přiřadit poslední skript:
(lldb) breakpoint command add 3
14
Zahradnický
Enter your debugger command(s).
> memory read -c 1024 $readaddr
> process continue
> DONE
Type 'DONE' to end.
Příkaz breakpoint command add 3 přiřadí k bodu přerušení č. 3, který byl nastaven na
funkci SSLRead, skript obsahující tři příkazy:
1. memory read vypisuje prvních 1024 bajtů dat přijímaného bloku, na který ukazuje
globální proměnná $readaddr, do konzole aplikace LLDB – data se vytisknou
v aplikaci Terminal.app;
2. process continue instruuje nástroj LLDB k tomu, aby obnovil běh procesu KP,
který, po jeho provedení, bude automaticky pokračovat bez další interakce;
3. DONE ukončuje zadávání skriptu.
3.2.3
Shrnutí k navrženým metodám
Výše navržená metoda zajistí pomocí bodů přerušení programu nastavených na
komunikačních funkcích SSLRead a SSLWrite automatické vykonávání skriptů provádějících
monitorování TLS komunikace do konzole aplikace Terminal.app. Skripty, které byly
přiřazeny k funkcím SSLRead a SSLWrite, vypisují pro jednoduchost pouze prvních 1024
bajtů z každého datového bloku zabezpečené komunikace. Navržená metoda používá globální
proměnnou $readaddr, do které ukládá adresu paměťového bloku, což nemusí být vhodné
u vícevláknových aplikací. Tento problém by však bylo možné snadno odstranit použitím
složitějších skriptů, které by ukládaly uchovávanou hodnotu registru rsi a velikost bloku
například do tabulky, do níž by se mohlo indexovat například pomocí identifikátoru vlákna.
Takové řešení by bylo možné vytvořit prostřednictvím jazyka Python, který rovněž může být
použit pro tvorbu skriptů v nástroji LLDB. Pro účely této analýzy však plně postačuje
navržená metoda a v následující kapitole budou prezentovány pomocí ní získané výsledky.
4
Komunikace webového prohlížeče s ISDS
Metoda, která byla navržena ve 3. kapitole, byla aplikována na spojení KP s ISDS a dosažené
výsledky budou nyní prezentovány. Po uvedení všech nástrojů, které byly použity, budou
uvedeny kroky, které byly provedeny před samotným záznamem komunikace. Poté bude
následovat prezentace požadavku KP na ISDS o stažení přílohy v PDF následovaná odpovědí
ISDS. Komunikace KP s ISDS bude následně vyhodnocena a bude dána odpověď na to, proč
může být v jednom případě dokument zobrazen uživateli korektně a ve druhém nikoliv.
4.1
Použité nástroje
Pro záznam komunikace a následné analýzy byl použit:
1.
2.
3.
4.
5.
počítač MacBookPro8,2;
operační systém OS X verze 10.9.2 (13C64);
webový prohlížeč Safari verze 7.0.2 (9537.74.9);
nástroj pro ladění aplikací LLDB verze lldb-310.2.36;
nástroj pro reverzní analýzu Hex-Rays IDA Pro Advanced verze 6.5.131217 (HexRays, 2014b);
6. zásuvný modul pro nástroj Hex-Rays IDA Pro Advanced Hex-Rays Decompiler (x86)
pro IDA Pro verze 1.9.0.131213 (Hex-Rays, 2014a).
Acta Informatica Pragensia 15
4.2
Počáteční stav
Jako výchozí stav pro monitorování komunikace byl zvolen stav těsně před započetím
stahování souboru přílohy. Do tohoto stavu se uživatel dostane následováním těchto kroků:
1. provede přihlášení k ISDS na stránkách https://www.mojedatovaschranka.cz
zadáním svého uživatelského jména, hesla, kontrolního kódu a následným stiskem
tlačítka „Přihlásit se“;
2. stiskne potvrzující tlačítko „OK“ v následném okně informujícím ho o tom, že nemá
žádné nové datové zprávy;
3. zvolí vybranou datovou zprávu.
Z tohoto stavu budou prováděna další zkoumání. ISDS nabízí v případě autorem zvolené
datové zprávy ke stažení přílohu 166117235_0_Korostensky2T13-13,R.PDF. V dalším
budeme zkoumat, jaká komunikace probíhá mezi klientem a serverem při jejím stahování.
16
4.3
Zahradnický
Žádost webového prohlížeče na stáhnutí přílohy z ISDS
Komunikace začíná požadavkem webového prohlížeče na server ISDS. Tento požadavek je
zachycen v níže uvedeném výpise a pochází z nástroje LLDB:
0x7ffeeac994b0:
0x7ffeeac994c0:
0x7ffeeac994d0:
0x7ffeeac994e0:
0x7ffeeac994f0:
0x7ffeeac99500:
0x7ffeeac99510:
0x7ffeeac99520:
0x7ffeeac99530:
0x7ffeeac99540:
0x7ffeeac99550:
0x7ffeeac99560:
0x7ffeeac99570:
0x7ffeeac99580:
0x7ffeeac99590:
0x7ffeeac995a0:
0x7ffeeac995b0:
0x7ffeeac995c0:
0x7ffeeac995d0:
0x7ffeeac995e0:
0x7ffeeac995f0:
0x7ffeeac99600:
0x7ffeeac99610:
0x7ffeeac99620:
0x7ffeeac99630:
0x7ffeeac99640:
0x7ffeeac99650:
0x7ffeeac99660:
0x7ffeeac99670:
0x7ffeeac99680:
0x7ffeeac99690:
0x7ffeeac996a0:
0x7ffeeac996b0:
0x7ffeeac996c0:
0x7ffeeac996d0:
0x7ffeeac996e0:
0x7ffeeac996f0:
0x7ffeeac99700:
0x7ffeeac99710:
0x7ffeeac99720:
0x7ffeeac99730:
0x7ffeeac99740:
0x7ffeeac99750:
47
64
26
32
61
31
48
77
68
74
2c
65
58
64
39
44
38
3a
63
61
6c
6e
71
74
4d
20
29
37
6c
69
2f
70
66
70
6f
6f
3f
4e
4f
34
32
32
0a
45
3f
58
61
36
31
54
77
72
2d
20
3a
2d
39
35
53
35
20
65
70
2b
2f
3d
3a
61
4d
20
2e
69
6f
35
74
72
73
76
72
65
6a
7a
62
65
32
44
54
6f
43
32
38
37
54
77
61
45
64
20
43
65
38
6c
37
6b
70
70
78
78
30
20
63
61
41
37
6b
6e
33
2d
0d
3a
61
74
76
45
45
39
66
35
4e
20
70
53
37
65
32
50
2e
6e
6e
65
5f
4f
35
38
61
37
65
74
6c
6d
6d
2e
4d
69
63
70
33
65
2f
37
4c
0a
2f
73
61
3d
78
37
39
63
66
54
2f
65
52
65
35
33
2f
6d
6b
63
66
69
4f
63
65
73
0d
65
3a
69
6c
6c
38
6f
6e
20
70
2e
20
37
2e
61
52
2f
63
6c
4c
4e
4f
63
32
39
3a
70
72
46
66
66
35
31
6f
61
6f
6c
66
4b
32
36
74
0a
70
20
63
2c
3b
0d
7a
74
4f
6c
31
47
2e
37
6e
65
77
68
2f
47
7a
7a
38
38
61
20
6f
3d
3d
61
33
26
2e
6a
2e
64
61
3d
49
62
63
3d
43
2d
74
61
61
71
0a
69
6f
53
65
31
65
30
33
67
66
77
72
49
31
49
73
38
62
39
31
72
45
38
65
26
65
31
65
63
69
74
30
45
64
36
31
6f
61
65
74
70
3d
55
6c
73
20
57
20
63
2e
2e
75
65
77
61
53
6b
7a
37
37
32
35
0d
74
6e
61
32
64
6e
0d
64
7a
6e
65
36
3d
34
30
33
6e
6c
78
69
70
30
73
6c
68
58
65
28
6b
31
31
61
72
2e
6e
44
64
4e
4d
26
63
37
0a
61
63
39
64
6d
63
0a
61
0d
67
0d
3b
30
33
38
39
6e
69
74
6f
6c
2e
65
61
3b
20
62
4b
6f
20
31
67
65
6d
6b
53
43
54
41
58
62
62
0d
6c
6c
37
36
49
4e
48
74
0a
3a
0a
20
33
30
37
32
65
76
2f
6e
69
39
72
2f
20
31
4b
48
29
53
0d
65
72
6f
61
2f
77
73
25
43
36
35
0a
2f
6f
66
65
64
75
6f
6f
41
20
43
49
2d
36
38
32
63
65
68
2f
63
2c
2d
35
49
30
69
54
20
61
0a
3a
3a
6a
2e
69
73
77
33
53
37
62
00
44
73
33
37
3d
6d
73
76
63
67
6f
50
30
38
3b
30
74
0d
74
78
61
2a
41
2e
6e
5f
74
4d
56
66
41
20
20
65
63
6e
4f
4c
44
52
32
33
00
53
75
39
39
31
3d
74
61
63
7a
6f
43
35
33
20
39
69
0a
6d
68
74
2f
67
30
74
39
2f
4c
65
61
63
66
68
64
7a
64
7a
44
25
46
30
35
00
2f
72
30
38
36
30
3a
73
65
69
6b
5a
61
32
49
35
6f
41
6c
74
69
2a
65
20
65
5f
35
2c
72
72
63
72
74
61
2f
65
45
73
33
3d
32
39
00
64
65
30
37
36
20
20
63
70
70
69
2d
61
64
53
33
6e
63
2c
6d
6f
3b
6e
28
6c
31
33
20
73
69
65
2d
74
74
70
78
32
77
44
63
30
0d
00
GET /portal/DS/d
d?oper=Enclosure
&XCSRF=8a97f3900
2a27efae2d6e7987
a68e5f3&dmId=166
117235&encNum=0
HTTP/1.1..Host:
www.mojedatovasc
hranka.cz..Accep
t-Encoding: gzip
, deflate..Cooki
e: _if=06; IPCZX-COOKIE=03-05aa
d9e5c2bd4306832d
9588e6c60878; IS
DSlast=139220953
8577..Connection
: keep-alive..Ac
cept: text/html,
application/xhtm
l+xml,applicatio
n/xml;q=0.9,*/*;
q=0.8..User-Agen
t: Mozilla/5.0 (
Macintosh; Intel
Mac OS X 10_9_1
) AppleWebKit/53
7.73.11 (KHTML,
like Gecko) Vers
ion/7.0.1 Safari
/537.73.11..Acce
pt-Language: frfr..Referer: htt
ps://www.mojedat
ovaschranka.cz/p
ortal/ISDS/index
?ev=LG1kdCwsOzE2
NjExNzIzNTswLDsw
OzE7Ozs7MA%3D%3D
4b99c887&XCSRF=c
2efc28b2cb672020
225f9a957b5b359.
.DNT: 1.........
Výpis 1. Žádost KP na ISDS na stažení souboru 166117235_0_Korostensky2T13-13,R.PDF.
4.4
Odpověď serveru ISDS na žádost o stažení PDF souboru s přílohou
Na požadavek KP uvedený v sekci 4.3 odpovídá ISDS následovně:
0x7ffeea2afc00:
0x7ffeea2afc10:
0x7ffeea2afc20:
0x7ffeea2afc30:
0x7ffeea2afc40:
0x7ffeea2afc50:
0x7ffeea2afc60:
0x7ffeea2afc70:
0x7ffeea2afc80:
0x7ffeea2afc90:
0x7ffeea2afca0:
0x7ffeea2afcb0:
0x7ffeea2afcc0:
0x7ffeea2afcd0:
0x7ffeea2afce0:
48
0a
65
20
44
64
30
0d
69
74
31
6e
46
6c
72
54
44
62
47
53
3a
31
0a
74
3b
31
73
22
3a
61
54
61
20
4d
0d
20
34
43
69
20
37
6b
0d
20
6e
50
74
32
54
0a
57
20
6f
6f
66
32
79
0a
6e
73
2f
65
30
0d
4c
65
31
6e
6e
69
33
32
43
6f
66
31
3a
31
0a
61
64
33
74
3a
6c
35
54
61
2d
6f
2e
20
34
53
73
2c
3a
65
20
65
5f
31
63
73
72
31
57
20
65
74
20
35
6e
61
6e
30
33
68
74
6d
20
65
31
72
2d
31
32
74
74
61
5f
2d
65
6f
2c
32
64
32
76
4d
32
3a
2d
74
6d
4b
31
2d
72
70
30
2c
3a
65
6f
20
33
44
61
65
6f
33
43
65
72
30
20
35
72
64
46
32
69
63
3d
72
2c
6f
2c
69
20
31
32
3a
69
65
20
73
68
22
6f
52
6e
6e
76
4f
32
3a
20
66
62
47
70
6d
31
73
2e
74
6f
61
4b
20
33
49
69
20
4d
6f
65
36
74
50
72
2d
74
0d
46
32
53
65
32
54
73
6e
36
65
44
6f
74
65
HTTP/1.1 200 OK.
.Date: Wed, 12 F
eb 2014 12:52:32
GMT..Server: IS
DS..Last-Modifie
d: Wed, 12 Feb 2
014 13:52:32 GMT
..Content-Dispos
ition: attachmen
t; filename="166
117235_0_Koroste
nsky2T13-13,R.PD
F"..Cache-Contro
l: no-store,no-t
ransform,private
Acta Informatica Pragensia 17
0x7ffeea2afcf0:
0x7ffeea2afd00:
0x7ffeea2afd10:
0x7ffeea2afd20:
0x7ffeea2afd30:
0x7ffeea2afd40:
0x7ffeea2afd50:
0x7ffeea2afd60:
0x7ffeea2afd70:
2c
72
76
61
6f
54
67
65
6c
6d
65
65
78
6e
72
3a
6e
61
61
73
3a
3d
3a
61
20
74
69
78
3a
20
35
20
6e
63
2d
6e
2d
20
74
31
4b
73
68
54
0d
61
30
69
32
65
66
75
79
0a
67
0d
6d
0d
65
65
6e
70
0d
65
0a
65
0a
70
72
6b
65
0a
3d
4b
6f
43
2d
2d
65
3a
00
30
65
75
6f
41
45
64
20
00
0d
65
74
6e
6c
6e
0d
74
00
0a
70
3d
6e
69
63
0a
65
00
45
2d
34
65
76
6f
43
78
00
78
41
2c
63
65
64
6f
74
00
70
6c
20
74
0d
69
6e
2f
00
69
69
6d
69
0a
6e
74
70
00
,max-age=0..Expi
res: 0..Keep-Ali
ve: timeout=4, m
ax=512..Connecti
on: Keep-Alive..
Transfer-Encodin
g: chunked..Cont
ent-Type: text/p
lain............
Výpis 2. Odpověď serveru ISDS na požadavek KP. Součástí odpovědi jsou hlavička s výchozím jménem
souboru (Content-Disposition) s hodnotou attachment; filename="166117235_0_Korostensky2T1313,R.PDF" a hlavička obsahující chybný MIME typ dokumentu (Content-Type) s hodnotou text/plain.
4.5
Vyhodnocení komunikace
V sekci 4.3 byl uveden výpis žádosti webového prohlížeče Safari odeslaný z KP serveru
ISDS. Tento požadavek je standardní kromě požadavku na jazyk, kterým je francouzština,
která je aktuálně nastaveným jazykem operačního systému počítače, na kterém pracuje autor
článku. V sekci 4.4 byla uvedena odpověď serveru na žádost KP. Nyní bude odpověď serveru
ISDS blíže analyzována, nejdříve hlavičky Content-Disposition a Content-Type,
pak bude následovat diskuze o zjištěné chybě.
4.5.1
Hlavičky komunikace
Hlavička Content-Disposition, která je definována ve standardu RFC 6266 (Reschke,
2011), má v zaznamenané odpovědi hodnotu: attachment; filename="166117235_0_Korostensky-2T13-13,R.PDF". Hodnota má dvě části: Část prvá – attachment – říká
webovému prohlížeči, že by měl vyzvat uživatele k uložení souboru, zatímco část druhá –
dispoziční parametr filename – poskytuje informaci o doporučeném jménu souboru.
V zaznamenaném případě se soubor má jmenovat 166117235_0_Korostensky-2T1313,R.PDF.
Hlavička Content-Type, která je definována ve standardu RFC 2045 (Freed, Borenstein,
1996a), obsahuje tzv. typ internetového média (dříve MIME typ) s informací o tom, jak by
měl prohlížeč interpretovat následující data, případně doplněný o informaci o kódování
formou nepovinného parametru charset. Hlavička obsahuje hodnotu text/plain,
a nepovinný parametr není uveden. Prohlížeč by tedy měl data chápat jako prostý text s tím,
že kódování textu není uvedeno. Dokument RFC 2046 (Freed, Borenstein, 1996b) uvádí, že
pokud parametr charset chybí, měla by být implikována znaková sada US-ASCII. Tuto
implikaci nahrazuje dokument RFC 2616 (Fielding et al., 1999) na kódovou sadu ISO-8859-1
a zároveň uvádí, že některý počítačový software se v případě chybějícího parametru charset
chová tak, že se pokouší kódování určit sám z obsahu dat. Pravidla pro uvádění parametru
charset jsou dále změněna dokumentem RFC 6557 (Melnikov, Reschke, 2012), který
rozlišuje dva případy: i) pokud lze vyčíst informaci o kódování dokumentu z obsahu
dokumentu, pak by hodnota charset neměla být uvedena vůbec, aby nezpůsobila případnou
nejednoznačnost při určení kódování a ii) mít explicitně uveden parametr charset tak, že
výchozí hodnota již není zapotřebí.
4.5.2
Chyba při přenosu souboru
Typ internetového média (MIME typ), který byl ISDS odeslán a poskytnut KP, byl
text/plain bez dalšího určení kódování souboru. Stažený soubor by měl být prohlížečem
interpretován jako soubor s prostým textem. Vzhledem k tomu, že soubory PDF obecně
18
Zahradnický
nejsou textovými soubory, jde o špatnou identifikaci typu souboru. Soubory typu PDF mají
svůj vlastní MIME typ, který je definován v RFC 3778 (Taft et al., 2004), a to
application/pdf. Alternativně by bylo možné použít obecnější typ application/octetstream. Žádný z těchto dvou typů internetového média však serverem nebyl poskytnut a
namísto něj byl ISDS odeslán typ text/plain. V důsledku toho došlo ke spuštění
potenciálně nebezpečného (Barua, Shahriar, Zulker, 2011) procesu detekce typu
internetového média (Microsoft Corp.; Hemsley, Barth, Hickson, 2010; Zalewski, 2012)
s tím, že pokud se detekce nezdaří, MIME typ se nastaví záchranným mechanismem na
obecný MIME typ reprezentující binární data application/octet-stream. Tímto
záchranným mechanismem prohlížeč soubor ponechá „jak je“ a k jeho otevření následně
použije mechanismy operačního systému – identifikace aplikace k otevření souboru obvykle
podle jeho přípony, pokud nějakou má.
Stahovaný soubor, pro nějž je hlavička odpovědi ISDS uvedena ve Výpise 2, byl i přes špatný
MIME typ otevřen v aplikaci pro prohlížení PDF souborů. Autor má k dispozici záznam
komunikace, který není díky vázání mlčenlivostí oprávněn publikovat, ve kterém se za jméno
souboru v prohlížeči doplnila automaticky přípona .txt a soubor PDF tak skončil s dvojí
příponou .pdf.txt. Operační systém se rozhodl podle poslední přípony, která byla .txt,
čímž došlo k otevření souboru ve výchozí aplikaci pro zpracování textu, kterou je na OS X
aplikace TextEdit.app, a soubor se uživateli jevil jako nečitelný. Aby bylo možné blíže
analyzovat, proč se jeden PDF soubor otevřel správně a druhý nikoliv, je nutné prozkoumat
metodu detekce typu MIME, kterou prohlížeč (anebo operační systém) provádí a která
vuústila jednou otevřením souboru v aplikaci pro prohlížení PDF souborů a podruhé
v aplikaci TextEdit.app, ve které byl uživateli nečitelný.
4.5.3
Analýza detekce typu MIME
Nyní bude analyzován prohlížeč Safari a proces stahování souboru. Safari je postaven na
frameworku WebKit2.framework (Apple, 2014b), který je vyvíjen pod licencí s otevřeným
zdrojovým kódem. Studiem zdrojových kódů frameworku bylo zjištěno, že ke stahování
souboru se využívají služby operačního systému, obsažené v systémovém frameworku
CFNetwork.framework (Apple, 2012). Zdrojový kód aktuální verze frameworku
CFNetwork.framework není k dispozici, a proto byly použity nástroje Hex-Rays IDA Pro
Advanced (Hex-Rays, 2014b), zásuvný modul Hex-Rays Decompiler (x86) (Hex-Rays,
2014a) v kombinaci s nástrojem LLDB pro porozumění chování frameworku a prohlížeče při
stahování souboru. Tato činnost byla provedena podle § 66 odst. 1 písm. d) zákona
č. 121/2000 Sb. ve znění pozdějších úprav. Bylo zjištěno, že nad prvním datovým blokem
stahovaného souboru přílohy je volána metoda frameworku CFNetwork.framework
s názvem: CFNetwork`URL-ConnectionClient::sniffAndSendDidReceiveResponse. Tato
metoda má 1 vstupní argument, kterým je pole, obsahující datový typ s prvním datovým
blokem stahovaného souboru. Metoda zjišťuje, jsou-li data kódována v některém z kódování
jako například Apple MacBinary (Olson et al., 1987), BinHex (Faltstrom, Crocker, Fair,
1994)
a
další,
a
dále
obsahuje
volání
metody
CFNetwork`URLResponse::guessMIMETypeCurrent, která z obsahu prvního bloku
přenášeného souboru určuje MIME typ souboru. Funkce CFNetwork`URLResponse::guessMIMETypeCurrent volá nad tímto blokem dat interní funkci CFNetwork`isAllText, která
hraje klíčovou v určení MIME typu, proto bude podrobně popsána. Následující pseudokód
v programovacím jazyce C byl pořízen nástrojem Hex-Rays IDA Pro Advanced a zásuvným
modulem Hex-Rays Decompiler (x86):
Acta Informatica Pragensia 19
unsigned char __fastcall CFNetwork`isAllText(const __CFData *cfDataRef)
{
const __CFData *cfDataRef_1;
// Kopie ukazatele na datový blok
CFIndex
delka_dat_v_bloku;
// Množství dostupných dat v bloku
CFIndex
zkoumana_delka;
// Množství znaků, které budeme zkoumat
char*
ukazatel_na_aktualni_znak; // Ukazatel na aktuální znak bloku
char*
ukazatel_na_posledni_znak; // Ukazatel na poslední znak bloku
char
znak;
// Aktuální znak z bloku
unsigned char
vysledek;
// Výsledek funkce: 0=netextový, 1=text
cfDataRef_1 = cfDataRef; // Zkopíruj ukazatel na vstupní blok dat
if ( cfDataRef )
// Je blok dat platný? Pokud ne, skonči s výsledkem 1
{
// Zjisti délku datového bloku
delka_dat_v_bloku = CFDataGetLength(cfDataRef);
// Nastav zkoumanou délku na 512 znaků
zkoumana_delka = 512;
// Máme k dispozici méně než 513 znaků?
if ( delka_dat_v_bloku < 513 )
zkoumana_delka = delka_dat_v_bloku; // Ano, zkoumejme jen tolik, co máme
// Máme alespoň 1 znak ke zkoumání?
if ( zkoumana_delka > 0 )
{
// Zjisti ukazatel na první znak v bloku
ukazatel_na_aktualni_znak = CFDataGetBytePtr(cfDataRef_1);
// Zjisti, kde je konec zkoumaného bloku
ukazatel_na_posledni_znak = zkoumana_delka + ukazatel_na_aktualni_znak - 1;
// Dokud jsme v bloku, vezmi znak po znaku a zkoumej jejich hodnotu
while ( ukazatel_na_aktualni_znak <= ukazatel_na_posledni_znak )
{
// Načti aktuální znak z bloku
znak = *ukazatel_na_aktualni_znak;
// Nastav hodnotu výsledku na 0
vysledek = 0;
// Zjisti, je-li znak v definovaných mezích
if ( znak >= 9 && znak != 11 && znak >= 27 )
{
// Přejdi na následující znak v bloku
++ ukazatel_na_aktualni_znak;
// Pokud je hodnota znaku > 31, pokračuj na následující znak
if ( znak > 31 )
continue;
// Znak byl <= 31, prohlaš blok za netextový skočením s výsledkem 0.
}
return vysledek;
}
}
}
// Prohlaš blok za textový skočením s výsledkem 1.
return 1;
}
Výpis 3. Pseudokód funkce CFNetwork`isAllText, která je součástí systémového frameworku
CFNetwork.framework. Tato funkce prozkoumá prvních maximálně 512 bajtů textu na to, neobsahuje-li
znaky s hexadecimálními kódy 00-08, 0B, 0E-1A a 1C-1F (Hemsley, Barth, Hickson, 2010). Pokud ani
jeden z těchto znaků zkoumaný blok dat neobsahuje, funkce indikuje, že soubor je čistě textový vrácením
hodnoty logické 1, v opačném případě funkce končí s hodnotou logické 0 indikujíc netextový obsah.
V případě souboru 166117235_0_Korostensky2T13-13,R.PDF funkce CFNetwork`isAllText vrátí hodnotu 0, což znamená, že prvních 512 bajtů souboru nelze považovat za textový
soubor. Funkce CFNetwork`URLResponse::guessMIMETypeCurrent se následně pokusí ještě
20
Zahradnický
o několik dalších pokusů o identifikaci a nakonec popsaným záchranným mechanismem
nastaví detekovaný MIME typ na application/octet-stream. Na tuto změnu MIME typu
reaguje prohlížeč tak, že ponechá jméno souboru na jménu doporučeném hlavičkou ContentDisposition. Soubor je uložen na disk s doporučeným jménem a při poklepání na něj dojde
k otevření prohlížeče PDF souborů.
V případě druhého PDF souboru, který autor má k dispozici, ale díky vázání mlčenlivostí ho
nemůže publikovat, funkce CFNetwork`isAllText vrátí hodnotu 1, což znamená, že prvních
512 bajtů PDF souboru lze považovat za čitelný text a následně je MIME typ ponechán na
hodnotě text/plain, je přidána přípona .txt a soubor je uložen na disk se jménem
obsahujícím doporučené jméno souboru a přidanou příponou .txt. Soubor nakonec má dvě
přípony .pdf.txt a při poklepání na něj dojde díky poslední příponě .txt k otevření
aplikace pro úpravu textu TextEdit.app a soubor je jeví uživateli jako nečitelný.
4.5.4
Shrnutí komunikace webového prohlížeče s ISDS
Díky špatnému MIME typu získanému z ISDS došlo ke spuštění detekce MIME typu
operačním systémem v jeho frameworku CFNetwork.framework. Detekční algoritmus, který
byl v konečném důsledku použit (uvedený ve Výpise 3), ve funkci CFNetwork`isAllText
zkoumal maximálně prvních 512 bajtů souboru. Pokud žádný z těchto bajtů neobsahoval
některý z nepovolených znaků (00-08, 0B, 0E-1A a 1C-1F hexadecimálně (Hemsley, Barth,
Hickson, 2010)), byl MIME typ nastaven na text/plain, soubor byl prohlášen za textový a
byla mu doplněna přípona .txt navíc ke jménu doporučeném HTTP hlavičkou ContentDisposition. Operační systém pro otevření tohoto souboru použil výchozí aplikaci pro
zpracování textu TextEdit.app, která zobrazila soubor jako nečitelný.
V dokumentovaném případě byl ISDS rovněž ohlášen KP MIME typ souboru text/plain
a rovněž došlo k detekci MIME typu souboru. V tomto případě však PDF soubor obsahoval
komprimovaná data a v prvních 512 znacích se objevily znaky, které funkce CFNetwork`isAllText vyhodnotila jako nepřípustné pro text, vrátila hodnotu 0, detekce selhala a MIME
typ byl nastaven záchranným mechanismem na application/octet-stream. V důsledku
toho operační systém ponechal jméno souboru takové, jaké bylo doporučeno hlavičkou
Content-Disposition a soubor byl korektně otevřen v aplikaci pro prohlížení PDF.
Oba popsané případy mají společný jmenovatel, kterým je špatný MIME typ přijmutý z ISDS.
MIME typ text/plain je nevhodný pro soubory PDF a v obou uvedených případech
způsobil nejednoznačnost v identifikaci MIME typu přijímaného PDF souboru. Operační
systém v obou případech spustil vlastní detekci MIME typu, jejíž výsledek byl závislý na
obsahu prvních 512 bajtů PDF souboru. Bylo-li prvních 512 bajtů PDF souboru
reprezentovatelných jako text, byla souboru přidána automaticky přípona .txt a pro uživatele
se dále jevil jako nečitelný. V opačném případě detekce textu selhala, byl použit záchranný
MIME typ application/octet-stream, soubor byl ponechán s doporučeným jménem a
k jeho otevření byla použita výchozí aplikace pro prohlížení PDF souborů.
5
Závěr
Článek pojednával o dvou různých případech stahování přílohy datové zprávy ve formátu
PDF z Informačního systému Datových schránek (ISDS) prohlížečem Safari na operačním
systému OS X. V jednom případě došlo k otevření přílohy v nesprávné aplikaci a jevila se tak
pro uživatele nečitelná, protože byla ke jménu souboru přidána dodatečná přípona .txt,
ve druhém případě byl soubor korektně stažen a zobrazen. Příčina přidání přípony .txt byla
analyzována, nejdříve formou počáteční analýzy, která provedla identifikaci komponent, které
Acta Informatica Pragensia 21
se na komunikaci webový prohlížeč – ISDS podílely. Následně byla navržena metoda
záznamu komunikace mezi komunikačním procesem (KP) webového prohlížeče a ISDS, která
byla aplikována. Ze záznamu komunikace mezi ISDS a KP vyplynulo, že z ISDS do KP
přicházela špatná identifikace souboru v podobě typu internetového média (typu MIME)
v hlavičce Content-Type, která měla hodnotu text/plain, namísto očekávaného typu PDF
souborů, který je application/pdf. Dále bylo zjištěno, že v důsledku špatného MIME typu a
chybějícího parametru charset u tohoto typu došlo k nejednoznačnosti u MIME typu a došlo
ke spuštění detekce MIME typu frameworkem operačního systému CFNetwork.framework.
Tento framework se pokoušel určit, šlo-li skutečně o textový soubor a použil k tomu funkci
CFNetwork`isAllText, která zkoumala maximálně prvních 512 bajtů souboru. Pokud byly
tyto bajty reprezentovatelné jako text, detekovaný MIME typ byl nastaven na text/plain,
k souboru byla přidána přípona .txt a soubor byl otevřen v aplikaci pro úpravu textů
TextEdit.app, která soubor zobrazila jako uživateli nečitelný. Pokud detekce textu
prováděná funkcí CFNetwork`isAllText skončila neúspěchem, tj. byl v prvních 512 bajtech
PDF souboru objeven netextový znak, byl detekovaný MIME typ nastaven záchranným
mechanismem na typ application/octet-stream, soubor byl ponechán se jménem
doporučeným hlavičkou Content-Disposition a k jeho otevření se použilo standardních
mechanismů operačního systému, které ho korektně otevřely v prohlížeči PDF souborů.
Žádný počítačový program by neměl „věřit“ vstupním datům, dokud se jejich důkladným
prověřením „nepřesvědčil“ o jejich nezávadnosti a platnosti. Ostatní vstupní data by měl
prohlásit za neplatná a odmítnout je, viz standardy tvorby bezpečného kódu (Howard,
LeBlanc, 2003) a (Seacord, 2013). Skutečnost, že ISDS odeslal KP špatný MIME typ pro
PDF soubor poukazuje na fakt, že sám umožnil, aby do něj byla vložena datová zpráva se
špatným MIME typem. ISDS tedy důvěřuje některému z vkládajících, že jím uváděné MIME
typy příloh jsou správné. Tímto vkládajícím byl například nejméně jeden ze soudů v Praze a
nejméně v jednom soudním sporu toto chování způsobilo nežádoucí právní důsledky – průtah
a škody.
Poděkování
Zde, na tomto místě, bych chtěl vyjádřit svůj dík soudnímu znalci ing. Viktoru Kotrubenkovi,
za jeho cenné připomínky k obsahu tohoto článku.
Seznam použitých zdrojů
Apple,
Inc.
(2012).
CFNetwork
Programming
Guide.
Retrieved
from
https://developer.apple.com/library/mac/documentation/Networking/Conceptual/CFNetwork/CFNetwork.pdf.
Apple, Inc. (2011). OS X ABI Function Call Guide. Retrieved from https://developer.apple.com/library/mac/documentation/DeveloperTools/Conceptual/LowLevelABI/Mac_OS_X_ABI_F
unction_Calls.pdf.
Apple,
Inc.
(2014a).
Secure
Transport
Reference.
Retrieved
from
https://developer.apple.com/library/mac/documentation/Security/Reference/secureTransportRef/secureTransportRef.pdf.
Apple, Inc. (2014b). The WebKit Open Source Project. Retrieved from http://www.webkit.org.
Barua, A., Shahriar, H., & Zulker, M. (2011). Server Side Detection of Content Sniffing Attacks. In 22nd
International Symposium on Software Reliability Engineering (pp. 20-29). IEEE.
Cortesi, A., & Hils, M. (2013). Mitmproxy: A man-in-the-middle proxy. Retrieved from http://mitmproxy.org/.
Dierks, T., & Allen, C. (1999). The TLS Protocol Version 1.0. Retrieved from http://tools.ietf.org/html/rfc2246.
22
Zahradnický
Faltstrom, P., Crocker, D., & Fair, E. (1994). MIME Content Type for BinHex Encoded Files. Retrieved from
https://tools.ietf.org/html/rfc1741.
Fielding, R., Gettys, J., Mogul, J., Frystyk, H., Masinter, L., Leach, P. (1999). Hypertext Transfer Protocol -HTTP/1.1. Retrieved from https://tools.ietf.org/html/rfc2616.
Freed, N., & Borenstein, N. (1996a). Multipurpose Internet Mail Extensions (MIME) Part One: Format of
Internet Message Bodies. Retrieved from https://tools.ietf.org/html/rfc2045.
Freed, N., & Borenstein, N. (1996b). RFC 2046 - Multipurpose Internet Mail Extensions (MIME) Part Two:
Media Types. Retrieved from https://tools.ietf.org/html/rfc2046.
Freier, A., Karlton, P., & Kocher, P. (2011). The Secure Sockets Layer (SSL) Protocol Version 3.0. Retrieved
from http://tools.ietf.org/html/rfc6101.
Hemsley, G. P., Barth, A., & Hickson, I. (2010). MIME Sniffing Standard, Living Standard. Retrieved from
http://mimesniff.spec.whatwg.org.
Hex-Rays S.A. (2014a). Hex-Rays Decompiler:
rays.com/products/decompiler/index.shtml.
Overview.
Retrieved
from
https://www.hex-
Hex-Rays S.A. (2014b). The Interactive Disassembler. Retrieved from https://www.hex-rays.com/index.shtml.
Howard, M., & LeBlanc, D. (2003). Writing Secure Code. Redmond, WA, USA: Microsoft Press.
LLVM Developer Group. (2014). The LLDB Debugger. Retrieved from http://lldb.llvm.org/index.html.
Melnikov, A., & Reschke, J. (2012). Update to MIME regarding „charset“ Parameter Handling in Textual
Media Types. Retrieved from https://tools.ietf.org/html/rfc6657.
Microsoft Corp. (nedatováno). MIME Type Detection in Windows Internet Explorer. Retrieved from
http://msdn.microsoft.com/en-us/library/ms775147.aspx.
Olson, P., Loeb, L., Shapiro/Maug, N., Hagerman, M., Pester, M., & Bond, W. (1987). The MacBinary II
Standard. Retrieved from http://files.stairways.com/other/macbinaryii-standard-info.txt.
Ornaghi, A., Valleri, M., Escobar, E., & Milam, E. (2013). A comprehensive suite for man in the middle attacks.
Retrieved from http://ettercap.github.io/ettercap/index.html.
Prowell, S., Kraus, R., & Borkin, M. (2010). Seven Deadliest Network Attacks. Burlington, MA, USA: Syngress.
Reschke, J. (2011). Use of the Content-Disposition Header Field in the Hypertext Transfer Protocol (HTTP).
Retrieved from https://tools.ietf.org/html/rfc6266.
Seacord, R. C. (2013). Secure Coding in C and C++. USA: Addison-Wesley Professional.
Taft, E., Pravetz, J., Zilles, S., & Masinter, L. (2004). The application/pdf Media Type. Retrieved from
https://tools.ietf.org/html/rfc3778.
Zalewski, M. (2012). The Tangled Web. San Francisco, CA, USA: No Starch Press.
Acta Informatica Pragensia
3(1), 2014, 23–32, DOI: 10.18267/j.aip.33
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
The Third World War? In The Cyberspace.
Cyber Warfare in the Middle East.
Martina Knopová1, Eva Knopová1
1
Institute of Information Studies and Librarianship, Faculty of Arts,
Charles University in Prague
U Kříže 8, 158 00 Praha 5, Czech Republic
[email protected]
Abstract: This article aims to provide a brief and comprehensive introduction to
the issue of cyber warfare and to display the recent development in this area.
Geographically, it focuses on the Middle East region, since the vast majority of the
most important recent cyber attacks appeared just in there or were connected to it.
The first part of the article tries to define the key notion of cyber warfare, compares
it to the standard warfare and presents different types of cyber weapons that are
known today. The second part points out examples of the most striking recent
cyber attacks and uses them as evidences to demonstrate today's importance and
dissemination of cyber warfare. Finally, the article sums up pros and cons of the
cyber weapons and, in view of these, predicts a significant increase in their use in
any future war conflicts.
Keywords: Cyber Warfare, Cyber Security, Middle East, Malware, Stuxnet,
Flame, Duqu.
24
M. Knopová, E. Knopová
"I don't know what kind of weapons will be
used in the third world war, assuming there
will be a third world war. But I can tell you
what the fourth world war will be fought
with -- stone clubs."
Albert Einstein
1
Introduction
"The United States is fighting a cyber-war today, and we are losing," Schneier (2010)
proclaimed a former director of National Security Agency (NSA) Mike McConnell in 2010.
As a reaction, some American newspapers (Schneier, 2010) have published articles arguing
that the threat of a cyber-war is just a hype. However, after a sequence of cyber events of last
years, nobody can doubt that the world has entered a new phase of warfare.
Actually, one of the first cyber attacks that was confirmed not to be lead by lonely hackers but
on a state level in a large scale was recognised in April 2007 when Russia attacked web pages
of Estonian official institutions. Since then, every now and then daily newspapers inform
about some new more or less important cyber attacks. For instance, in 2007 China, where
blocking of certain websites is a daily routine, three main search engines (Biggs, 2007) were
completely blocked in July 2009. Shortly after that incident, websites of official SouthKorean and American institutions, banks and media were hit in three waves by a massive
DDoS attack. In 2010, first malware aiming at nuclear facilities, Stuxnet, was recognized in
Iran and since then, several of its successors have been noticed in the Middle East.
More recently, the frequency and gravity of attacks has been significantly rising. In August
2012, Saudi Arabia national oil company suffered a targeted cyber-attack on their facilities. In
October 2012, websites of six US banks including the major ones like JP Morgan and Bank of
America underwent a large-scale DDoS attack. (Engleman, 2012) In January 2013, malicious
software from a USB flash drive put a US power plant out of order for three weeks. (Fingle,
2013)
Finally, at the beginning of February 2013, just several days before President Obama warned
against the US enemies that are trying to "sabotage our power grid, our financial institutions,
and our air traffic control systems" (The New York Times, 2013) over thirty Western
journalists including those from leading US newspapers like The New York Times or The
Wall Street Journal have suffered a cyber-espionage according to them from China, (Muskal,
2013) which Chinese officials denied.
Today, almost four years after Mike McConnell's proclamation, a threat of a cyber-war does
not seem as such hype anymore. Therefore, if there is another worldwide conflict in the era of
the current Western civilization, it will be argued that a great part of such conflict will take
place in cyberspace and will be lead by cyber weapons.
Firstly, there will be presented a new type of weapons used in a state-level armed conflict, i.e.
cyber weapons. Then, first evidences of such a hypothesis, the members of Stuxnet malware
Acta Informatica Pragensia 25
family that have been recognised and already used for a cyber-attack on a national level will
be presented. Finally, the perspective role and effectiveness of using different types of cyber
weapons and their known representatives against today's threats will be discussed.
Concerning literature review and research methods, the article is of introductory character and
as such aspires mostly to present the issue of cyber warfare and to underline its importance
today. Therefore, the research methodology is rather descriptive in its first part and
argumentative in its second part first in order to introduce the issue, and then to provide
evidences for proclaimed thesis, which is a strikingly uprising relevance of cyber warfare.
Regarding the high, up-to-date nature of the topic, the chosen literature is constituted mostly
by electronic articles retrieved from highly reputed e-databases or by various reports
published by recognised computer experts. However, some cornerstone books of cyber
warfare theories were used, too.
2
2.1
Notion of Cyber War and Its Particularities
Definition of Cyber Warfare
Now, at the very beginning of this article, key terms need to be specified, since their initial
meaning used in the past does not have to correspond to its use today or in the future. First,
even though cyberspace has been recognised by U.S. Deputy Secretary of Defence as a new
domain of warfare, (Lynn, 2010, pp 97-108) a clear definition of cyber warfare is still
missing. Nonetheless, Richard A. Clarke, a former "counter-terrorist tsar" and an expert on a
cyber-security, provided a commonly accepted description of a "cyberwarfare": "actions by a
nation-state to penetrate another nation's computers or networks for the purposes of causing
damage or disruption." (Clarke, 2010, p. 292) Although it has been argued that a notion of
cyber warfare does not have too much in common with a real war, (Schneier, 2010) one must
bear in mind that the term of cyber war still fits into Carl von Clausewitz' definition of war:
"War is thus an act of force to compel our enemy to do our will." (Clausewitz et al., 1984)
Therefore, there is no doubt that a cyberspace is not an equal warfare space to the air, land,
sea and space where a real war can be lead.
Nevertheless, the war strategy used in the cyberspace is incomparable to regular strategies
used in a physical conflict, since cyber attacks do not have to be obvious right away and even
if they are, their authors can be only hardly identifiable. Therefore, it will be really difficult if
not impossible to agree upon rules of a war in a cyberspace, much less upon its regulatory
compliance unlike most countries have agreed on rules of jus in bello. Consequently, the
cyber warfare, missing any legal framework, will follow completely different patterns than
the typical patterns of a regular armed conflict.
2.2
Categorization of Cyber Weapons
Likewise, cyber weapons are considerably distinct from the weapons used in other warfare
spaces. Actually, cyber attacks can be divided into two categories – syntactic attacks that act
26
M. Knopová, E. Knopová
directly, in other words malicious software, and semantic attacks that aim to modify data (for
example on official websites) so that they are wrong but appear to be right at least to a casual
viewer. Thus, semantic attacks focus on a user, whereas syntactic attacks direct onto IT
facilities. Even though the damages caused by semantic attacks can be of considerable extent,
the group of syntactic attacks will be examined in more detail, since syntactic attacks are used
more often and cause more damages.
In fact, there are four categories of syntactic attacks (Janczewski, 2008, p. 27): viruses,
worms, Trojans and a (distributed) denial-of-service attack (known as a DoS or a DDoS
attack). Actually, the last one can be classified also as a semantic attack, since its result is a
not working website. The different types of malware differ one from each other according to
the target, the way of attack and the aim of attack, they can be coincident in some of these
criteria, though. Similarly, the types of particular malware are endowed differently with three
crucial factors of cyber attacks – fear factor (reactions caused by an attack), spectacular factor
(incurred actual damages) and vulnerability factor (the "easiness" to hack a website of a
facility due to the lack of IT security).
Therefore, viruses, a self-injecting and self-reproducing malware that target IT systems and
modify or eliminate already existing files in order to paralyze them, cause data loss and freeze
or eliminate data knots. Since these malwares can change their digital footprint as well as
attach themselves to every file seeming suitable for them, their spectacular and vulnerability
factors are very high.
Unlike viruses, worms do not need another file in order to spread, so they can affect a large
number of computers in a very short time (a role-model case speaks about 259 000 computers
affected in 14 hours (Janczewski, 2008, p. 27). Worms are actually a self-replicating malware
that aims the IT systems in order to decrease functionality and the use of data knots in order to
paralyze them. Moreover, it can be used for IT espionage; therefore it has an extremely high
fear factor as well as vulnerability factor.
Nonetheless, it is usually a Trojan that is used for espionage, since it is a non-injecting
malware that enables unauthorized access to hack IT systems in order to track down the
activities of hacked systems or in order to alienate data from them. A Trojan can be contained
in a trial version of software or in a software updates and be just monitoring user's activity
and gathering data, so users do not have to have any clue about having a Trojan in their device
for a very long time. Additionally, it can be a part of some complex viruses and worms, so its
fear factor as well as its vulnerability factor is very high, while the spectacular factor varies
according to a concrete type of Trojan.
Finally, (distributed) denial-of-service attacks (DoS or DDoS) try to break through the
communication by short control and information messages that are focused on IT
management in order to eliminate partly or wholly the availability of websites, ergo the online
services proposed by them, and thus produce chaos and numerous losses. DoS attacks are
usually carried out by overloading targeted sites and by generating error-diagnosed messages.
However, the demands for websites are not sent directly, the DoS authors make domain name
system (DNS) servers, operating only readable web addresses, which give out a number of
Acta Informatica Pragensia 27
addresses readable only by a machine. Moreover, the DoS attack can be lead also through
unprotected modems or routers of common users which can get disconnected from their
internet connection in the end. Thus, the vulnerability factor as well as the fear factor of DoS
attacks is enormously high, while their spectacular factor depends on the type of website that
has been attacked (considerably high at a bank or PayPal websites). DoS attacks can be spread
also by spam emails in order to overwhelm certain e-mail addresses or directly providers of email boxes.
2.3
Methods of Cyber Attacks
Concerning the means most malwares target IT systems, the most popular today is definitely a
zero-day attack. Hackers use a zero-day attack once they reveal a so-far unknown
vulnerability of a used software or operational system that is not revealed yet to software
authors or when there is not yet any available way of defence. Therefore, software users are in
danger till software providers issue an upgraded version of software, which will resolve the
zero-day issue. Paradoxically, according to the name of the attack, the revelation and
correction of a zero-day vulnerability can take hours but also days or years.
Furthermore, hackers sometimes just make a list of vulnerabilities of different software
sometimes available online, thus everybody else can use it in order to create a malware
targeting a concrete vulnerability at chosen software.
In addition, software producers themselves could integrate the zero-vulnerability while
programming the system or they could reveal a concrete description of zero-day vulnerability
to different groups of interest or to state entities, while the made-to-measure software has
been used elsewhere in a sensitive field like an energy sector.
3
3.1
Evidences for a new worldwide conflict: The Stuxnet family
Appearance of Stuxnet
The best example of malware using the zero-day vulnerability and at the same time, the best
example of a malware used as a weapon by a country and not by individuals, is a worm called
Stuxnet and its successors. In fact, Stuxnet itself was a pioneer among national cyber
weapons, it was also the first part of a complex group of several malwares that complete one
each other in terms of their functions as well as in terms of timing of their use having the
same objective, though.
Stuxnet malware appeared in IT security rumours for the first time in June 2009 but it was not
found outside before June 2010 when it was discovered in Iranian nuclear facilities. However,
the very first traces of Stuxnet in Iran nuclear facilities are dated even till 2005. Interestingly,
the day before the report on Stuxnet was published by the Kaspersky Lab, the laboratory
suffered a DoS attack and a part of its report was destroyed (Fidler, 2011, pp. 56-59)
Finally, Stuxnet turned to be one of the most successful malwares, since it destroyed probably
the whole nuclear programme operated on Siemens hardware, although Siemens company
28
M. Knopová, E. Knopová
denied that any damages had been caused to the users of their equipment. (Langner, pp. 4951). It spreads mostly via USB flash drives and local networks to the Microsoft Windows
operational systems targeting only Siemens controllers, which points out the idea of a
potential cooperation between private software or hardware producers and states, since it is
believed that Stuxnet is a product of the United States and Israel intelligence agencies.
(Falliere, 2011). Actually, Stuxnet was probably the first worm ever that worked without a
necessity of any remote control or internet access thanks to a programmable logic controller
rootkit (PLC). Even though, its date of death (the day when a worm stops spreading) was
supposed to be June 24, 2012, its last attack was noticed in power plants in Iran on December
25, 2012. (Collins, 2012).
Nevertheless, Stuxnet did not spread through massive sources but it attacked with a very
narrow focus. Hence, in order to know where to hit, Stuxnet authors probably needed another
malware that would collect the information.
3.2
Stuxnet's Little Brothers: DUQU and Gauss
In September 2011, The CrySyS (Laboratory of Cryptography and System Security) of the
Budapest University of Technology and Economics discovered an unknown Trojan spyware
operating especially in industrial control systems in the Middle East and called it DUQU. The
Symantec agency studied the report more profoundly and found out that this zero-day
vulnerability spyware (not a worm, since it did not auto-replicate) apparently came from
creators of Stuxnet. DUQU's main task was to steal digital certificates, public and private
cryptography and to monitor and select data. Later, DUQU's presence in Iran was
acknowledged by Iranian authorities. BBC News. (2012a)
Moreover, in August 2012, the Kaspersky Lab detected a Trojan spread mainly in the Middle
East area, which tracked down the sensitive data about bank accounts and financial
transactions. Newly recognized Trojan named Gauss was apparently created by a state entity,
since it has not been used for stealing or fraud but only in order to watch transfers on selected
bank accounts. "More than two thirds of the infections have been discovered in Lebanon, the
home base of the political and military Hezbollah organization," (Schwartz, 2012) proclaimed
Jarno Limnell, Stonesoft director of cyber security.
In September 2012, several computer security companies informed about a new cyber
espionage malware called Shamoon that acted in a very similar way like Gauss did but in the
oil and energy sector. A self-injecting and a self-erasing virus attacked approximately 30,000
workstations of Saudi Aramco, which spent a week by renewing their services. (Symantec,
2012) However, even South Korean banks were hit by Shamoon attack recently, showing the
danger of a boomerang effect of cyber weapons.
3.3
The Missing Piece of Puzzle Discovered: Meet Flame
Nonetheless, the biggest piece of puzzle came in May 2012. The Kaspersky Lab brought a
report about the existence of the most powerful malware so far, calling it Flame. It is pretty
Acta Informatica Pragensia 29
difficult to answer what kind of malware Flame is because it is a kind of everything: "It is a
backdoor, a Trojan, and it has worm-like features, allowing it to replicate in a local network
and on removable media if it is commanded so by its master." (Zetter, 2012) Similarly to its
ancestor, Stuxnet, Flame focuses on the surveillance of infected IT systems using the zero-day
vulnerability.
Fig. 1. Kaspersky Lab report on the number of Flame recorder attacks. Source: (Kaspersky Lab, 2012).
Indeed, Flame can do almost everything. Besides the customary recording of data and
monitoring the process running in a computer, it can also take screenshots of running
applications, record of audio data through an internal microphone or get connected through a
Bluetooth device of host computer to another devices and monitor their activities, too.
Flame is not only an extremely big malware of 20 megabytes but also an exceptionally
complicated programme. It is written partly in a form of C++ language, Lua scripting, whose
"development cost is over 3000 lines of code, which for an average developer should take
about a month to create and debug,"(CRySyS Lab, 2012) says the CrySyS Lab report. What
is even more interesting is that Flame, circulating probably from March 2010, the time when
Stuxnet was discovered, is believed to be rather a back-up plan: "Hence, we believe Flame to
be a parallel project, created as a fallback in case some other project is discovered."
(CRySyS Lab, 2012) Since Flame and so-called Tided platform i.e. Stuxnet/Duqu work on
different platforms, although on the same principle using the same methods, it seems like
creators of Stuxnet launched Flame, once Stuxnet was publically revealed.
30
M. Knopová, E. Knopová
Yet, Flame as a widely spread tool which appeared even in French presidential office, BBC
News. (2012b) probably needed also some smaller, more specialized complement. In July
2012, Kaspersky Lab discovered a Mini Flame, a highly specialized malware recognized only
in several dozens of infections (maximum 50 – 60 worldwide). (Securelist, 2012) "Since it
[miniFlame] is known to have worked both as part of Flame and as part of Gauss and since it
shares its C&C servers with Flame, we believe that in most cases SPE was installed from
C&C servers onto systems that were already infected with Flame or Gauss," (Securelist,
2012) thus, miniFlame is considered to be one of the last parts of the cyber puzzle destined to
Iran and the Middle East area in general. Finally, the very recent discover of another malware
in Iranian IT devices called Wiper can testify that some pieces may still be missing.
4
Conclusion
In the warfare of the 21st century, cyber weapons will be definitely used more and more in
terms of frequency as well as amplitude. They are relatively cheap, especially for countries
with a developed IT sector, their authors could be hardly proven to be guilty, since direct
evidences of hacking one's system are practically unable to be tracked down, and their use is
not limited by any international legal framework for now. Therefore, if it is possible to use a
hard power without being seriously accused on the base of direct evidences, which is exactly
the power cyber weapons have, therefore countries will not hesitate and use it.
Moreover, the rising number and weight of recently revealed cyber attacks represented mostly
by the family of Stuxnet and Flame malwares, whose origin is probably common and not
private but national pointing out especially the USA - Israel direction, is a strong evidence for
sharply evolving cyber warfare, especially in the world where evident hard power, whose
author is known, is not convenient to use because of international relations. Besides, the
revealed attacks make one think that there is a few of ongoing malware attacks that have not
been discovered yet.
Nonetheless, cyber weapons have their limits, too. For instance, they can have a boomerang
effect that is highly dangerous like in the example of South Korea when authors of malware
or its allies did not have appropriate protection against the pieces of their own work. In
addition, the use of internet and digitalization of (nuclear) energy sector is rather limited like
in the case of North Korea.
In any case, the danger of cyber attacks from different actors will rise and due to the lack of a
clear international mechanism for cyber security, (as vast majority of current international
security mechanisms do not cover the area of cyber security), each country shall create and
further develop its own protective system, a sort of its own "cyber army". For instance, the
United States of America has created already in 2009 a system called Cyber Command,
however, the Czech Republic does not lag behind and this May, it has created the National
Centre for Cyber Security called CERT in Brno. CERT should monitor all possible risks to
cyber security, ensure cooperation between different agencies and institutions dealing with
cyber security on national as well as on international level and develop new standards and
Acta Informatica Pragensia 31
tools of cyber security system. Thus, a system of national cyber security for the Czech
Republic has been already launched; nevertheless, it should get more attention from public as
well as from the government especially in terms of finances.
To conclude, today's world has been currently undergoing a new paradigm shift where cyber
weapons and cyber warfare are taking over the place of regular weapons and warfare that
dominated so far. It is obvious that a real world-wide cyber conflict between two countries
with equally high developed IT sector has not burst out yet. However, when it does, it will be
probably the last sophisticated conflict before these countries take up their stone clubs again.
References
BBC News. (2012a, June 8). Flame malware makers send 'suicide' code. Retrieved from
http://www.bbc.com/news/technology-18365844.
BBC News. (2012b, May 31). Flame: Israel rejects link to malware cyber-attack. Retrieved from
http://www.bbc.com/news/technology-18277555.
Biggs, J. (2007, October 18). Cyberwar: China Declares War On Western Search Sites. Retrieved from
http://techcrunch.com/2007/10/18/cyberwar-china-declares-war-on-western-search-sites/.
Carr, J. (2011). Inside Cyber Warfare: Mapping the Cyber Underworld. Sebastopol, CA: O'Reilly Media.
Clarke, R. A., Knak, R. K. (2010). Cyber War: The Next Threat to National Security and What to Do about It.
New York: HarperCollins.
Collins, S., McCombie, S. (2012). Stuxnet: the emergence of a new cyber weapon and its implications. Journal
of Policing, Intelligence and Counter Terrorism, 7(1), 80-91.
CRySyS Lab. (2012, 28 May). sKyWIper: A Complex Malware for Targeted Attacks. Budapest University of
Technology and Economics. Retrieved from http://www.crysys.hu/skywiper/skywiper.pdf.
Engleman, E. (2012, December 20). Major Banks Under Renewed Cyber Attack Targeting Websites. Retrieved
from
http://www.bloomberg.com/news/2012-12-20/major-banks-under-renewed-cyber-attack-targetingwebsites.html.
Erdbrink, T. (2012, April 23). Facing Cyberattack, Iranian Officials Disconnect Some Oil Terminals From
Internet. The New York Times. Retrieved from
http://www.nytimes.com/2012/04/24/world/middleeast/iranian-oil-sites-go-offline-amidcyberattack.html?_r=0.
Esposito, M. K. (2012). Quarterly Update on Conflict and Diplomacy. Journal of Palestine Studies, 42(1).
Retrieved from http://www.palestine-studies.org/files/pdf/jps/9765.pdf.
Farewell J. P., Rohozinski R. (2011). Stuxnet and the Future of Cyber War. Survival: Global Politics and
Strategy, 53(1), 23–40.
Fidler, D. P. (2011). Was Stuxnet an Act of War? Decoding a Cyberattack. IEEE Security & Privacy, 9(4), 5659.
Finkle J. (2013, January 16). UPDATE 1-Malicious virus shuttered U.S. power plant -DHS. Reuters. Retrieved
from http://www.reuters.com/article/2013/01/16/cybersecurity-powerplants-idUSL1E9CGFPY20130116.
Howard, M., Paret, P. (1984). On War. New Jersey: Princeton University Press.
Janczewski, L., Colarik, A. M. (2008). Cyber Warfare and Cyber Terrorism. Hershey: Information Science
Reference.
John, A. J., Ronfeldt, D. (1993). Cyberwar is Coming! Comparative Strategy, 12(2), 141–165.
Kaminski, R. (2012). Clash of Interpretations: Cyberattacks as “Weapons of Mass Destruction” In The 2012
Annual
Meeting
of
the
American
Political
Science
Association.
Retrieved
from
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2107008.
32
M. Knopová, E. Knopová
Kaspersky Lab. (2012, June 11). Resource 207: Kaspersky Lab Research Proves that Stuxnet and Flame
Developers are Connected. Retrieved from
http://www.kaspersky.com/about/news/virus/2012/Resource_207_Kaspersky_Lab_Research_Proves_that_
Stuxnet_and_Flame_Developers_are_Connected.
Kindlund, D. (2012, May 30). Flamer/sKyWIper Malware: Analysis. FireEye. Retrieved
http://www.fireeye.com/blog/technical/targeted-attack/2012/05/flamerskywiper-analysis.html.
from
Langner, R. (2011). Stuxnet: Dissecting a Cyberwarfare Weapon. IEEE Security & Privacy, 9(3), 49-51.
Lee, D. (2012, May 29). Flame: Massive Cyber-Attack Discovered, Researchers Say. BBC News. Retrieved from
http://www.bbc.com/news/technology-18238326.
Lynn, W. J. (2010). Defending a New Domain: The Pentagon's Cyberstrategy. Foreign Affairs. 97–108.
Matrosov, A., Rodionov, E., Harley, D., Malcho, J. (2010). Stuxnet Under the Microscope. Retrieved from
http://www.eset.com/us/resources/white-papers/Stuxnet_Under_the_Microscope.pdf.
Muskal, M., Guynn, J. (2013, February 1). Hackers target Western news organizations in China. Los Angeles
Times. Retrieved from http://articles.latimes.com/2013/feb/01/business/la-fi-china-hacking-20130201.
Nakashima, E. (2012, June 20). Israel developed Flame computer virus to slow Iranian nuclear efforts, officials
say. The Washington Post. Retrieved from http://www.washingtonpost.com/world/national-security/usisrael-developed-computer-virus-to-slow-iranian-nuclear-efforts-officialssay/2012/06/19/gJQA6xBPoV_story.html.
Nicolas F., Liam O. M., Eric, Ch. (2011) W32. Stuxnet Dossier. Symantec Report. Retrieved from
http://www.wired.com/images_blogs/threatlevel/2011/02/Symantec-Stuxnet-Update-Feb-2011.pdf.
SciencePages. (2013, March). Cyber Security. Retrieved from
http://sciencepages.ca/wp-content/uploads/cybersecurity.pdf.
Schneier B. (2010, July 10). Threat of 'cyberwar' has been hugely hyped.
http://edition.cnn.com/2010/OPINION/07/07/schneier.cyberwar.hyped/index.html.
Retrieved
from
Schwartz, M. J. (2012, August 9). Flame 2.0: Gauss Malware Targets Banking Credentials. Retrieved from
http://www.darkreading.com/attacks-and-breaches/flame-20-gauss-malware-targets-bankingcredentials/d/d-id/1105727?.
Securelist.com. (2012, October 15). MiniFlame aka SPE: "Elvis and his friends". Retrieved from
http://www.bbc.com/news/world-europe-20429704.
Silverstein, R. (2012, May 29). Flame: Israel’s New Contribution to Middle East Cyberwar. Retrieved from
http://www.richardsilverstein.com/2012/05/28/flame-israels-new-contribution-to-middle-east-cyberwar/.
Symantec. (2012, August). The Shamoon Attacks. Retrieved from
http://www.symantec.com/connect/blogs/shamoon-attacks.
Symantec Official Blog (2012, May 30). Flamer: Highly Sophisticated and Discreet Threat Targets the Middle
East. (Web log post). Retrieved from http://www.symantec.com/connect/blogs/flamer-highlysophisticated-and-discreet-threat-targets-middle-east.
The New York Times. (2013, 12 February). President Obama' State of Union speech. Retrieved from
http://www.nytimes.com/2013/02/13/us/politics/obamas-2013-state-of-the-unionaddress.html?pagewanted=all.
Zetter, K. (2012, May 29). Meet 'Flame,' The Massive Spy Malware Infiltrating Iranian Computers. Wired.
Retrieved from http://mashable.com/2012/06/04/flame-malware/.
Acta Informatica Pragensia
3(1), 2014, 33–43, DOI: 10.18267/j.aip.34
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Business Case v podmínkách obchodního řízení
a IT Governance
Business Case in terms of Business Management and IT Governance
Jan Juříček1
1
Katedra systémové analýzy, Fakulta informatiky a statistiky,
Vysoká škola ekonomická v Praze
nám. W. Churchilla 4, 130 67 Praha 3
[email protected]
Abstrakt: Cílem tohoto článku je definovat problém nedostatečné kvality zavedení
Business Case (BC) v modelové organizaci. Druhotným cílem je definice BC ve
vztahu k IT Governance. Na základě definic z předložených metodik (COBIT,
ValueIT, RiskIT, PMBOK, PRINCE2, aj.) aplikovaných na téma řízení investic
a řízení financí v oblasti IT, jsou vybrány vhodné procesy a kontrolní body, které
navedou k řešení předmětné oblasti a navrhnou se procedury řádného auditu této
skutečnosti.
Klíčová slova: Business Case, IT Governance, COBIT, ValueIT, řízení investic IT,
řízení rizik IT
Abstract: The aim of this paper covers a definition of the issue of inadequate
quality of Business Case (BC) implementaiton in a model organization.
A secondary objective is the definition of BC in relation to IT Governance.
Presented methodologies (such as COBIT, ValueIT, RiskIT, PMBOK, PRINCE2)
are applied on investment management and financial management in the IT field.
Appropriate processes and checkpoints of those methodologies are chosen to
suggest the proper procedures of an audit within a model organization.
Keywords: Business Case, IT Governance, COBIT, ValueIT, IT Investment
Management, Risk Management IT
34
Juříček
1
Úvod
Cílem tohoto článku je definovat problém nedostatečné kvality zavedení Business case (dále
jen BC – dále se také užívá český překlad investiční rozvaha) v modelové organizaci.
Druhotným cílem je definice BC ve vztahu k IT Governance.
V kontextu investiční rozvahy se jedná o systematické popsání cesty, která vede ze
současného stavu věci ve stav požadovaný. Tato systematičnost definuje sepsání konkrétních
cílů a postupů (včetně nutných rozhodnutí), a snaží se odhadnout dopady, rozpočty i
návaznosti. Velmi důležité se jeví nezapomenout na akcionáře – nositele a zodpovědné
pracovníky – „stakeholdery“ změn, které tato cesta přináší.
Na základě definic z předložených metodik (COBIT, ValueIT, RiskIT, PMBOK, PRINCE2
atd.) aplikovaných na téma řízení investic a řízení financí v oblasti IT, jsou vybrány vhodné
procesy a kontrolní body, které navedou k řešení předmětné oblasti a navrhnou se procedury
řádného auditu této skutečnosti.
Organizací, na které bude problém definován i řešen, je modelová malá až střední konzultační
firma o velikosti 10-20 zaměstnanců a jednotek externistů. Tato modelová firma generuje zisk
skrze externí IT projekty u svých zákazníků. Pro řízení externích projektů využívá metodiku
PRINCE2 (TSO, 2009); pro řízení interních procesů IT využívá organizace poznatky z
metodiky Cobit 4 (ITG, 2003; ITG, 2010).
2
Definice Business Case
Co je vlastně BC? Volně přeloženo “obchodní případ” nebo „investiční rozvaha“ má více
dimenzí, než jen vyplývá z finančního výkladu těchto přeložených sousloví. BC plně
zachycuje odůvodnění pro zahájení nějaké činnosti, projektu nebo úkolu v dané organizaci.
Tato odůvodnění jsou interpretována ve strukturované písemné podobě ve formě dokumentu,
tabulky nebo prezentace.
Val IT („value IT“ – v překladu hodnota IT) je dokument rozšiřující metodiku COBIT o
podporu řízení investic v oblasti IT. Val IT definuje BC jako odpověď při podpoře
rozhodovacího procesu pro realizaci nových investicí v oblasti informačních technologií
(ITG, 2008).
Jak již bylo naznačeno, Val IT je dokument úzce spjatý s metodikou COBIT. Jedná se o sadu
všeobecně přijímaných procesů, návodů pro hodnocení, ukazatelů a nejlepších praktických
zkušeností, která má za cíl pomoci organizaci maximalizovat užitek, plynoucí z informačních
technologií (Svatá, 2011).
Princip metodik COBIT je založený na 3 aspektech řízení IT: IT procesy (domény, procesy a
jednotlivé aktivity), Informační kritéria (kvalita) a IT Zdroje. V procesech jsou poskytovány
manažerské návody popisů vazeb mezi procesy formou vstupů a výstupů, cílů a kritérií
zralosti (RACI matice) a kontrolních cílů.
Val IT doplňuje metodiku COBIT z obchodního a finančního hlediska (ITG, 2008; Svatá,
2011). Val IT metodicky rozpracovává tři hlavní termíny (projekt, portfolio, program) a 3
hlavní domény: Value Governance, Portfolio Management a Investment Management. Tyto
domény jsou tvořeny dalšími procesy. Každý proces v rámci domény definuje klíčové
praktiky řízení. Procesy obsahují stručný popis hlavních aspektů daného procesu; definuje
manažerské návody v podobě cílů, vstupů a výstupů, odpovědností a metrik. V kontextu
dokumentu Val IT je nutno specifikovat, že BC klade důraz na dosažení hodnoty projektu
(hodnota plynoucí z investice) a nikoliv na dodržení postupu projektu.
Acta Informatica Pragensia 35
Jaké činnosti, projekty nebo úkoly v kontextu s řízením investic a tedy aplikací BC budeme
nadále předpokládat? V oblasti vyměřené small-medium-business (SMB), neboli v modelové
malé střední konzultační firmě, se jedná o dvě logické skupiny:
-
-
2.1
Ve vztahu k IT Governance – investice (interní projekty) do ryze interních IT nástrojů
a IT řešení a nadimenzování investic jdoucích do provozu těchto řešení. Jedná se
typicky o dokumentační systémy, vnitrofiremní komunikační prostředky a portály
(například MS Sharepoint), vnitrofiremní CRM a základní datové sklady, účetní
software, systém pro sledování IT majetku a IT vybavení.
Zákaznické externí projekty – generování zisku malé a střední konzultační společnosti.
Komponenty Business Case
BC je jedna z nejdůležitějších komponent rozhodování o veškerých činnostech organizace. Z
praktického hlediska jde o dva artefakty:
1. kalkulaci, která je sestavena a hodnocena ke každému obchodnímu případu
2. slovní popis – odůvodnění řešení určitým způsobem (viz dále – slovní popis dle Val
IT (ITG, 2008; Kloppenborg, Manolis, Tesch, 2009; Kraft, 2009))
a. slovní popis definice problému, rizika nebo příležitosti
b. soupis požadavků na řešení
c. způsob postavení se k problému - řešení určité příležitosti
d. soupis dodávek řešení - předmětů dodávek
e. soupis předpokladů úspěchu
f. očekávaný harmonogram
g. předpokládaná akceptační kritéria
h. soupis zdrojů
i. vstupní rizika
V kontextu prvního bodu musí tato kalkulační tabulka udávat veškeré vstupy – finanční
náklady na vykonání určité činnosti nebo projektu. Tyto náklady na veškeré zdroje (lidské,
finanční, materiálové, nehmotné) musejí být rozloženy v čase, tzn. mají být uvedeny
informace. Kdy budou náklady čerpány (základní plánování cashflow) a náležitě
diskontovány (pokud bude projekt nebo činnost probíhat více než jeden rok). Dále musí
obsahovat všechny předpokládané finanční výstupy – tzn. příjmy plynoucí z této investice
nebo z vykonaného díla (projektu) ve formě fakturace na zákazníka.
Praxe naznačuje, že realizovaný projekt přináší vedlejší přidanou hodnotu, která bude po dobu
konání a realizování určité BC vytvořena. Nejdůležitější je umění takovou hodnotu nacenit.
Typicky se může jednat o zvýšenou uživatelskou gramotnost zaměstnanců – zvýšení
produktivity atd.
Poslední věcí, která se musí v BC objevit, je nacenění rizika. Riziko nám dokáže zredukovat
příjmy či navýšit náklady. Nacenění rizika probíhá zpravidla finančním odhadem dopadu
problému, který z neřízeného rizika vznikne a odhadem pravděpodobnosti výskytu tohoto
rizika (že nastane).
Oblast řízení rizik je významnou oblastí IT Governance (Svatá, 2011). Komplexní rámec pro
řízení rizik, jenž integruje různé úrovně řízení a zároveň je aplikovatelný v přijatelném detailu
právě pro oblast řízení IT rizik, je dokument Risk IT. Skládá se z rámce pro řízení IT rizik a z
návodu pro řízení (ISACA, 2009).
36
Juříček
Dokument je členěn do domén a procesů. Pro naše další zkoumání bude nejvýznamnější
především doména Hodnocení rizika („Risk Evaluation“), které se skládá z analýzy rizika,
shromažďování dat a udržení profilu rizik (Svatá, 2011; ISACA, 2009).
2.2
Business Case dle ValIT
Jak již vyplývá z výše uvedeného, BC není statickým dokumentem. Val IT definuje BC jako
funkční nástroj, který musí být neustále aktualizován, aby odrážel současnou realitu (současný
stav) tak, aby poskytoval základ pro informované rozhodování a to nejen pro počáteční
nasazení zdrojů, ale i za správu investic v celé ekonomické životnosti obchodního případu
(ITG, 2008). BC má relevantně, přesně a aktuálně odpovídat na otázky:
1.
2.
3.
3
Děláme správné věci?
a. Co je navrženo?
b. Pro jaký obchodní výsledek?
Děláme věci správně?
a. Jak to udělat?
b. Co se má udělat v souladu s našimi možnostmi?
c. Jaký je plán?
d. Jaké jsou potřeba zdroje?
Získáváme benefity?
a. Jak je dostaneme? Jakou cestou?
b. Jaká je jejich hodnota?
Definice problému ne-existence Business Case
V modelové organizaci dochází na pravidelné produktové i projektové bázi k sestavení BC
pro interní (investice do IT) i externí činnosti (projekty – zakázky). Na každý obchodní případ
nebo vyvinutí určitého produktu či řešení musí existovat BC. BC je schvalován na úrovni
obchodního manažera – partnera a divizního manažera, který má na starosti chod svého
oddělení. Při kalkulacích je nutno dbát o co nejvěrnější odhady nákladů, výstupů i rizik.
Opakující se problémy v organizaci jsou následující:
1.
2.
3.
4.
5.
6.
v rámci nákladů nedochází ke správnému nacenění zdrojů – neúspěšné odhadování
nákladů
neexistují pevně definovaní vlastníci BC pro nové produkty a nové projekty mimo
pevnou organizační strukturu – neexistuje ani přesně definovaný proces. Stává se
běžnou praxí, že projekty nemají vlastníka.
neexistují BC na IT/ICT vybavení chodu společnosti – organizace je nedokáží
nacenit a též docenit (odhadnout přínosy), nebo dát do souvislosti se strategií
společnosti
není možné věrně nacenit riziko nebo více sofistikovaně odhadnout jeho
pravděpodobnost. Rizika jsou pravidelně zcela vypouštěna a ignorována.
panuje obava o nedostatečném zabezpečení informací pramenící z uložených BC, tj.
zneužití informací atd.
ve výstupech se nezohledňují získané měkké dovednosti lidí, know-how, apod. a
poté se již s touto hodnotou dále nepracuje a podobné projekty (investice) stojí v
budoucnu stejně nebo více úsilí (což není logické – „něco“ se člověk naučí a pak to
používá)
Acta Informatica Pragensia 37
3.1
Odhadování nákladů IS/IT jakožto vstupů do Business Case
V oblasti odhadování IS/IT projektů bylo v uplynulých letech vyvinuto značné množství
různorodých metod. Použití metody odhadování IS/IT projektů by mělo být zohledňováno na
fázi projektu, ve které se odhadovatel nachází, a různorodé spektrum externích vlivů, jejichž
složení a intenzita působení je velmi rozdílná a individuální (Kloppenborg, Manolis, Tesch,
2009; Kraft, 2009; Král, 2012).
Metody odhadu pracnosti a tím spojených nákladů jsou:
1.
2.
3.
4.
5.
CPM – Metoda kritické cesty, jež je řazena mezi deterministické metody síťové
analýzy. Základními cíli metody je stanovení nákladů projektu a doby trvání prací na
základě délky takzvané kritické cesty. Metoda je vhodná pro projekty, kde lze s
vysokou přesností odhadnout doby trvání jednotlivých činností. Doby trvání činností
bývají stanoveny na základě empirických zkušeností (Král, 2012).
Metoda PERT, jež zobecňuje metodu CPM, jejíž nevýhodou je nutnost minimální
nejistoty při odhadu doby trvání činnosti. Tato nejistota je odstraněna využitím
statistiky.
Metoda kritického řetězu, jež eliminuje vliv negativních faktorů: multitasking,
dostupnost zdrojů, Parkinsonův projektový zákon, studentský syndrom, princip
štafetového běžce a časové nárazníky (Král, 2012).
Algoritmus FPA a UCP (standardy dle ISO, přesné výsledky ve fázi detailního
návrhu, Use Case odhady)
Algoritmy COCOMO – odhady odhadované v závislosti na regresní analýze,
primárně aplikovaná na SW projekty
V procesně orientovaných projektových metodikách existují na téma vstupů do BC jen malé a
nesourodé názory na tuto oblast. PRINCE2 (TSO, 2009) definuje dvě základní procesní
skupiny při zahajování projektu: „Starting Up the Project“ a „Initiating of Project“. Přičemž
BC se vyskytuje až ve druhé z těchto částí. První části se věnují projektovému a stručnému
vymezení, které svým způsobem kopíruje druhý bod definice BC uvedeného v první kapitole
tohoto článku (slovní popis). BC je v této metodice definována jako (TSO, 2009):
1.
2.
stanovení odpovědi na otázku PROČ se má určitá práce nebo alokování zdrojů
uskutečnit, a to na základě sestavení předpokládaných přínosů k rizikům a nákladům
zrevidování možnosti vůbec řešit určitý problém nebo úkol. Toto zrevidování je
chápáno nejen po stránce faktické – technické, ale také strategické
Metodika PRINCE2 zdůrazňuje nutnost souladu, propojení BC s projektovým plánem, co do
harmonogramu projektu, tak možnostmi se v každé fázi rozhodnout, jakým směrem
pokračovat dále. Dále zdůrazňuje tu skutečnost, že všechny zamýšlené BC musejí být v
souladu se strategií společnosti v širším rozsahu. Metodika stanoví kompozici BC na tyto
části (TSO, 2009):
-
důvod,
možnosti a doporučení,
předpokládané benefity přínosy nejlépe vyjádřené kvantitativně (měřitelně),
klíčová rizika,
náklady,
předpokládaná časová osa a harmonogram,
hodnocení investic,
38
Juříček
-
hodnocení.
Druhá procesně orientovaná metodika řízení projektů je k otázce definice BC ještě střídmější.
Dle PMI (2008) – Project Management Institute (PMBOK) je BC definován jako vstupní
komponenta (dokument) do fáze iniciace. A dále s tímto parametrem není v rámci této
metodiky nakládáno. BC podle PMI poskytuje nezbytné informace z obchodního úhlu
pohledu k určení realizace projektu a požadovaných investic.
4
Řešení předmětné oblasti
Dokument Val IT uvádí postup tvorby BC, viz níže na Obrázku 1. Základní okruhy informací,
které by měl BC obsahovat jsou:
-
Zhodnocení souladu dané investiční akce s podnikovou strategií (např. Identifikace
strategických cílů podniku, které investiční akce podporuje).
Zhodnocení očekávaných finančních výnosů po celý životní cyklus (např. určení doby
návratnosti vložených investic, shrnutí finančních toků spojených s realizací investiční
akce apod.).
Zhodnocení očekávaných nefinančních výnosů po celý životní cyklus investiční akce
(např. dopady investiční akce na loajalitu odběratelů, dopady akce na tržní vnímání
podniku apod.).
Zhodnocení rizik investiční akce (např. omezené schopnosti zvládnout možnosti
moderních technologií ze strany uživatelů apod.).
Analýza vazeb propojení IT investic s cílovým stavem podnikové architektury (u
interních IT projektů) a propojení IT investic s obchodní strategií.
Obr. 1. Postup tvorby BC dle ValIT. Zdroj: (ITG, 2008)
Prvotně je důležité uvědomit si, proč BC mají vznikat. Je to právě z důvodu vyjádření
měřitelné hodnoty skrz IT/ICT prostředky při naplňování strategie společnosti: dodáváním
řešení a služeb v definované kvalitě, za danou cenu a ve smluveném čase (a), zlepšování
reputace u našich zákazníků (b), snižování nákladů a stále zdokonalení vlastních produktů a
služeb (c) organizace.
V modelové organizaci se nejdříve pracovníci soustředili na komunikaci samotné potřeby
vytvoření BC. Zaměstnanci princip toho, proč vlastně je vytvářena BC nechápali a považovali
proces za zvýšenou administrativu. Principy jsou vysvětleny v definiční sekci tohoto článku.
Největší zjištění v modelové organizaci bylo, že pouze na základě vypracované BC (někdo se
nad tím skutečně zamyslel) bylo pracovníkům i managementu objasněné a zřejmé CO
skutečně po uskutečnění určité činnosti vznikne a KOLIK to bude stát (KDY to vznikne,
KOLIK zdrojů si činnost vezme) a KDO bude finálním uživatelem. Velmi důležití je
akcentování metodiky PRINCE2 (TSO, 2009) v oblasti definování výstupů (“deliverables”),
činnosti a řešení v BC.
Acta Informatica Pragensia 39
Druhým krokem je aplikace COBIT (viz výše). Jak bylo řešeno v definiční části, COBIT
rozlišuje 4 úrovně cílů: podnikatelské, IT cíle, cíle IT procesů a cíle IT aktivit (Svatá, 2011).
Aplikací této logiky je stanovení určitých obchodních cílů, kterých je možno v organizaci
bezprostředně dosáhnout tak, aby korespondovaly s největšími problémy stanovenými v
předchozí kapitole, tj.: kontrolou nákladů a zvýšení produktivity provozu a zaměstnanců.
Jedná se o prolnutí dimenzí interních procesů, finanční dimenze a opakovaného získávání
know-how.
Korespondující procesy v metodice COBIT jsou: P05 Řízení investic, dále pak PO7 - řízení
lidských zdrojů v IT a PO10 - řízení projektů. V tomto okamžiku je vhodné identifikovat
úroveň vyzrálosti těchto procesů v aktuálním stavu. U každého procesu lze nalézt model
zralosti. Ten tradičně rozlišuje 5 úrovní. Každá je popsána tak, aby byla jednoduše
identifikovatelná a současně obsahuje návod pro zvýšení úrovně. Blíže tak popisuje Tabulka
1.
Úrovně zralosti
Popis
0 – neexistující
1 – počáteční
2 – opakovaná
3 – definovaná
4 – řízená a měřitelná
5 – optimalizovaná
Není povědomí o důležitosti
Nekonzistentní realizace
Neformalizované nástroje, netaktické rozhodování
Dokumentováno, dodržování pravidel, do jisté míry individuální
Zodpovědnost jednotlivců, proaktiví rozhodování
Best-practice, kontinuální zlepšování v celém životním cyklu procesu
Tab. 1. Úroveň zralosti procesů COBIT. Zdroj: (Svatá, 2011)
V modelové organizaci byl identifikován tento proces řízení na úrovni 1 ze zralostní matice.
Poté bylo nastaveno pravidelné review a interní audit všech BC, viz. níže.
Je vhodné též aplikovat metody COBIT v rámci aplikace RACI matice: pojmenování
vlastníků BC a sestavení odpovídající RACI matice k procesu sestavení, schválení a řízení
BC. RACI matice je v rámci modelové organizace sestavena následovně (viz Tabulka 2):
ZAVEDENÍ
PROCESU
BC
INTEGRACE
S BUDGET
REPORTEM
NÁKLADOVÉ
POLOŽKY
I
I
I
I
A
PROJECT
MANAGER
R
C
R
C/I
KONZULTANT
C
JEDNATEL
INTEGRACE
S CRM
A
OFFICE
MANAGER
OBCHODNÍK
HEAD OF
UNIT,
VEDOUCÍ
ODDĚLENÍ
R/C
VÝNOSOVÉ
POLOŽKY
RIZIKO
(NACENĚNÍ)
SESTAVENÍ
BC
C
A
I
I
R
C
I
R
C/I
I
C
I
SCHVÁLENÍ BC
(PROCES A
ROZHODNUTÍ)
C
I
C
C/I
R
C
Tab. 2. RACI matice pro proces řízení BC. Zdroj: Autor.
Přičemž jsou v rámci modelové organizace definovány následující vztahy mezi subprocesy a
vlastníky:
40
Juříček




R – zodpovědná osoba / role za provedení činnosti nebo úkolu
A – vlastník (“accountability” – pravomoc, pravomoc v naší společnosti rozhodnout
o realizaci činnosti anebo přijímat finanční následky činnosti (ztrátu / zisk))
C – s kým se konzultuje
I – koho je potřeba informovat
V tuto chvíli se již pracuje s pojmy “vlastník” a “odpovědnost”. Dle COBIT je vhodné
nastavit proces následně:
1. odpovědné osoby dle výše uvedené tabulky jsou projektový manažeři, vedoucí
konzultanti a obchodníci
2. vlastníci BC jsou partneři a jednatel společnosti (vzhledem k velikosti modelové
organizace)
Jakékoliv další aktivity byly v modelové organizaci seškrtány. Vytvoření takovéto přehledné
matice má totiž dvě podstatné výhody. První z nich je fakt, že došlo k explicitní definici
někdy spíše tušených než jasně vyřčených odpovědností a kompetencí. Další výhodou je
možnost matici analyzovat a poměrně snadno identifikovat problémy s rozdělením
odpovědností pouhou vizuální kontrolou.
V rámci kontroly lze postupovat následovně: pokud se v jednotlivých řádcích nahromadí
příliš mnoho rolí s „R“, v daném kroku je zapojeno zbytečně mnoho lidí; bylo-li v něm více
než jedno „A“, skutečně dochází ke zmatení kompetencí a tím k obecnému zmatku. Pokud
někde úplně chybí “R” (jak „R“ tak „A“), nemá tak vlastně daný krok kdo udělat a nikdo
tento krok (sub-proces) nevlastní. U velkého množství „C“ a „I“ v daném řádku je dobré se
zamyslet, zda skutečně všichni tito lidé potřebují znát všechny detaily.
V horizontální rovině je pak zejména možné optimalizovat vytížení jednotlivých rolí. Pokud
některá z rolí nakumuluje velký počet „A“, nebo nemá žádné prázdné buňky, je
pravděpodobně přetížena. Velké množství „A“ pak také ukazuje na možné nevhodné
rozdělení odpovědnosti za jednotlivé kroky. Pokud naopak u dané role žádná „A“ ani „R“
nejsou, stojí za úvahu její možné vyřazení z procesu BC. Vzhledem k velikosti modelové
firmy však již toto nenastalo.
K rizikům je vhodné řídit se dle norem COBIT, respektive RiskIT, přičemž v BC naceňujeme
jak rizika samotná, tak hrozby. Dle normy ISO 27005 a RiskIT jsou dimenze řízení rizik
následující: Risk Governance respektive určení kontextu stanovení kritérií, Risk Evaluation shromáždění dat, analýza rizik a jejich ohodnocení a Risk Response tzn. zvládnutí rizika a
určení kroků opatření ke snížení rizik (ITG, 2010). Tato metoda definuje různé strategie, jak
se rizikům postavit: akceptovat, snížit, ukončit - „terminovat“, převést na třetí stranu a zvolit
plán „co nastane, když“ (tzn. „contingency plan“).
Metodika PRINCE2 nad rámec uvedeného udává pomyslnou čtvrtou etapu, kterou je risk
monitoring (TSO, 2009). COBIT (ITG, 2008; ITG, 2009) toto přímo neetapizuje, ale definuje
jak v doméně Risk Governance (zavedení a udržování, řízení rizik jako součást rozhodování),
tak v doméně Hodnocení rizika (udržování profilu rizik).
V rámci zjednodušení tohoto modelu se při sestavování a řízení BC ovšem dostáváme
záměrně jen do prvních dvou fází – sběru dat (identifikování a popisu rizika) a jeho hodnocení
(tzn. peněžní vyjádření závažnosti rizika). Hodnocení rizik, přičemž zodpovědný pracovník za
obhájení záchranného finančního polštáře v rozpočtu projektu je projektový vedoucí, je
postavena na dvou škálách: pravděpodobnost a dopad.
Dopad vždy vyjadřujeme jako celkový finanční dopad určitého problému (tj. stavu kdy riziko
nastane). Pravděpodobnost určujeme pouze na stupnici o 4 hodnotách v procentech: 20 – 40 –
Acta Informatica Pragensia 41
60 – 80 procent (nízká, středně malá, středně vysoká, vysoká pravděpodobnost). Závažnost je
pak součinem mezi dopadem a pravděpodobností.
Nejedná se tak o definovanou kvantitativní metodu, jejímž vyjádřením je korelace mezi
hodnotou hrozby a hodnotou ochrany (Svatá, 2011), nýbrž o zjednodušenou kvalitativní
metodu stanovení stupňů závažnosti.
Na základě dokumentu Risk IT lze usuzovat, že rizika s nízkou pravděpodobností a nízkým
dopadem (finančním) ignorujeme (nebo jsou považovány za příležitost), a analogicky, naopak
BC, kde se vyskytuje vysoká pravděpodobnost rizika s vyšším finančním dopadem, zásadně
nepřijímáme a do takových akcí - investicí se nepouštíme.
5
Definování prvků a procedury auditu Business Case
Audit BC slouží jako nestranný interní průzkum a ověření si dodržování předem
definovaných procesů a náležitostí, které musí BC při své tvorbě sestavení i schvalování
obsahovat. V rámci modelu se jedná o interní audit. Interní audit je v organizaci vykonáván
jedním z partnerů, který má na starosti finanční řízení společnosti.
Metodické pokyny pro audit lze nalézt v dokumentu IT Assurance Guide: Using COBIT
(ITG, 2007), který je založen na etapách a činnostech stejně tak, jako je tomu u běžného
projektu. Tento dokument odpovídá na otázky, jaké kroky se mají realizovat a jaké druhy
testů nebo kontrol je třeba provést ve vazbě právě na jednotlivé procesy COBIT. V rámci
definování procesu a prvků auditu BC je vhodné postupovat podle pokynů IT Assurance
Guide: předmět – plán – realizace – závěr – sledování. Předmětem jsou procesy schvalování
BC, vytvoření BC, schválení BC a monitoring a zpětné vyhodnocení BC.
Cílem je tedy zkontrolovat, zdali nebyl narušen proces sestavení a schválení a tím
přezkoumat, že se v dané organizaci děje něco, co nemá schválený a kontrolovaný základ.
Dalším vymezeným cílem je přezkoumání alokace a utilizace pracovníků tak, aby se dalo
poměrně jednoduše zpětně auditovat, zdali se pracovalo na určitém úkolu vymezeném v BC
podle plánu – tedy dle stanovených mantinelů nákladu na IT zdroje definované v BC; a pokud
ne, tak se z toho poučit.
Na základě IT Assurance Guide: Using COBIT lze stanovit následující prvky a rozsah auditu:
1. BC musí být dohledatelná. BC bude existovat pro každý obchodní případ (v případě
externího pojetí), nebo projekt, případně pro nákup a provozování techniky nebo
podpůrného systému (interní investice)
2. BC se bude nacházet v jedné z následujících složek na sdíleném projektovém disku /
DMS / Microsoft Sharepoint
3. BC bude ve „workflow“ schválena jako „platná“ vedoucím určité obchodní unity,
stejně tak musí být s příznakem „platná“ označena obchodníkem a projektovým
manažerem (v případě externích projektů pak obchodník zodpovídá za výnosové
položky, projektový manažer za nákladové položky a riziko)
4. BC může mít příznak „schválena“, což jí posouvá do realizace. Za schválené BC je
zodpovědný jednatel (modelová malá firma) Neexistují žádné BC v realizaci, které
nemají tento příznak
5. Interní investice jsou vedeny pod obchodní unitou Office Management
6. bude přezkoumáno finanční plnění BC a BC rozdělen na dvě složky: plán a „aktuální
stav“. Auditor zkontroluje dle platné rozpočtové zprávy čerpání rozpočtu
a nesrovnalosti zapíše do finální zprávy
42
Juříček
Tento rozsah kontrolních činností lze stanovit a provádět jednou za 2 měsíce. Výstupem je
definovaná tabulka všech hodnocených BC a zpráva ve formátu MS Word, která bude
shrnovat nedostatky při šetření výše uvedených bodů.
6
Závěr
Při dodržení principů definovaných v metodice COBIT a jeho rozšiřujících dokumentů ValIT
a RiskIT, potažmo návodů v Assurance Guide: Using COBIT a bodů definovaných v sekci
řešení předmětné oblasti tohoto článku dochází ke zvýšení úrovně vyzrálosti procesu
sestavení a schvalování BC. Analogicky dochází k větší kontrolovatelnosti i optimalizaci
celého procesu a tím zvyšování obchodních výsledků organizace.
V rámci dalšího zkoumání je vhodné se zaměřit na udržitelnost procesu kontinuálního řízení
projektů a IT GOVERNANCE pomocí BC – jakožto živého dokumentu, který musí být
pravidelně revidován a aktualizován a především musí být stále navázán na strategické a
obchodní cíle společnosti.
V použitém modelu malé a střední organizace přijímá skoro každý pracovník více rolí a při
pracovním přetížení občas není čas na administrativní dohledávání určitých údajů. Je
pozoruhodné, že co do velikosti organizace, vyspělost v rámci výše uvedených procesů Řízení
investic či Řízení projektu, není v běžné praxi veliká. Jak ukazuje průzkum stavu zavádění IT
Governance (ITG, 2009), méně jak 10% společností dané velikosti integruje a implementuje
podobné standardizované procesy.
Otázkou zůstává, proč tomu tak je. Prvním možným bodem může být nedostatečná finanční i
časová disponibilita zdrojů v rámci malých a středních podniků. Vzhledem k náročnosti
implementace lze předpokládat větší časové náklady u klíčových zaměstnanců do těchto
druhů interních projektů. A vzhledem k tomu, že tyto interní projekty negenerují okamžitý
finanční zisk, můžou být v rámci malých firem utlumovány právě na úkor projektů generující
tržby.
Další příčinou nevyzrálosti procesů je možné spatřovat v obtížnosti orientace v předložených
metodikách, které mohou být pro management společnosti nečitelné a zmatečné. Na druhou
stranu organizace, zavádějící podobné postupy nebo interní kontroly (na základě procesů
COBIT, Risk IT a Val IT), vykazují intenzivní uvědomělost potřebu řídit tyto procesy a dále
je zlepšovat a celkově harmonizovat IT koncepci s obchodními cíli. Tím je predikován jejich
obchodní růst a tvorba přidané hodnoty.
Seznam použitých zdrojů
PMI (2008). A guide to the project management body of knowledge: (PMBOK guide). Newton Square: Project
Management Institute.
ITG (2003). Board briefing on IT governance. Rolling Meadows: IT Governance Institute.
ITG (2009). Building the Business Case for COBIT and VALIT: Executive Briefing. Rolling Meadows: IT
Governance Institute.
ITG (2008). Enterprise value: governance of IT investments: the Val IT framework 2.0. Rolling Meadows: IT
Governance Institute.
ITG (2007). IT assurance guide: using CobiT. Rolling Meadows: IT Governance Institute.
Kloppenborg, T. J., Manolis, C., Tesch, D. (2009). Successful Project Sponsor Behaviors During Project
Initiation: An Empirical Investigation. Journal of Managerial Issues, 21(1), 140-159.
Acta Informatica Pragensia 43
Kraft, T. (2009). Business Process Alignment for Successful IT Project Management A Systematic and Holistic
IT Project Management Approach for Commercial Software with Case Studies. Saarbrücken: VDM Verlag
Dr. Müller.
Král, M. (2012). Odhadování pracnosti IT projektů. Acta Informatica Pragensia, 1(1), 32-40. Retrieved from
http://aip.vse.cz/index.php/aip/article/view/16/11
TSO (2009). Managing successful projects with PRINCE2. London: TSO.
Svatá, V. (2011). Audit informačního systému. Praha: Professional Publishing.
ISACA (2009). The risk IT framework principles, process details, management guidelines, maturity models.
Rolling Meadows: ISACA.
ITG (2010). The Risk IT Framework. Rolling Meadows: IT Governance Institute.
Acta Informatica Pragensia
3(1), 2014, 44–56, DOI: 10.18267/j.aip.35
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
CADAQUES: Metodika pro komplexní
řízení kvality dat a informací
CADAQUES: The Methodology for Complex
Data and Information Management
David Pejčoch1
1
Katedra informačního a znalostního inženýrství,
Fakulta informatiky a statistiky, Vysoká škola ekonomická v Praze
nám. W. Churchilla 4, 130 67 Praha 3
[email protected]
Abstrakt: Dnešní doba je charakteristická stále se zvětšujícím množstvím
pořizovaných a zpracovávaných dat. Cílem tohoto článku je poukázat na
různorodost současně používaných datových zdrojů, ukázat jejich specifika z
pohledu řízení kvality a představit vlastní metodiku, která umožňuje řízení kvality
dat a informací napříč těmito zdroji. Hlavní součástí této metodiky je sada
základních principů a činností, které je možné univerzálně aplikovat. Jedním z
klíčových doporučení této metodiky je zaměření se na relativně malou sadu
vlastností dat, kterou lze efektivně řídit. Součástí metodiky je rovněž model zralosti
datového zdroje, který slouží pro zhodnocení míry rizika spojené s použitím
konkrétního zdroje.
Klíčová slova: Datová kvalita, Big Data, zdroje dat, Data Governance, Linked
Data, CADAQUES.
Abstract: The present time is characterized by an ever-increasing amount of
acquired and processed data. The aim of this article is to highlight the diversity of
currently used data sources, to show their specifics in terms of quality control and
introduce own methodology that allows data and information quality management
across these sources. The main component of this methodology is a set of basic
principles and actions that can be universally applied. One of the key
recommendations of this methodology is to focus on a relatively small set of data
characteristics, which is relatively easy to manage. Part of the methodology is also
a Data Source Maturity Model which could be used to assess the risk associated
with the use of a particular data source.
Keywords: Data Quality, Big Data, Data sources, Data Governance, Linked Data,
CADAQUES.
Acta Informatica Pragensia 45
1
Úvod
Žijeme ve světě produkujícím enormní, stále se zvětšující množství dat. V současné situaci je
diskutabilní, zda jsme vůbec toto množství dat schopni zpracovat a zda toto zpracování
přinese adekvátní dodatečnou hodnotu. Zdomácněly již pojmy jako je řízení kvality dat a
informací či Data Governance. S rozrůstajícím se univerzem dat se objevily též různé klony
těchto pojmů jako je např. Linked Data Quality (řešící kvalitu původních dat převedených do
Resource Description Framework formátu a vzájemně prolinkovaných), Metadata Quality
(reflektující specifika řízení kvality metadat, tedy velmi zjednodušeně dat o datech) a konečně
Big Data Quality, soustředící svou pozornost na data, která již není možné (nebo není
efektivní) zpracovávat pomocí konvenčních RDBMS (Relation DataBase Management
System) prostředků.
Nepouštějme se nyní do polemik, do jaké míry jsou tyto pojmy tzv. buzzword. Produkce
buzzwordů je fenoménem, se kterým v dnešní době stěží něco svedeme. V každém případě
bychom zde mohli identifikovat celou řadu dalších takových pojmů, relevantních pro jiné
specifické formy dat, o nichž tu zatím nepadlo ani slovo (např. Multimedia Data Quality,
Stream Data Quality, Geospatial Data Quality, apod.). Odhlédněme též od nedokonalosti
definice velkých dat ve smyslu takových dat, která činí potíže zpracovat pomocí
„konvenčních“ prostředků. Pojem „konvenční“ prostředek je v tomto kontextu velice
relativní, neboť v online byznysu začínají být konvenčními již i takové technologické
prostředky, na kterých současná Big Data fungují. Podstatným problémem je snaha roztříštit
celou oblast řízení kvality dat a informací, potažmo Data Governance, do zvláštních disciplín.
Dle mého názoru je nutné uvažovat jednu komplexní sadu pravidel, politik a principů
univerzální pro všechny datové zdroje, se kterými příslušný subjekt přichází do styku. Tyto
principy by měly být jednoduché, srozumitelné a snadno implementovatelné.
Cílem článku je poukázat na různorodost současně používaných datových zdrojů a představit
konkrétní metodiku, která umožňuje řízení kvality dat a informací napříč těmito zdroji. Tato
nová metodika je rovněž autorovým přínosem k dané problematice.
2
2.1
Směrem k jednotnému konceptu
Zdroje dat
Před vlastním popisem jednotlivých zdrojů dat považuji za vhodné definovat pojem
univerzum dat. Teorie množin definuje univerzum (též základní množinu) jako množinu
všech prvků, které jsou relevantní v rámci daného kontextu (domény, problému). V kontextu
dat chápu univerzum jako množinu všech datových zdrojů (na různé úrovni granularity), se
kterými konkrétní subjekt přichází do styku. Na univerzum dat, která jsou v dnešní době
zpracovávaná, lze pohlížet z několika úhlů pohledu. Podle míry jejich strukturovanosti se
jedná o data strukturovaná, semi-strukturovaná a nestrukturovaná. Z pohledu jejich původu je
lze dělit na data interní a externí. Mezi interní data lze zařadit např. data z OLTP (Online
Transaction Processing) systémů, datových skladů, datových tržišť, OLAP (Online Analytical
Processing) kostek, různé systémové číselníky a seznamy hodnot, systémové logy,
archivovanou elektronickou poštu, znalostní báze, různé registry metadat a v neposlední řadě
data produkovaná různými senzory. Jako příklad externích dat lze uvést data získaná ze
sociálních sítí, cloud řešení (např. Salesforce), data vyměňovaná a sdílená v rámci B2B
(Business To Business) vztahů, veřejně dostupné registry a číselníky.
Z pohledu konkrétní použité technologie a formátu se jedná o relační databáze, celou řadu tzv.
NoSQL databází (sloupcové, grafové či dokumentové databáze), různé klony XML
46
Pejčoch
(eXtensible Markup Language), textové soubory s oddělovačem či pevnou šířkou, audio,
video soubory, obrázky s různou mírou komprese a barevné hloubky, apod. Specifickou
formou jsou data mající podobu toku (streamu). Z pohledu fyzického uložení dat lze
rozlišovat data uložená v rámci souborového systému, dedikovaného úložiště či v paměti.
Z pohledu dostupnosti lze rozlišovat mezi online daty (např. Data as a Service) či offline daty.
Na základě popsaných faktů lze současné univerzum zpracovávaných dat označit bez
nadsázky za velmi rozmanité. Nyní přikročím k definici základních pojmů, které souvisejí
s řízením kvality takto definovaného univerza dat.
2.2
Kvalita dat a informací, Data Governance
Podle (SDM, 2005) je datová kvalita „vnímání nebo posouzení vhodnosti dat sloužit svému
účelu v daném kontextu“. Za aspekty datové kvality tento zdroj považuje správnost, úplnost,
aktuálnost, relevantnost, konzistentnost napříč datovými zdroji, důvěryhodnost, přiměřenou
prezentaci a dostupnost. Podobnou definici poskytuje (Redman, 2001), který za data mající
vysokou kvalitu považuje taková, jež „odpovídají jejich zamýšlenému užití v operativních
činnostech, rozhodování a plánování“. Přičemž data označuje za odpovídající svému užití,
pokud jsou „prosta defektů a uchovávají si požadované vlastnosti“. Tato definice vychází
z přístupu M. Jurana, publikovaného v (Juran, Godfrey, 2010). S adekvátnosti dat jejich
zamýšlenému užití se můžeme v souvislosti s datovou kvalitou setkat též v (Strong, Lee,
Wang, 1997; Wang, Strong, Guarascio, 1996; Olson, 2003). Dle spíše procesně orientované
definice, publikované v (Hyland, Elliott, 2008), “datová kvalita nastavuje množinu
opakovatelných procesů pro monitoring dat a zlepšování jejich přesnosti, úplnosti,
aktuálnosti a relevantnosti.“ Správná, aktuální, relevantní, úplná, srozumitelná a důvěryhodná
jsou kvalitní data rovněž podle (Olson, 2003).
Jak je patrné, datová kvalita je často definována jako míra určitých požadovaných vlastností.
Téma vlastností dat samotných je zpracováno řadou autorů. Král a Žemlička (2006) rozlišují
vlastnosti objektivní a subjektivní z pohledu jejich měřitelnosti. Za objektivní považují takové
(zpravidla numerické) vlastnosti, které lze vždy znovu vypočítat z dat, kterých se týkají.
Nejobsáhlejší přehled alternativních klasifikací (přesto však ne úplný) poskytuje (Zaveri et al.,
2012). Ve své práci se odkazuje na celkem 21 zdrojů různých autorů. Výsledkem je
klasifikace celkem 109 vlastností do 6 dimenzí. Řízení takto enormního množství vlastností
dat považuji za téměř nemožné. Jako podpůrný argument pro toto tvrzení mohu použít
analogii z oblasti řízení rizik, kde je obecně považována hranice několika desítek rizik za
únosnou míru, kterou je firma ještě schopna efektivně uřídit – viz např. (Doucek et al., 2011).
Na základě (Batini, Scannapieco, 2006; Král, Žemlička, 2006; Lee et al., 2006; McGilvray,
2008; Pipino, Lee, Wang, 2002; Redman, 2001; Voříšek et al., 2008; Zaveri et al., 2012) a
vlastních zkušeností z oblasti pojišťovnictví, bankovnictví a online byznysu jsem proto
sestavil redukovanou sadu vlastností, které považují za klíčové. Tato klasifikace uvažuje pět
dimenzí vlastností: (1) endogenní, (2) časovou, (3) kontextuální, (4) užití a (5) ekonomickou.
Zatímco s prvními čtyřmi dimenzemi se můžeme setkat napříč citovanými zdroji, pátá je
zmiňována pouze v (Voříšek et al., 2008). Nicméně bez měření nákladové stránky vlastnictví
dat si lze řízení dat jen těžko představit. Její absenci lze proto přičíst spíše neúplnosti
ostatních přístupů nebo jejich přílišnému zaměření na konkrétní technická řešení kalkulace
vlastností.
V rámci endogenní dimenze uvažuji Důvěryhodnost (míru všeobecné akceptovatelnosti dat
jejich uživateli), Unikátnost (míru výskytu nechtěných duplicit), Syntaktickou správnost
(míru, v níž hodnoty atributu odpovídají přípustné syntaxi), Sémantickou správnost (míru,
v níž hodnoty atributu odpovídají oboru přípustných hodnot) a Přesnost (míru, v níž data
přesně popisují konkrétní entitu).
Acta Informatica Pragensia 47
V rámci časové dimenze uvažuji především Aktuálnost dat a jejich Volatilitu (proměnlivost
v reálném prostředí). Jak jsem ukázal v (Pejčoch, 2011), ostatní vlastnosti této dimenze jsou
buď z těchto vlastností odvozené (Včasnost), anebo představují naopak jejich vstup (Časová
synchronizace).
V rámci kontextuální dimenze rozlišuji Interní a Externí konzistentnost, ve smyslu
konzistentnosti hodnot atributů v rámci jednoho datového zdroje, vs. konzistentnosti napříč
datovými zdroji. Dále míru Úplnosti (podíl nechtěných chybějících hodnot) a Pokrytí všech
hodnot, které se pro danou entitu vyskytují v reálném světě (např. všech čísel mobilního
telefonu daného subjektu).
V rámci dimenze užití uvažuji Dostupnost dat uživatelům, Srozumitelnost (ve smyslu
formátu), Interoperabilitu (míru existence metadat) a Bezpečnost přístupu. V rámci
ekonomické dimenze uvažuji náklady na pořízení, aktualizaci, uložení, sdílení, archivaci a
ochranu dat.
Zatímco (English, 1999) hovoří striktně o kvalitě informací, jíní autoři, jako např. (Redman,
2001), zmiňují kvalitu dat. Je skutečně nutné striktně rozlišovat tyto dva pojmy? Data lze
definovat jako základní diskrétní stavební prvky informací, reprezentované podle různé míry
strukturovanosti fakty uloženými v datových atributech, textových dokumentech, zvukových
záznamech či formou obrazu/videozáznamů. Informacemi bychom potom rozuměli data
zasazená do kontextu a zřetězená ve vyšší smysluplné celky, mající určitý význam. Dává
smysl uvažovat kvalitu dat, když pro koncového uživatele má význam kvalita informace,
hovoříme o životním cyklu informace a název celého oboru je Informatika? Dle mého názoru
je vhodné uvažovat oba pojmy současně. Mnoho vlastností uváděných jako vlastnost dat
(např. srozumitelnost) jsou spíše vlastnosti informace, tedy dat vztažených v kontextu a
prezentovaných např. formou reportu. Nicméně např. správnost informace do značné míry
závisí na správnosti elementárních datových prvků, z nichž je složena. Např. informace, že
pan Novák se narodil 12. října 1977, může být správná pouze za předpokladu, že je správně
vyplněno příjmení příslušné osoby a datum narození.
Ladley (2012) chápe Data Governance jako „organizaci a implementaci politik, procedur,
struktur, rolí a odpovědností, které vymezují a prosazují pravidla účasti, rozhodovací práva a
odpovědnosti pro efektivní řízení informačních aktiv“. Zdůrazňuje oddělení Governance od
řízení informací ve smyslu kontroly, monitoringu a dohlížení na aplikaci standardů a pravidel
definovaných v rámci Governance. Výsledkem Data Governance iniciativy jsou podle Ladley
(2012) principy (ve smyslu základních norem, doktrín a předpokladů) a politiky (ve smyslu
pravidel nebo kodexu jednání). Konkrétní principy mimo jiné zmiňují (1) komplexní řízení
veškerých dat a informačního obsahu organizace jako korporátních aktiv, (2) nutnost
specifikace standardů pro všechny datové struktury / informační obsah a (3) řízení rizik,
nabádající k nutné obezřetnosti (due dilligence).
Co je podstatné, Ladley (2012) uvažuje při zavádění principů Data Governance postupnou
evoluci namísto masivní změny. Dle mého názoru podloženého dosavadní praxí jsou právě
implementace založené na masivní změně jedním z důvodů, proč je datová kvalita v současné
době chápána převážně jako dodatečně vynaložené náklady, nikoliv z pohledu budoucí
hodnoty. Řady neúspěšných nebo dlouho trvajících projektů daly vzniknout mýtu, že Data
Governance je pouze pro velké firmy, protože ty malé na to nemají potřebné prostředky. Tato
představa je však mylná.
V souvislosti s Data Governance je často zmiňován tzv. Data Stewardship, založený na více či
méně formálně vymezené roli správce dat z příslušné předmětné oblasti (domény) nebo
konkrétního datového zdroje.
48
2.3
Pejčoch
Specifika jednotlivých typů dat z pohledu řízení kvality
Pro řízení kvality dat v rámci takových zdrojů, které mají charakter strukturované tabulky,
textového souboru s oddělovačem nebo pevnou šířkou jednotlivých sloupců, existuje
dostatečná opora jak v odborné literatuře, tak i ve funkcionalitě nástrojů dostupných na trhu.
Řízení kvality těchto zdrojů je založeno na řízení sady jejich vlastností, uvedených v části 2.2.
Jak je tomu však u méně obvyklých typů dat? Co je činí natolik výjimečnými, že si
v některých případech zasloužily své vlastní vývojové větve v genezi datové kvality?
Metadata mohou být uložena buď separátně od vlastního datového zdroje (např. u Linked
Data s použitím Protocol of Web Description Resources nebo Gleaning Resource Description
for Dialects of Language), anebo přímo obsažena ve zdroji, který popisují. Příkladem druhého
uvedeného případu mohou být obrázky či video, pro které jsou podle Metadata Working
Group (2010) typické standardy XMP (Extensible Metadata Platform), EXIF (Exchengable
Image File Format) a IPTC Information Interchange Model, jež ukládají metadata přímo jako
součást souborů. Bez ohledu na formu uložení lze v případě metadat zkoumat jejich úplnost,
správnost, konzistentnost, srozumitelnost a stáří, stejně jako je tomu u „klasických“ dat
uložených v tabulkách relačních databází či souborech o různé míře strukturovanosti. I
v tomto případě nás bude zajímat původ těchto dat (a z ní vyplývající důvěryhodnost).
Specifika jednotlivých typů zdrojů lze tudíž z tohoto podhledu uvažovat pouze na
bázi aplikace konkrétního technologického postupu pro extrakci metadat a jejich analýzu.
V případě sekundárních (tedy nepůvodních), resp. terciárních dat (chápejme jako data
odvozená ze sekundárních dat), se můžeme setkat s dalšími specifickými rysy. Kvalita těchto
zdrojů je zatížená kvalitou zdrojů původních a kvalitou transformací, které jsou na původní
data aplikovány. Příkladem takových dat jsou již zmiňovaná Linked Data a Big Data.
V případě Linked Data je nutné čelit problémům spojeným s nedostatečnou úrovní metadat
původních zdrojů (včetně těch popisujících aktuální úroveň kvality těchto zdrojů), chybami
vzniklými převodem původních datových zdrojů do RDF (Resource Description Framework)
formátu a automatickým generováním vazeb mezi RDF trojicemi. V případě Big Data se
navíc setkáváme s problémy spojenými s integrací zdrojů, které mají často různou míru
strukturovanosti.
MediaBistro (2010) uvádí v souvislosti s Linked Data některé vlastnosti, jež nejsou zpravidla
zmiňovány v souvislosti s „klasickými“ daty. Např. ty, které jsou spojené se syntaxí zápisu
konkrétního formátu a mírou údržby. Syntaxi zápisu lze dle mého názoru chápat jednak ve
smyslu již definované syntaktické správnosti a jednak ve smyslu srozumitelnosti formátu.
Míru údržby chápu jako kombinaci aktuálnosti zdroje a jeho interoperability (tj. míry
dostupné dokumentace / metadat). Neshledávám proto důvod tuto vlastnost explicitně
vyčleňovat. V případě takových vlastností dat, které jsou zaměřené ryze na konkrétní
technologickou realizaci (např. granularita modelování), je diskutabilní, zda se jedná o
skutečné vlastnosti dat, anebo faktory mající na tyto vlastnosti vliv (tedy příčiny nekvalitních
dat).
Obsah pojmu Big Data Quality / Governance je do určité míry zastřen tajemstvím. Soares
(2012) chápe Big Data Governance jako součást širšího konceptu globálního Governance
informací. Pozornost věnuje jak proaktivnímu řešení datové kvality na úrovni zdrojů velkých
dat, tak i prostředkům pro její ex-post řešení na úrovni samotného Hadoopu. Výklad pojmu
Big Data Quality však může být i širší. Informace extrahované pomocí Hadoop mohou v praxi
sloužit pro validaci (např. odhadované pohlaví klienta v případě online byznysu) nebo
obohacení ostatních datových zdrojů (např. o identifikované vztahy na základě analýzy
nestrukturovaných dat ze sociálních sítí). Případně je možné využít výpočetní síly samotného
Acta Informatica Pragensia 49
Hadoopu pro realizaci některých časově náročných úloh typických pro řízení datové kvality,
jako je deduplikace (viz např. existující řešení Dedoop).
V každém případě se u velkých dat opět setkáváme s podobnou sadou vlastností jako u dat
„klasických“ (správnost, konzistentnost, aktuálnost, úplnost, …). Obdobně jako u Linked
Data je možné identifikovat některé vlastnosti specifické pro dané technologické řešení (např.
odolnost architektury řešení vůči výpadkům jednotlivých komponent clusteru, na jehož
aplikaci jsou velká data založena). Zde je však snad ještě mnohem více patrné, že se spíše
jedná o příčiny nekvalitních dat, než o samotné vlastnosti dat.
Obecně tedy lze říci, že specifika typů dat, které si v minulosti vysloužily svou vlastní
vývojovou větev v rámci řízení kvality, spočívají spíše v konkrétní použité technologii a
okolnostech, zda se jedná o data původní či odvozená. Jak již naznačuje Soares, (2012), je
vhodné uvažovat globální úroveň Governance. Já tuto globální úroveň chápu jako řízení a
správu všech datových zdrojů podle jednotné sady politik a pravidel napříč univerzem.
3
Metodika CADAQUES pro komplexní řízení
kvality dat a informací
Příkladem návodu pro komplexní řízení kvality dat a informací je vlastní navržená metodika
CADAQUES (Complex Approach to Data and Information Quality Management within
Enterprise Systems). Skládá se s následujících stavebních prvků: (1) základních principů, (2)
redukované sady vlastností dat, kterou je vhodné řídit napříč všemi typy datových zdrojů, (3)
modelu hodnocení zralosti datového zdroje, (4) základních činností, realizovaných v rámci
různých úrovní řízení kvality dat a informací napříč všemi typy datových zdrojů, (5)
simulačního modelu pro měření dopadu vlastností dat do metrik výkonnosti IT / podniku a (6)
šablon dokumentů. Většina výstupů je pro registrované uživatele dostupná na autorsky
vyvíjeném portálu http://www.dataquality.cz.
3.1
Základní principy metodiky CADAQUES
Metodika se zaměřuje na audit a řízení kvality komplexního univerza dat. Reflektuje
heterogenní charakter současných datových a informačních zdrojů. Doporučuje jednotný
koncept řízení kvality napříč všemi datovými zdroji. Vychází přitom z přesvědčení, že jen tak
lze efektivně vyvážit přínosy a rizika spojená s užitím dat. V případě sekundárních a
terciárních datových zdrojů preferuje řízení kvality na úrovni původních zdrojů. Považuje za
efektivnější vyřešení prapůvodní příčiny nekvalitních dat před opakovanou retrospektivní
nápravou již vzniklých defektů na úrovni zpracování dat.
Metodika klade důraz na prolinkování zaváděných principů Data Governance s existujícími
postupy pro implementaci principů IT Governance, jmenovitě COBIT (Control Objectives for
Information and Related Technology). Data Governance chápe pouze jako součást IT
Governance. V této souvislosti doporučuje rovněž realizovat audit kvality dat v kontextu
komplexního auditu informačního systému, s využitím postupů, které jsou v souladu
s metodikou použitou pro implementaci IT Governance. Cílem je zamezit zmatkům
plynoucím z koexistence více různých (často složitých) metodik. Konkrétní postup, jakým
realizovat audit kvality dat v souladu s návodem IT Assurance Guide: Using COBIT jsem
teoreticky popsal a kriticky zhodnotil v (Pejčoch, 2012) a jeho praktickou realizaci
demonstroval na příkladu z oblasti pojišťovnictví v [22].
Metodika reflektuje skutečnost, že některé datové zdroje nejsou pod přímou kontrolou jejich
konzumentů. Doporučuje udržovat informaci o míře kontroly přístupnou uživatelům dat a
zohlednit ji při definici očekávané míry vlastností příslušných atributů. Doporučuje též
50
Pejčoch
zhodnotit míru rizika spojenou s použitím takových datových zdrojů. Datové zdroje, s jejichž
použitím je spojena příliš vysoká míra rizika, doporučuje nepoužívat. Jako podpůrný
prostředek pro posouzení míry rizika metodika poskytuje model zralosti datového zdroje.
Metodika doporučuje dodržování principu Data Lineage (rodokmenu dat), tedy sledování
původu dat, způsobu pořízení, stáří dat, frekvenci aktualizace a historii všech provedených
transformací. Dodržování tohoto principu usnadní dohledávání původních příčin vzniku
defektů v datech.
S ohledem na stále se zvyšující množství zpracovávaných dat metodika doporučuje důsledně
řídit životní cyklus dat/informací. Pokud jsou nějaká data nepotřebná či duplicitní, je třeba je
archivovat nebo smazat. Důvodem jsou náklady na správu, uložení, dostupnost a chaos.
V tomto bodě se opírám o vlastní zkušenosti z oblasti online byznysu, v rámci něhož jsou
běžným jevem situace, kdy i samotná strukturovaná data uložená v datových skladech
nabývají velikosti desítek PB (petabajt, 1015 bajtů). Takové objemy dat přerůstají možnosti
běžných RDBMS a zajištění dostupnosti dat je zejména u velkých subjektů spojeno se
značnými náklady.
Metodika klade důraz na využití dodatečných znalostí při řízení kvality dat a informací. Tyto
znalosti doporučuje spravovat ve znalostní bázi. Konkrétní znalosti spojené s řízením kvality
dat mohou mít např. podobu schémat použitých pro standardizaci hodnot, masek pro validaci
syntaktické správnosti či validačních byznys pravidel. Metodika doporučuje jejich centrální
uložení a správu. Cílem je efektivní opakované využití již existujících znalostí, jednotně
řízená kontinuita zvyšování kvality těchto znalostí a jejich soulad s požadavky regulací
příslušeného odvětví (např. Solvency II/III v oblasti pojišťovnictví nebo Basel II/III v oblasti
bankovnictví).
Metodika doporučuje použití kanonického (obecného) datového modelu při budování
znalostní báze orientované na řízení kvality dat a informací (QKB). Pojem Kanonický datový
model (též Společný datový model, CDM) pochází z oblasti datové integrace, kde jej např.
(Štumpf, Džmuráň, 2008) zmiňuje jako model nezávislý na konkrétní aplikaci. Howard
(2008) hovoří o „datovém modelu, který překlenuje podnikové aplikace a různé datové
zdroje“. Chappell (2004) uvažuje Kanonický datový model za soubor kanonických XML
formátů jako prostředek pro vyjádření dat putujících skrze podnik napříč architekturou tvořící
ESB (Enterprise Service Bus). Existuje řada dostupných kanonických modelů pro různé
vertikály. Jako příklad lze zmínit ACORD (Association for Cooperative Operations Research
and Development) pro oblast pojišťovnictví či SID pro oblast telekomunikací. Za hlavní
argument použití kanonického datového modelu jako základu znalostní báze považuji
usnadnění její integrace do stávajícího ESB, založeného na kanonickém modelu, a snadné
sdílení (a rozvoj) znalostí obsažených v QKB ve vztazích B2B (Business To Business) a B2G
(Business To Governance).
Metodika doporučuje udržování takové úrovně vlastností dat a informací, která vede
k optimálnímu dopadu do metrik výkonnosti IT a podniku při současném efektivním využití
podnikových zdrojů. Pokud reálné použití některých atributů nevyžaduje vysokou úroveň
některých měřených vlastností nebo je tato úroveň spojena s příliš vysokými náklady,
metodika doporučuje slevit z požadavků na tyto vlastnosti. Pro měření dopadu do metrik
výkonnosti používá kauzální simulační model, který jsem navrhl a popsal v (Pejčoch, 2011).
Tento model je založen na vazbách mezi jednotlivými atributy, jejich užitím, naměřenými
vlastnostmi a důsledky úrovně těchto vlastností. Součástí publikovaného článku byl rovněž
praktický příklad demonstrující použití tohoto modelu v oblasti pojišťovnictví. Tento model
je univerzálně aplikovatelný napříč univerzem dat.
Acta Informatica Pragensia 51
Metodika klade důraz na multidimenzionální přístup, charakterizovaný různými pohledy na
vlastnosti dat a informací (stávající / potenciální / optimální úroveň), uvažováním současného
i potenciálního užití dat a informací a uvažováním různých kategorií dopadu nekvalitních dat
a informací.
3.2
Základní činnosti podle metodiky CADAQUES
Metodika CADAQUES předpokládá, že základní činnosti realizované v rámci řízení datové
kvality a Data Governance lze členit podle tří úrovní řízení (na strategickou, taktickou a
operativní). V rámci strategické úrovně řízení probíhá definice základních principů a politik
Data Governance. Na taktické úrovni probíhá přiřazování odpovědnosti za jednotlivé datové
zdroje a rozšiřování stávajících rolí o tyto odpovědnosti. Dále sem patří návrh a rozvoj
jednotlivých částí QKB a navazujících znalostí, jednorázové audity kvality dat a informací.
V neposlední řadě je na taktické úrovni realizována sada typických činností, jako je
standardizace, unifikace, porovnávání a slučování, doplňování chybějících pozorování a návrh
validačních pravidel a kontrol.
Tyto typické činnosti jsem identifikoval na základě komparativní analýzy funkcionality
nástrojů pro podporu řízení kvality, zařazených podle Talend (2013) v roce 2013 do Gartner
Magic Quadrants pro oblast Data Quality (SAS Data Flux, Talend Open Studio MDM a
Ataccama), vybraných nástrojů používaných pro přípravu dat v rámci procesu získávání
znalostí z databází (SAS/BASE, SAS Enterprise Miner, Rapid Miner), specifických nástrojů
pro řešení problematiky kvality dat v rámci Big Data (Pig, Hive, Impala, Talend Open Studio
for Big Data, Dedoop) a analýzy níže citovaných zdrojů. Jednotlivé pojmy uvedené
v souvislosti s typickými činnostmi budu definovat v následujících odstavcích.
Konečně na operativní úrovni probíhá implementace jednotlivých mechanismů, kontrol a
jejich kontinuální monitoring. Při členění základních činností se metodika CADAQUES opírá
o model ITGPM popisovaný v (Voříšek J. et al., 2008), který rovněž uvažuje těžiště řízení dat
jako jednoho z klíčových zdrojů informatiky na taktické úrovni řízení, a tzv. Hierarchii řízení
dat publikovanou v (Dyché, Levy, 2006), řadící Data Governance na úroveň strategického
řízení dat.
Podstatou standardizace je syntaktické a sémantické sladění hodnot jednotlivých atributů. Za
tímto účelem jsou aplikována zejména pravidla pro sjednocení velikosti písmen v
jednotlivých tokenech a tzv. standardizační schémata, která převádějí různá synonyma,
přezdívky, četné překlepy / chybné zápisy tokenů na jejich standardní zápis. Z pohledu
vlastností dat se zaměřuje na Srozumitelnost dat. Představuje též hlavní vstup pro některé
další navazující činnosti jako je porovnávání a slučování. S rolí standardizace se můžeme
setkat napříč všemi typy dat v rámci univerza. V případě Linked Data a metadat roli
standardizačních schémat plní slovníky (soubor termínů z určité oblasti) a ontologie (soubor
termínů a jejich vztahů z určité oblasti), coby doporučené standardy. Za benefity použití
standardizovaných metadat považuje (Cox, 2013) mimo jiné (1) úsporu času při hledání
informace, (2) vyhledání přesnějších výsledků, (3) usnadnění client-server komunikace.
V případě multimédií lze považovat za standardy např. doporučené rozlišení obrázku, použitá
komprese, či kódování barev.
Validace je zpravidla založena na aplikaci syntaktických masek, vytvořených pomocí
regulárních výrazů, WHERE podmínek v rámci nějakého dotazovacího jazyka (zpravidla
SQL), kontrolních součtů, na aplikaci IF THEN byznys pravidel, porovnávání skutečných
hodnot s referenční bází / standardem či definovaným povoleným rozsahem hodnot.
Z uvedených příkladů je zřejmá vazba na vlastnosti dat Syntaktická správnost, Sémantická
správnost, Interní a Externí konzistentnost. V rámci jednotlivých typů zdrojů dat má validace
pouze technologická specifika své realizace. V případě Linked Data např. pomocí jazyka
52
Pejčoch
SPARQL (SPARQL Protocol and RDF Query Language). V případě obrázků, audia, videa je
velkou část validačních procedur možné realizovat až po jejich převedení do strukturované
podoby (např. obrázek znázorňující světle zelené auto na modrém pozadí převést na trojici
atributů objekt = auto, barva objektu = světle zelená, barva pozadí = modrá).
Porovnávání a slučování je realizováno zejména v souvislosti s deduplikací záznamů a
rozhodováním, zda je nově vstupující záznam již obsažen v deduplikované bázi, či se jedná o
záznam zcela nový. Souvisí tedy s vlastností Unikátnost dat. Pro tyto účely lze použít jednak
řadu přístupů založených na kalkulaci měr podobnosti řetězců – viz (Chaudhuri et al., 2003),
anebo porovnávacích kódů – viz (SAS Institute, 2008), jejichž nespornou výhodou je možnost
jejich trvalého uložení v rámci atributů tabulek při současném zohlednění určité míry
volatility, reflektující možné překlepy. Komplexní logika stojící v pozadí algoritmů
generování porovnávacích kódů vychází z podrobné doménové znalosti o atributu (resp.
atributech), na základě nichž je porovnávací kód vytvářen. Pro optimalizaci těchto metod jsou
dle (Chaudhuri et al., 2003) používány fonetické algoritmy, kódující shodným způsobem
stejně znějící hlásky, a tzv. blokovací strategie, využívající hodnot dodatečných atributů
k redukci počtu porovnávaných záznamů. Jak ukazuje nástroj Dedoop, tato logika je
zachována i v případě deduplikace nestrukturovaných dat v prostředí Hadoop. V případě
multimediálních dat je deduplikace v triviálním případě založena na porovnávání bitů
jednotlivých souborů (např. pomocí nástroje AntiTwin).
Doplňování chybějících pozorování souvisí s vlastností dat Úplnost. V prvé řadě lze do této
oblasti zařadit identifikaci mechanismu výskytu chybějících hodnot – viz např. (Marwala,
2009), reflektujícího náhodnost výskytu a možnosti odvození chybějících hodnot pomocí
ostatních atributů. Na jeho základě je následně zvolena strategie doplnění. Na tuto oblast
navazuje definice vlastních metod pro doplňování (imputaci) chybějících pozorování.
Problematiku chybějících pozorování lze chápat též jako obohacování stávajících dat o
dodatečné zdroje (např. externí číselníky, registry, geokoordináty) a znalosti (vztahy mezi
entitami jako je např. identifikace domácnosti či obchodní spřízněnost jednotlivých subjektů).
Logika imputace opět zůstává stejná napříč univerzem dat, pouze technologická realizace je
odlišná. King, Kutyniok a Lim (2013) například popisují metodu Image Inpainting pro
doplňování chybějících pixelů v rámci obrazů. Tato metoda je podobně jako mnoho metod
pro imputaci v prostředí relačních databází popsaných v (Marwala, 2009) založená na
ostatních hodnotách / atributech (v tomto případě pixelech obrazu).
V rámci auditu kvality dat metodika CADAQUES uvažuje v prvé řadě realizaci tzv.
technického profillingu Ten je založen na zjišťování základních popisných statistik
jednotlivých datových atributů, identifikaci syntaktických vzorů, porovnávání reálných dat s
metadaty a ověřování referenční integrity (tedy činností směřujících ke stanovení objektivních
vlastností dat). Na základě doporučení formulovaných v (Lee et al., 2006) rozšiřuje tento
kvantitativní audit o kvalitativní šetření cílené na hlavní uživatele dat. Tento retrospektivní
audit kvality rovněž doporučuje doplnit o analýzu stávajících procesů s cílem identifikovat
potenciální budoucí hrozby. Doporučuje se při tom zaměřit zejména na ty procesy, u nichž
byly zjištěny závažné nedostatky v rámci technického profillingu nebo kvalitativního šetření.
V kostce se tedy jedná o měření vlastností dat, testování současných navržených kontrol a
identifikace potenciálních defektů. Tento přístup lze opět aplikovat napříč celým univerzem
dat.
3.3
Model zralosti datového zdroje
Jak bylo ukázáno na příkladu Linked Data, použití externích dat může s sebou přinášet rizika
vyplývající z jejich původu a způsobu vytváření. Pro podporu rozhodování o použití
konkrétního externího datového zdroje jsem proto jako součást metodiky CADAQUES
Acta Informatica Pragensia 53
vyvinul model zralosti datového zdroje. Model vychází z mnou definované redukované sady
vlastností dat popsané v části 2.2 tohoto článku. Důvodem je princip jednotného řízení těchto
vlastností napříč celým univerzem, tedy i v rámci externích dat. Jednotlivým vlastnostem
přiřazuje model konkrétní otázky, na které je dle mých zkušeností vhodné se zaměřit. Jedná se
o vícekriteriální model, jehož jednotlivé části mohou mít pro různé zdroje a očekávané užití
odlišné váhy. Výsledné rozhodnutí o použití je realizováno pomocí porovnání součtu vah
s předem stanovenou kritickou hodnotou v rámci každé dimenze.
V případě endogenní dimenze obsahuje model tyto otázky (doplněné o komentáře):





Patří tento datový zdroj mezi obecně používané v rámci daného odvětví? Pokud je
zdroj obecně používán, je značná pravděpodobnost, že je důvěryhodný.
Je znám původ dat a je akceptovatelný pro předpokládané užití? Pokud je znám
původ, lze odhadnout jeho důvěryhodnost.
Je k dispozici popis prováděných kontrol? Pokud je znám, lze odhadnout
důvěryhodnost tohoto zdroje a též publikovaných hodnot jednotlivých vlastností.
Je k dispozici informace o garantované míře unikátních záznamů, sémantické
správnosti, syntaktické správnosti a je postačující pro předpokládané užití?
Je k dispozici informace o garantované míře přesnosti reprezentace reálných entit a je
postačující pro předpokládané užití? V případě chybějící informace ji lze alespoň
částečně aproximovat jako min (syntaktická správnost, sémantická správnost,
aktuálnost, úplnost).
V případě časové dimenze obsahuje tyto otázky:



Je k dispozici informace o garantované míře aktuálnosti údajů a její úroveň je
postačující pro předpokládané užití?
Je k dispozici informace o frekvenci změn v reálném světě?
Je k dispozici informace o frekvenci synchronizace jednotlivých částí zdroje
publikovaných dat a je akceptovatelná z hlediska předpokládaného užití?
V případě kontextuální dimenze obsahuje tyto otázky:



Je k dispozici informace o garantované míře konzistentnosti jednotlivých atributů /
elementů a její míra je akceptovatelná z hlediska předpokládaného užití?
Je k dispozici informace o garantované míře konzistentnosti zdroje s ostatními zdroji a
tato míra je akceptovatelná z hlediska předpokládaného užití?
Je k dispozici informace o garantované míře úplnosti zdroje a očekávané míře pokrytí
všech výskytů hodnot a tato míra je akceptovatelná z hlediska předpokládaného užití?
V případě dimenze užití obsahuje tyto otázky:



Jsou k dispozici informace o omezeních v dostupnosti datového zdroje a tato omezení
jsou akceptovatelná z pohledu předpokládaného užití?
Je na straně zdroje k dispozici kontaktní osoba byznys správce dat schopného podat
dodatečné informace? Je k dispozici popis původního účelu, pro který byl zdroj
vytvořen, a informace popisující omezení použitelnosti zdroje a jsou v souladu se
záměrem použití dat?
Je k dispozici byznys popis na úrovni jednotlivých atributů / elementů, je znám jejich
význam a je postačující pro daný účel?
54
Pejčoch


Je známa osoba technického správce zdroje, který by mohl podat dodatečné
informace? Byl při vytváření datového zdroje použit kanonický datový model nebo
některá ze známých ontologií? Je znám technický popis jednotlivých atributů a
elementů (datové typy a délky, integritní omezení, jsou k dispozici příklady hodnot)?
Je dostupný popis integrační logiky pro dávkovou integraci (informace o použitém
oddělovači nebo použité pevné šířce, informace o použitém formátu, použité znakové
sadě)? Je dostupný popis integrační logiky pro online integraci na úrovni jednotlivých
služeb?
Je v rámci přenosu dat použita úroveň zabezpečení adekvátní charakteru dat?
V případě ekonomické dimenze obsahuje tyto otázky:



3.4
Jsou náklady na pořízení datového zdroje a jeho aktualizaci adekvátní přínosům
datového zdroje z pohledu předpokládaného užití?
Jsou náklady na integraci, uložení či archivaci v datovém úložišti a jejich zpřístupnění
uživatelům adekvátní přínosům datového zdroje z pohledu předpokládaného užití?
Jsou náklady na zajištění bezpečného přístupu a zabránění neautorizovanému přístupu
k datům adekvátní přínosům datového zdroje z pohledu předpokládaného užití?
Podpůrné nástroje metodiky CADAQUES
Metodika v současné době obsahuje několik podpůrných nástrojů pro její implementaci: (1)
kanonický datový model pro vertikálu pojišťovnictví, (2) šablonu auditorské zprávy, (3)
šablonu matice pro definici užití jednotlivých atributů, (4) šablonu matice měřených
vlastností, (5) dokument mapující kroky IT Assurance Road Map (součást návodu IT
Assurance Guide: Using COBIT) na jednotlivé konvenční kroky auditu datové kvality
popsané v (McGilvray, 2008; English, 1999; Lee et al., 2006).
4
Závěr
Univerzum v současnosti zpracovávaných dat je rozmanité. Zahrnuje v sobě data o různé míře
strukturovanosti, pro jejichž uchování jsou typické různé technologie. Přestože řízení kvality
má v případě některých zástupců tohoto univerza určitá specifika, nestačí dle mého názoru
tato skutečnost jako argument pro vznik samostatných disciplín (Linked Data Quality,
Metadata Quality, Big Data Quality, apod.) a je vhodnější uvažovat jednotný koncept řízení
kvality dat napříč těmito zdroji, zejména s ohledem na předpoklad, že současné univerzum dat
není konečné. Dalším důvodem pro jednotný přístup jsou některé základní principy Data
Governance, jako je řízení rizik spojených s používáním dat či princip komplexního řízení dat
a informačního obsahu organizace. Dosud identifikovaná specifika se týkají buď konkrétní
použité technologie (např. NoSQL a grafové databáze), formátu dat (např. audio, video,
grafické soubory), anebo vyplývají ze skutečnosti, že se nejedná o zdroj původní (např.
Linked Data).
Metodika CADAQUES, představená v rámci tohoto článku, je příkladem přístupu uvažujícího
komplexní řízení kvality dat a informací napříč celým univerzem. Hlavní součástí této
metodiky je sada základních principů a činností, které je možné aplikovat na všechny datové
zdroje. Řada z nich vychází z výše zmíněných principů Data Governance. Jedním z klíčových
doporučení této metodiky je zaměření se na relativně malou sadu vlastností dat, kterou lze
efektivně řídit. Součástí metodiky je rovněž model zralosti datového zdroje, který slouží pro
zhodnocení míry rizika spojené s použitím konkrétního zdroje. Většina stavebních prvků této
metodiky je dostupná registrovaným uživatelům na portálu http://www.dataquality.cz.
Acta Informatica Pragensia 55
Seznam použitých zdrojů
Batini, C., Scannapieco, M. (2006). Data Quality: Concepts, Methodologies and Techniques. Berlin: SpringerVerlag.
Cox, L. (2013) Metadata: 96 Most Asked Questions - What You Need To Know. Emereo Publishing.
Doucek, P., Novák, L., Nedomová L., Svatá, V. (2011). Řízení bezpečnosti informací. Příbram: Professional
Publishing.
Dyché, J., Levy, E. (2006). Customer data integration: Reaching a Single Version of the Truth. New Jersey:
Wiley & Sons.
English, L. P. (1999). Improving Data Warehouse and Business Information Quality: Methods for Reducing
Costs and Increasing Profits. New Jersey: Wiley & Sons.
Howard, P. (2008). The importance of a common data model. IT-Director.com. Retrieved from http://www.itdirector.com/technology/applications/content.php?cid=10292.
Hyland, H., Elliott, L. (2008). No Data Left Behind: Federal Student Aid A Case History. Retrieved from
http://www.dama-ncr.org/Library/2008-03-11NoDataLeftBehind.ppt.
Chappell, D. A. (2004). Enterprise Service Bus. Sebastopol: O’Reilly.
Chaudhuri, S., Ganjam, K., Ganti, V., Motwani, R. (2003). Robust and Efficient Fuzzy Match for Online Data
Cleaning. In: SIGMOD 2003. CA: San Diego.
Juran, J.M., Godfrey, A.B. (2010). Juran's Quality Handbook: The Complete Guide to Performance Excellence.
New York: McGraw-Hill.
King, E.J., Kutyniok, G., Lim, W. (2013). Image inpainting: Theoretical analysis and comparison of algorithms.
In Wavelets and Sparsity XV: Proceedings of SPIE - The International Society for Optical Engineering
2013.
Král, J., Žemlička, M. (2006) Kvalita dat a informací – základní omezení IT ve veřejné správě. In Pour, J.,
Voříšek, J (Eds.) Systems Integration 2006 (pp. 215-222). Prague: University of Economics.
Ladley, J. (2012). Data Governance: How to design, deploy and sustain an effective Data Governance program.
Waltham: Morgan Kaufmann.
Lee, Y. W., Pipino, L. L., Funk, J. D., Wang, R. Y. (2006). Journey to Data Quality. MA: MIT Press.
Marwala, T. (2009). Computational Intelligence for Missing Data Imputation, Estimation, and Management:
Knowledge Optimization Techniques. Hershey: Information Science Reference.
McGilvray, D. (2008). Executing Data Quality Projects: Ten Steps to Quality Data and Trusted Information.
Burlington: Morgan Kaufmann.
MediaBistro. (2010). Quality Indicators for Linked Data Datasets. Semanticweb.com. Retrieved from
http://answers.semanticweb.com/questions/1072/quality-indicators-for-linked-data-datasets.
Metadata Working Group. (2010). Guidelines for Handling
http://www.metadataworkinggroup.org/pdf/mwg_guidance.pdf.
Metadata.
Retrieved
from
Olson, J. E. (2003). Data Quality: The Accuracy Dimension. Waltham: Morgan Kaufmann.
Pejčoch, D. (2011). Vztah řízení dat k ostatním oblastem řízení informatiky. In Sborník prací účastníků
vědeckého semináře doktorandského studia Fakulty informatiky a statistiky VŠE v Praze (pp. 3-13). Praha:
Oeconomica.
Pejčoch, D. (2012). Audit datové kvality podle IT Assurance Guide: Using COBIT - 3. díl. In Data Quality CZ.
Retrieved from
http://www.dataquality.cz/index.php?ID=5&ArtID=13&clanek=201203_DQA_IT_Assurance_Guide_3dil.
Pipino, L., Lee, Y. W., Wang, R.Y. (2002). Data quality assessment. Communications of the ACM. 45(4), 211218.
Redman, T. (2001). Data Quality: The Field Guide. Boston: Butterworth-Heinemann.
SAS Institute. (2008). SAS Data Quality Server 9.2: Reference. Cary, NC: SAS Institute Inc.
56
Pejčoch
SDM.
(2005).
Definice
pojmu
data
quality.
Techtarget.com
http://searchdatamanagement.techtarget.com/definition/data-quality.
Retrieved
from
Soares, S. (2012). Big Data Governance: An Emerging Imperative. Boise: McPress.
Strong, D.M., Lee, Y.W., Wang, R.Y. (1997). Data quality in context. Communications of the ACM. 40(5), 103110.
Štumpf, J., Džmuráň, M. (2008). Datová integrace prostřednictvím společného datového modelu. In Proceedings
of the 16th International Conference on Systems Integration. Praha: CSSI.
Talend. (2013). Analyst Report: Magic Quadrant for Data Quality Tools. Talend.com Retrieved from
https://info.talend.com/dataqualitytools.html.
Voříšek J. a kol. (2008). Principy a modely řízení podnikové informatiky. Praha: Oeconomica.
Wang, R.Y., Strong, D.M., Guarascio, L.M. (1996). Beyond Accuracy: What data quality means to data
consumers. Journal of Management Systems. 12(4), 5-34.
Zaveri, A., Rula, A., Maurino, A. Pietrobon, R., Lehmann, J., Auer, S. (2012) Quality Assessment
Methodologies for Linked Open Data. Semantic-web-journal.net. Retrieved from http://www.semanticweb-journal.net/content/quality-assessment-methodologies-linked-open-data.
Acta Informatica Pragensia
3(1), 2014, 57–69, ISSN 1805-4951
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Článek „A Project Team: a Team or Just a Group?“ byl na základě
publikační etiky časopisu Acta Informatica Pragensia odstraněn,
neboť bylo zjištěno, že se jedná o plagiát.
On the basis of publication ethics of the Acta Informatica Pragensia
journal, the article "A Project Team: a Team or Just a Group?" was
removed because it is plagiarism.
Acta Informatica Pragensia
3(1), 2014, 70–88, DOI: 10.18267/j.aip.36
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Systémový charakter modelování možných
trendů důsledků klimatických změn nástroji
geografických informačních systémů
System Nature of Modelling of Possible Trends in the Effects of Climate
Change through the Technology of Geographic Information Systems Tools
Veronika Vlčková1
1
Ústav dopravní telematiky / Ústav aplikované informatiky v dopravě,
Fakulta dopravní, České vysoké učení technické
Konviktská 20, 110 00 Praha 1
[email protected]
Abstrakt: Základem příspěvku je aplikace tezí tzv. konstruktivní teorie systémů na
model predikce pravděpodobného trendu důsledků globálních klimatických změn
na vegetační kryt území ČR. Metodickým východiskem, podrobněji rozvedeném
v první části příspěvku, je bývalý Integrovaný informační systém o území ISÚ
a jeho subsystém Ekologická banka dat ISÚ. Samotný model predikce, jehož
obdobně koncipovaná systémová charakteristika je předmětem druhé části, je
realizován v prostředí technologie geografických informačních systémů. Základem
systémových vazeb modelu je časoprostorová komparace klimatických podmínek
a vlastností vegetačního krytu území. Model byl využit pro analýzu dat vhodnosti
pěstování vybraných dřevin.
Klíčová slova: konstruktivní teorie systémů, geografický informační systém,
predikční model, systémový model území
Abstract: The basis of the entire contribution is the application of constructive
theory of systems theses on a model for the prediction of the probable trend of the
consequences of global climate change on vegetation zones on the territory of the
Czech Republic. This model is completely designed in the technology of
geographic information systems. Methodological basis, which is in detail in the
first part of the contribution, is former Integrated Information System about the
Territory ISU and its subsystem Ecological Databank of ISU. The prediction
model, its similarly framed system characteristics are in the second part of the
contribution, is based on the relationships between climatic conditions and
vegetation zones. The model has already been used for data analysis on the
conditions of cultivation for a selected growing tree species for forestry studies.
Currently the results of the application of the model will be published for the
conditions of cultivation of selected agricultural commodities.
Keywords: Constructive theory of systems, Geographical Information System,
Predictive model, System model of the territory
Acta Informatica Pragensia 71
Zacílení a souvislosti příspěvku
Obsah článku je soustředěn na aplikaci pojmů konkrétní teorie na realizované objekty (viz
dále text příspěvku) a je koncipován ve dvou hlavních částech, a to kap. 1., zmiňující
aplikovanou teoretickou základnu, a kap. 2. obsahující uplatnění těchto pojmů na historické
zdroje vývoje zmiňovaného modelu (mj. vzhledem k časovému rozložení a ryze české
podstatě nejsou k dispozici příslušné zahraniční zdroje k další diskusi – v té době byla ČR
prakticky jedním z vedoucích účastníků vývoje základů technologie GIS a zahraniční
literatura se tehdy této problematice nevěnovala tak soustavně a soustředěně). V druhé části
kap. 3. konkretizuje pojmy výchozí teorie na aplikaci predikčního modelu a kap. 4. se věnuje
obdobné snaze ohledně okolí modelu. Kap. 5. pak zmiňuje další využitelné pojmy výchozí
teorie. Iv této druhé části, věnované zmíněnému predikčnímu modelu, není k diskusi samotná
konstrukce modelu či jeho odborná podstata (lesnická ekologie aj.), smyslem je uplatnění
a osvětlení pojmů výchozího teoretického aparátu na reálný objekt – model predikce. Diskuse
k vývoji modelu a jeho vlastnostem probíhá na příslušné odborné úrovni lesních a krajinných
ekologů. Nakonec v kap. 6. je krátce uvedeno shrnutí poznatků z aplikace systémových pojmů
a kap. 7. je soupisem použité literatury.
Cílem příspěvku je především snahou propojit teze a pojmy výchozí teorie s konkrétní
aplikací, a to mj. i v souvislosti s výukou oborových předmětů na FD ČVUT – systémové
inženýrství a systémová strategie dopravy.
1
Úvodní předpoklady konstruktivní teorie systémů – komplexní
prostředí modelu
Základem vypracování celého příspěvku je aplikace tezí tzv. konstruktivní teorie systémů
ve tvaru a myšlenkovém uspořádání podle původní studie Jaroslava Vlčka Systémové
inženýrství (Vlček, 2002). Nástroje konstruktivní teorie systémů v jím rozvíjeném pojetí
umožňují zefektivnit postup (jakékoliv) inženýrské práce, projektování, vedou k optimalizaci
inženýrských činností a k úspěšnějšímu udržení smyslu a účelu řešení inženýrských úloh.
Nicméně tento příspěvek se zabývá jejich aplikací, nikoliv vysvětlováním. Veškeré zde dále
uváděné úvahy a komentáře řešení ovšem vycházejí právě z terminologie a úvah této studie.
Pouze pro letmé upozornění na význam pojmů, užívaných dále v příspěvku, uvádím stručně
alespoň rozvinutou definici obecného systému (Vlček, 2002) ve tvaru:
/ , / , , , ,
, ,
(1)
kde A/F je množinou prvků (částí) systémového modelu s jejich funkcemi;
R/P je množina vazeb mezi nimi a jejich parametrů;
γ označuje množinu procesů genetického kódu, resp. druhového chování;
δ znamená množinu procesů cílového chování;
E je symbol etiky systému;
M je mohutnost množina všech procesů v/na systému;
I označuje identitu systému vůči jeho okolí;
K charakterizuje kompetence systému (v dalších pojetích případně kapacitu systému).
Samotným předmětem analýzy systémových charakteristik je model predikce
pravděpodobného trendu důsledků globálních klimatických změn na vegetačních kryt
území České republiky. Tento model (Kopecká, Buček, 1997) vychází z principu, že
významné změny klimatických podmínek se projeví v určitém trendu změn vlastností
vegetačního krytu území. Vegetační kryt území ČR je zde reprezentován speciální klasifikací
vegetační stupňovitosti (Kopecká, Buček, Lacina, 1984).
72
Vlčková
Model byl již využit v první řadě pro analýzu dat o podmínkách vhodnosti pěstování
vybraných dřevin, a to smrku ztepilého a buku lesního. Stávající oblasti a míra jejich
vhodnosti byly vytipovány právě na základě geobiocenologické klasifikace území ČR (Buček,
Lacina, 1988). Ovšem aplikace modelu mohou být nejrůzněji zaměřené – v současnosti jsou
postupně publikovány výsledky studií o podmínkách pěstování vybraných jednotlivých
zemědělských komodit apod. (Vlčková, Buček, Machar, 2014)
2
Vlastnosti a podněty prostředí umožňujícího konstrukci systému
– vstupní podněty okolí systému
2.1
Integrovaný informační systém o území ISÚ
V 70. až 90. letech 20. století tehdejší TERPLAN, Státní ústav pro územní plánování,
provozoval tzv. Integrovaný informační systém o území – ISÚ (dále již jen „ISÚ“), který
v té době představoval jedinečné (a to i v celosvětovém měřítku) řešení správy (pořizování,
ukládání, archivace, zpracování, zpřístupňování, poskytování atd.) územně orientovaných
informací (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993). V době
centrálních výpočetních systémů bez praktické možnosti grafického vstupu/výstupu, či jen ve
velmi omezené míře, umožňoval automatizaci práce s prostorovými daty (informacemi,
znalostmi) – i včetně modelování prostorově orientovaných jevů a vztahů mezi nimi – jak
specialistům územního plánování, tak i dalších oborů.
ISÚ byl koncipován jako mezioborový informační systém, založený především pro potřeby
informační obsluhy územně plánovacích procesů na úrovni velkých územních celků, případně
celé republiky. Provozován byl v centrálním výpočetním středisku na systému OS/IBM 375
toliko v numerické formě. Zpočátku ISÚ budoval oborově orientované registry sám s cílem
převést prostorově orientovaná data na počítač. Podnětem těchto snah byl požadavek
především oboru územního plánování, který metodicky propojoval údaje o území
z nejrůznějších oborů, a spolupracoval s nejrůznějšími odbornými institucemi (ČHMÚ,
Geofond, Silniční databanka i Český statistický úřad aj.). V letech těsně před listopadem 1989
již nastoupila jistá úroveň decentralizace zdrojů i uživatelů prostorových informací.
Spolupracující odborné instituce začaly svoje registry a evidence spravovat samy a poskytovat
je do databáze ISÚ. Souběžně došlo postupně i k rozšíření práce v grafickém prostředí.
Nejvýznamnější okolnosti, které v té době ovlivnily tehdejší technické řešení ISÚ (Buček,
Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993), lze shrnout následovně:




společenské změny, které zcela zásadně změnily způsoby aktualizace informačních
systémů po obsahové stránce (zejména decentralizace dostupných datových zdrojů);
hardwarová a s ní související i softwarová obměna (nástup technologií firem ESRI,
Intergraph aj.);
datový fond ISÚ, ač založen na jednotných a zdánlivě jednoduchých pravidlech, byl
z pohledu informačních technologií hluboce diverzifikován ve všech myslitelných
rozměrech datových bází;
s postupným nárůstem technických parametrů osobních počítačů a pracovních stanic
rostl podíl převodu původní „mainframové“ datové báze a jejích odvozenin do tohoto
nového prostředí, to však tehdy – ke škodě věci – znamenalo velmi výrazné objemové
i rychlostní omezení práce s prostorovými údaji vůči dosavadním možnostem
sálových počítačů (to je ovšem dnes již zcela nesouměřitelné).
ISÚ tak byl vzhledem ke své principiální různorodosti (obsahu, způsobu vyjádření a popisu
jednotlivých územních jevů, elementární úrovně podrobnosti svého datového obsahu) veden
Acta Informatica Pragensia 73
jako komplex jednotlivých tematických registrů, který byl každý reprezentován několika
základními kmenovými soubory dat, propojené speciálními řídicími registry. Význam
konceptu ISÚ a jeho efektivnost v kontextu tehdejších podmínek práce s výpočetní technikou
a s prostorově orientovanými daty byl zhruba v polovině 90. let podpořen mj. i následníkem
v podobě Městského informačního systému, organizovaného na principech ISÚ (ovšemže na
podrobnější rozlišovací úrovni), který provozovalo hlavní město Praha ve svém Institutu
městské informatiky.
Vlastní architektura datové báze ISÚ – ve smyslu výchozí konstruktivní teorie systémů
základní struktura systému s prvky a s jejich funkcemi, vazby mezi nimi se svými parametry
– byla vázána důslednými pravidly (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et
al., 1993):





dodržovat přísně a bezpodmínečně atomární tvar ukládaných dat – vstup do systému
z jeho okolí;
souborová organizace kmenového uložení originálních tematických dat (i vzhledem
k různé časové platnosti, různé úrovni sledovaných územních prvků aj.) –
dekompoziční nástroje systému;
„kmenová“ data registrů, pracovní a odvozené soubory, archivní verze dat – prvky
systému;
důsledné kódování, legendy, číselníky, převodníky – vazby v systému;
vnitřní hierarchie: metainformační registr, základní identifikační (řídící) soubory,
tematické soubory podčleněné vzhledem k typu popisovaných územních prvků
(agregace dat za základní sídelní jednotky nebo za katastrální území; data za objektové
prvky – bodové, liniové, plošné), souřadnicový fond – kompetence, identita systému.
Základ koncepce a realizace ISÚ – druhové chování systému – tak zahrnoval jednotlivé
následující body (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993):


informační podpora územně plánovacích činností;
integrace, agregace, srovnatelnost různorodých územně orientovaných informací na
společném základě soustavy jednotek prostorového členění ČR i souřadnicové
lokalizace.
Požadované cílové chování, tehdy očekávanou funkci celého systému lze shrnout jako
(Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et al., 1993):






poskytování informací o území a o jevech v něm;
vlastní programové aplikace: data – informace – znalosti o území, modelování, tvorba
odvozených = tranzitivních informací (znalosti: efekt ze sjednocení informací;
tranzitivní informace: výsledek implikace IF – THEN);
grafická prezentace informací, odvozená grafická informace („paralelní komunikace“
grafického vyjadřování kombinovaných skupin informací – kartogramy,
kartodiagramy);
pořizování a údržba speciálních dat: soubor demografických údajů, Ekologická banka
dat ISÚ – EBD ISÚ, oficiální gesce za číselníky a zdrojové registry územních
a sídelních jednotek či katastrálních území s jejich definičními body a souřadnicemi
obrysů hranic;
základní metodické principy použití územně orientovaných informací (tzn. atomární
uložení, jednotná prostorová identifikace, časová platnost);
zpracování mapových podkladů, metodická podpora a konzultace pro ostatní IS;
74
Vlčková

zajištění zprostředkujícího článku: výměny informací mezi jednotlivými úrovněmi
informačních systémů (národní, regionální, lokální).
Vazby ISÚ na ostatní – informatické – okolí (spojené se systémovými pojmy mj. též
identity a etiky systému) byly dány (Buček, Vlčková, 2011; Kopecká et al., 1992; Kopecká et
al., 1993):



2.2
jednak horizontálně v rovině hierarchicky odpovídajících oborových i jiných
průřezových IS na stejné úrovni podrobnosti a územního rozsahu sledovaných údajů
a obsluhovaných rozhodovacích procesů;
jednak vertikálně ve smyslu rozlišování obsluhované úrovně podrobnosti územních
jevů a používaných soustav popisovaných prvků území;
posléze i ve třetím rozměru v souvislosti s vlastním rozvojem ISÚ v celém časovém
období (časové verze registrů a periody jejich aktualizace).
Ekologická banka dat ISÚ
Samotná Ekologická banka dat ISÚ (dále jen „EBD ISÚ“) vznikla v rámci prací na
informačním okruhu EKOPROGRAMu v letech 1981 – 1985 jako logická metastruktura ISÚ
(základní systémová struktura tedy pracovala se strukturou celého ISÚ). Byla zaměřená na
zabezpečování informací a jejich zpracování pro potřeby ekologie a hodnocení kvality
životního prostředí. Její funkce (tedy upravené druhové i cílové chování) byla vymezena
(Buček, Vlčková, 2011):



předmětem obsluhy – cílovým chováním: oblast ekologických informací a údajů
o životním prostředí;
způsobem obsluhy – druhovým chováním: vybrané metodiky hodnocení stavu území
vzhledem k určujícím veličinám ekologie a životního prostředí;
definicí vnějších systémových vazeb – identitou či etikou: interakce s ostatními
podobnými (komunikujícími) systémy.
EBD ISÚ cíleně propojovala údaje z „běžných“ registrů ISÚ za účelem získání informací
a znalostí o stavu životního prostředí a ekologické rovnováhy či stability na území ČR
i podněcovala k zakládání nových speciálních registrů dat. Víceméně tak sloužila jako
předchůdce později řešeného Jednotného informačního systému o životním prostředí
JISŽP, zřízeného již s ohledem na dobu nově vzniklým Ministerstvem životního prostředí ČR
a spravovaného tehdejším Českým ekologickým ústavem.
Acta Informatica Pragensia 75
Obr. 1. Datová báze ISÚ a EBD ISÚ. Ekologická banka dat ISÚ, situační zpráva
za rok 1987 – úkol č. 37 220 (Kopecká, 1987, s. 3).
2.3
Národní klimatický program ČR
Se současným stavem této instituce se lze seznámit na internetové adrese
http://www.chmi.cz/files/portal/docs/meteo/ok/nkp/hist.html,
kde
se
uvádí: „Světový
klimatický program byl ustaven v roce 1979. Národní klimatické programy začaly vznikat
postupně z iniciativy meteorologických služeb jednotlivých zemí za podpory WMO.
V Československu bylo několik pokusů ustavit NKP neúspěšných, poněvadž před rokem
1989 se nenašel žádný centrální orgán, který by byl ochoten program garantovat. V roce 1990
bylo zřízení NKP navrženo společně řediteli Českého a Slovenského hydrometeorologického
ústavu Federálnímu výboru pro životní prostředí. FVŽP souhlasil se zřízením programu a
schválil vyhlášení čs. účasti v NKP na 2. světové klimatické konferenci v Ženevě. … NKP
byl v letech 1991–1992 financován z Programu péče o životní prostředí, a to cestou Českého
hydrometeorologického ústavu. V listopadu 1992 bylo založeno sdružení právnických osob,
jehož zakládajícími členy se stalo 12 organizací zabývajících se v ČR problematikou
klimatického systému a jeho ochrany. Byly to ústavy Akademie věd České republiky, katedry
vysokých škol a všechny profesionální meteorologické instituce.“
První variantou poskytnutých údajů o klimatu ČR pro model, jímž se dále zabývá tento
příspěvek, byly výsledky scénářů klimatických změn, získané právě v rámci tohoto Národního
klimatického programu ČR. Tyto scénáře vznikly jako dílčí výstup řešení úkolu „Posun
76
Vlčková
lesních vegetačních stupňů v České republice s regionálním scénářem klimatické změny“ za
rok 1993 (podrobněji dále v 4.1.1.).
3
3.1
Systémová koncepce modelu
„Rich picture“ modelu – struktura zkoumaného objektu
Základní (systémové) schéma modelu je možné ilustrovat následujícím orientovaným grafem
(konceptuálním modelem), mj. uvádějícím odkaz na jednotlivé vstupní podněty, zdroje
a metodiky ISÚ, potažmo EBD ISÚ (Buček, Vlčková, 2011):
Obr. 1. Schéma modelu trendu pravděpodobných důsledků
globálních klimatických změn. Zdroj: Autorka.
3.2
3.2.1
Metodický postup modelování variant – udržení cílového chování
zkoumaného objektu
Produkční funkce a řády efektů – charakter identity systému
Podstata teorie produkčních funkcí (Vlček J., 2002) umožňuje pro obecně systémovou úlohu
zjištění a přiřazení funkcí k prvkům použít obecný předpis funkčního vztahu:
(2)
 , vjinémtvaru např.  i   j
i ∶
j 1 … n , j
kde ai  A množiny částí (prvků) celku (modelu) pro i=1, 2, .... n celkového počtu částí celku;
f je tvar funkce, schopnosti jednotlivého prvku;
x jsou argumenty funkce, resp. vstupy do schopnosti prvku;
y je hodnota výsledků schopnosti prvku.
Acta Informatica Pragensia 77
Ve smyslu rozvinuté definice obecného systému zřetězení těchto „jednotlivých“ funkcí
představují procesy na konkrétním objektu – modelu, resp. jejich množina reprezentuje
chování celého systému. Tu je možné v celkovém souhrnu nazvat produkční funkcí objektu –
v jiné terminologii chováním systému, vedoucím k určitému cíli = produkci, čili cílovým
chováním systému.
Diskuse hodné je též hledání i míry závislosti chování systému na uspořádání jeho vnitřní
struktury, tedy charakter vnitřní vrstvy identity systému. V případě analyzovaného modelu je
cílovým chováním udržení obsahu a výstupů prací a programových řešení k požadovanému
výsledku predikce pravděpodobného trendu důsledků globálních klimatických změn na
vegetačních kryt území. Ve smyslu analýzy vnitřní vrstvy identity modelu je konkretizace
teoretických pojmů (kompaktnost, kompatibilita, konzistence – Vlček, 2002) naplněna
prakticky programátorskou kvalitou provázanosti jednotlivých programových modulů,
předáváním zpracovaných datových souborů a vypovídací schopností získaných výstupů.
Z prostředí teorie řádů efektů je možné využít jejích specifických nástrojů pro dosahování
cílů, měřitelných určitými kritérii efektu výstupu produkčních funkcí (Vlček, 2002). Jimi je
svým způsobem pospána i míra složitosti samotné produkční funkce (cílového chování)
v projekci do „prostorového“ rozměru výsledného efektu (výstupu produkční funkce). Ten je
tak ovšem zároveň i charakteristikou vnější vrstvy identity, teoreticky sledované v rozměrech
frekvence a spolehlivosti komunikace systému s jeho okolím (Vlček, 2002):
 lokální (bod) – v tomto případě by model zůstal neřešitelným;
 úsečka (spolupráce) – původní východisko modelu, vycházející ze součinnosti
programátora (na straně EBD ISÚ (Buček, Vlčková, 2011)) a krajinného ekologa –
specialisty (na straně geobiocenologické vědy (Buček, Lacina, 1988; Kopecká, Buček,
Lacina, 1984));
 přímka (monopol) – postupně se prohlubující model, skládající se ze stále více
vnitřních, ovšem stále jednoznačně navazujících kroků;
 plocha (integrace) – propojení modelu, zejména jeho výstupů, do dalších prací a
analýz na straně odborné veřejnosti, kdy kromě jiného nastupuje právě otázka míry
frekvence a spolehlivosti projevu modelu;
 prostor (expanze) – rozšíření funkčností modelu nejen na původní geobiocenologický
obor (predikce trendů změn vegetační stupňovitosti), ale i do lesnictví, zemědělství
apod.;
 čas (pragmatický prostor) – v tomto řádu efektu nastupují časové varianty modelu –
viz dále 4. 2. výstupy modelu;
 sociální rozměr (selektivní prostor) – bylo by jistě možné odbočit z technických věd
do společenských zvažovat dopady případně nastalých hodnot výstupů modelu na
hospodářství a zaměstnanost obyvatel v Česku (změna podmínek hospodaření
v krajině, rekvalifikace pracovníků v souvisejících oborech aj.);
 globální rozměr (udržitelný rozvoj) – diskusi o případných vazbách na problém
udržitelného rozvoje obecně nechávám již zcela na expertech tohoto oboru, ovšem
návaznost úvah je zcela zřejmá.
3.2.2
Teorie o znalosti – nástin etiky systému
Posledním užitým metodickým nástrojem jsou prvky teorií o znalosti, a to členění typů dat
podle úrovně významu jejich pragmatické hodnoty (Vlček, 2002):
78
Vlčková
vstupní typ
syntaktický jazykový
konstrukt
údaj, data
údaj, data  informace
informace  efekty, výsledky
informace, znalosti  procesy
na systému
informace, znalosti,
odpovědnost, moudrost 
vnější soustava
význam
prosté, nijak neohodnocené
zobrazení originálu
funkce zhodnocení vstupních dat
uživatelem
funkce kombinace (tranzitivity,
odvozování)
ohodnocení kvality výsledné
znalosti
míra účelnosti, potřebnosti
výsledku
výstupní typ
údaj, data
informace
znalosti
odpovědnost,
zkušenost
moudrost
odůvodnění výsledku
víra
Tab. 1. Pragmatické typy dat v teorii znalosti. (Vlček, 2002)
V souvislosti s analýzou diskutovaného modelu lze samozřejmě zvažovat základní otázku
etiky systému (Vlček, 2002): „Jak moc je dobré, že…“, je realizován model s takovou
otázkou (pravděpodobné trendy dopadů globálních klimatických změn), že se užívají ty
datové zdroje, které se užívají (je vstup dat zvolen správně? jak úplně? apod.); dále i třeba kde
se řešitelé nacházejí v té které fázi ve smyslu pragmatické hodnoty dat, čili kdy jde o práci
s daty, s informacemi, kdy a zda jsou vytvářeny jaké nové znalosti, s jakou odpovědností jsou
formulovány a dále šířeny, přinášejí nějakou míru moudrosti a nehrozí nebezpečí, že se stanou
pouhou (slepou) vírou… ? – všechny tyto úvahy se však nacházejí již na (měkkém) rozhraní
technických a společenských věd, a proto je zde záměrně dále nerozebírám.
3.2.3
Aplikace užitých speciálních teorií – obor kompetencí systému
Pro další úvahy ohledně kompetencí, schopností, snad i ve smyslu zvláštních oprávnění
analyzovaného modelu tedy vycházím z průběžných závěrů předcházející diskuse (Vlčková,
2010, Vlčková, 2011a; Vlčková, 2011b):



aktuální časoprostor existuje v určitém řádu efektu = (životní) prostředí, zájmové
území, environment, udržitelnost jeho aktuálních vlastností;
jedná se o hledání nástroje, umožňujícího v časoprostoru modelování a prognózování
produkčních funkcí s ohledem na udržitelný rozvoj;
budiž tedy užit (na velmi hrubé rozlišovací úrovni) systémový model území
v základním tvaru produkční funkce:
(3)
kde argumenty x – rozpoznané prvky území vybavené příslušnou databází – (geo)data
funkční předpis f – rozpoznané vztahy mezi nimi a jejich parametry, jakož i časové
návaznosti událostí a změn stavů, jinak řečeno formulace
modelovaných či prognózovaných územních jevů pro strategické
rozhodování – (geo)informace
výsledek y – získaná (geo)znalost
Troufale lze tedy provést přepis základního, „nekonkretizovaného“ tvaru produkční funkce
systémového modelu území do tvaru:
č í
Z odkazu na 3.1. „Rich picture“ modelu tedy vyplývá, že:
(4)
Acta Informatica Pragensia 79

samotnými geodaty jsou argumenty x:
o údaje o klimatu
o data registru biogeografie aj. z EBD ISÚ

geoinformacemi tedy lze rozumět postup jejich zpracování ve smyslu:
y
f údaje oklimatu; registr biogeografie a další součásti EBDISÚ,
dalšízemědělskéapod. charakteristiky katastrálních území
(5)
o čili přiřazení klimatických charakteristik v jednotlivých časových horizontech
k samotným katastrálním územím, doprovázeným zmíněnými ekologickými
charakteristikami, a určení jejich reálné vzájemné závislosti ve výchozím
časovém horizontu

geoznalostí se stává výstup příslušné produkční funkce v řádu v nejvyšším řádu
efektu:
závislostmezi hodnotami klimatických veličin
ageobiocenologických charakteristik
(6)
údajeoklimatu; geobiocenologické, zemědělské aj. charakteristiky katastrálníchúzemí
o čili výstupní variantní model pravděpodobného trendu posunu vegetační
stupňovitosti a hodnot navázaných klasifikací (podmínky pro pěstování dřevin
či zemědělských plodin atd. podle použitých geodat ve vstupním argumentu)
3.3
Algoritmizace úlohy – druhové chování zkoumaného objektu
Samotné řešení modelu lze s odvoláním na složky definice obecného systému vnímat jako
vždy se opakující, robustní procesy na systémovém modelu – tedy na úrovni genetického
kódu systému, resp. jeho druhového chování. Tímto druhovým chováním je samotná
algoritmizace zadané úlohy – model trendu pravděpodobných důsledků globálních
klimatických změn – která předkládá možný trend změny konkrétního vegetačního stupně
v příslušné jednotce území podle zjištěné funkce závislosti vegetační stupňovitosti na
predikované změně hodnoty použité klimatické charakteristiky. Jedním ze vstupních
parametrů je samozřejmě i časový horizont použitého scénáře očekávané změny – viz (Buček,
Kopecká, 1994; Buček, Kopecká, 1993; Buček, Kopecká, 2001a; Buček, Kopecká, 2001b;
Buček, Kopecká, 2004; Buček, Vlčková, 2009g; Buček, Vlčková, 2010; Buček, Vlčková,
2011; Kopecká, Buček, 1997; Kopecká et al., 2013; Vlčková, Buček, Machar, 2014).
Samotný algoritmizační postup programování opakovatelných procesů (a v průběhu doby od
prvních variant řešení v r. 1994 až k aktuálním rozpracovaným verzím naposled z r. 2013)
znamenal účelově naprogramovat a respektem k variantnosti datových vstupů a výstupů
zautomatizovat specifické procedury, resp. procesy, teoreticky naplňující právě význam
druhového chování systému.
80
Vlčková
Obr. 2. Schéma postupu algoritmizace modelu trendu pravděpodobných důsledků
globálních klimatických změn. Zdroj: Autorka.
Krok 1 – pořízení dat či získání geodat, tedy podmnožina procesů na vstupu do systému,
znamená zajistit transformaci získaných tematických dat do tvaru a formátu, zpracovatelného
konkrétními nástroji technologie geografických informačních systémů (dále jen „GIS“).
V době „numerického GIS“ to znamenalo grafické, ručně pořízené papírové podklady (mapy
izolinií) dostat do numerického tvaru, zpracovatelného klasickými databázovými postupy na
počítači. V době „moderního GIS“, vybaveného již grafickým rozhraním, to znamenalo
paradoxně naopak dostat získaná numerická data z numerického výpočetního modelu do
grafického formátu pro software GIS (tematické vrstvy dat). (Barrile, Armocida, Di Capua,
2009; Bravo, Casals, Pascua, 2007)
Základem kroku 2 – přípravy dat či konstrukce geoinformačních vztahů je přiřazení
klimatických charakteristik v jednotlivých časových horizontech k vybraným jednotkám
území, a to k definičním bodům katastrálních území. Jako vztahový ukazatel byl použit
Langův dešťový faktor (LDF):
č íú
ů ě
á
áž
č í
°
(7)
Dalším krokem – krok 3 modelového postupu či získání geoznalosti – je přiřazení průměrné
roční teploty, průměrných ročních srážek a hodnoty Langova dešťového faktoru, vázaných na
kategorie vegetační stupňovitosti, ke katastrálním územím ČR. Samotný trend posunu
vegetační stupňovitosti – posléze vybraných typů území – je poté odvozován metodou
časoprostorových analogií právě za užití nalezených funkcí závislosti mezi vegetační
stupňovitostí a hodnotami klimatických charakteristik.
Krok 4 výstup či publikace geoznalosti obsahuje běžné procesy na rozhraní systému a jeho
okolí ve smyslu výstupu, tedy prezentaci získaných výsledků podle typu uživatele:
kartogramy a kartodiagramy, tabulkové bilance aj. Podle Tab. 1 – Pragmatické typy dat
v teorii znalosti (Vlček, 2002) by mohla následovat až tvorba (inženýrské) moudrosti.
Pokračováním v řetězu typů informací se lze poté dostat až k vytvoření určitých složek jakési
víry, jež si lze v dalším otočce spirály představit jako (geo)data, vstupující do nového procesu
hledání (geo)informací pro získávání dalších a dalších (geo)znalostí atd.
Acta Informatica Pragensia 81
4
4.1
Popis užitých vstupů a výstupů modelu – komunikace systému
s okolím
Zdroje dat
Zdroji dat (argumenty x produkční funkce modelu) pro vytváření (funkční předpis f produkční
funkce modelu) variant možností dopadu klimatických změn na vegetační kryt České
republiky (výstupy y produkční funkce modelu) (Vlčková, 2009; Vlčková, 2010; Vlčková,
2011a; Vlčková, 2011b) byly – viz výše – vytipovány jednak údaje o klimatu (měřené
hodnoty i predikční modely) od Českého hydrometeorologického ústavu, jednak data tzv.
registru biogeografie (Buček, Lacina, 1988; Kopecká, 1983-1994; Kopecká, Buček, Lacina,
1984), který obsahuje specifickou klasifikaci vegetační stupňovitosti, trofických a hydrických
řad. Prostřednictvím užitých prostorových jednotek – katastrálních území ČR – je lze posléze
propojovat s údaji o zemědělství apod. (zemědělské výrobní oblasti, přírodní stanoviště aj.)
s odkazem na někdejší Ekologickou banku dat ISÚ.
4.1.1
Klimatologické podklady
První variantou poskytnutých údajů a klimatu ČR byl regionální scénář klimatické změny na
území ČR, zpracovaný v rámci Národního klimatického programu ČR. Výsledkem
zpracování regionálního scénáře pro území České republiky byly mapy izolinií průměrných
ročních teplot a průměrných ročních srážek na území České republiky v roce 2010 a v roce
2030. Jako výchozí klimatická data byly použity údaje z 33 klimatických stanic na území ČR
za období let 1961 až 1990.
Obr. 3. Otisk zdrojového podkladu scénářů klimatických změn – predikce izolinií ročních
úhrnů srážek k roku 2030. Zdroj: Autorka.
Druhou variantou byly údaje ze „síťového modelu“ ČHMÚ (Zpřesnění dosavadních odhadů
dopadů klimatické změny v sektorech vodního hospodářství, zemědělství a lesnictví a návrhy
adaptačních opatření (V) – Závěrečná zpráva o řešení 2007–2011, Projekt VaV –
SP/1a6/108/07, ČHMÚ, Praha 2011), z nichž jsou použity údaje o ročních úhrnech srážek,
82
Vlčková
roční průměrné relativní vlhkosti vzduchu, roční průměr denní sumy globálního záření, roční
průměrná teplota vzduchu a roční průměrná rychlost větru. Užitá bodová síť je tvořena 131
body pravidelně rozmístěnými po celém území ČR v podobě lichoběžníkové sítě.
Obr. 4. Otisk pracovního podkladu scénářů klimatických změn – body sítě ČHMÚ, k nimž byly zpracovány
předpovědní scénáře hodnot vybraných klimatologických veličin. Zdroj: Autorka.
4.1.2
Registr biogeografie EBD ISÚ
Registr biogeografie vznikl původně pro EBD ISÚ (Buček, Lacina, 1988; Kopecká, 19831994; Kopecká, Buček, Lacina, 1984) jako specializovaná tematická databáze nad soustavou
katastrálních území. Cílem bylo zachytit geobiocenologické charakteristiky území ČR
s možností jejich propojování s dalšími údaji EBD ISÚ. Registr biogeografie tak uchovává
charakteristiku geobiocenologických vlastností za přibližně 13 000 polygonů beze zbytku
pokrývajících území ČR a víceméně vystihujících homogenitu ploch (původní tereziánský
katastr poměrně věrně vystihoval tehdejší přirozené hranice př. vodoteče, hranice lesa,
výrazné geomorfologické útvary apod.).
Katastrální území bylo vybráno jako poměrně stálá prostorová jednotka registru biogeografie
(Buček, Lacina, 1988; Kopecká, 1983-1994; Kopecká, Buček, Lacina, 1984;) především
proto, aby bylo možné hodnotit dynamiku změn v krajině s využitím těch periodicky
obnovovaných registrů EBD ISÚ, které tehdy charakterizovaly antropické tlaky. Ve všech
těchto registrech bylo základní popisovanou jednotkou právě katastrální území – viz Obr. 1
Struktura datové báze ISÚ a EBD ISÚ. Katastrální území jako jednotky členění území pro
účely evidence nemovitostí sice dnes již nejsou tak homogenní z hlediska přírodních
podmínek tak, jak při jejich prvním ustavení v tereziánském katastru, a mají i velmi různou
velikost a rozmanitý tvar. Avšak svojí „univerzálností“ použití při sběru a zpracování dat
a informací o území jsou prakticky vzato jedinou možností, jak vzájemně prostorově
nesourodé údaje sjednotit na nějakou společnou prostorovou základnu (srovnej se společným
Acta Informatica Pragensia 83
jmenovatelem v aritmetice), a tak umožnit vytváření právě odvozených informací a znalostí
o území.
Každé katastrální území je konkrétně charakterizováno údaji nadstavbových jednotek
geobiocenologické typizace krajiny ČR podle Zlatníka (Buček, Lacina, 1988). Vegetační
stupňovitost vyjadřuje souvislost sledů změn přirozené vegetace se změnami výškového
a expozičního klimatu. Změny vegetačních stupňů jsou funkcí gradientu klimatických
podmínek pod vlivem nadmořské výšky. Trofické řady vyjadřují rozdíly trvalých
ekologických podmínek z hlediska minerální síly a acidity půd. Hydrické řady vyjadřují
rozdíly vodního režimu půd.
Obr. 5. Náhled současného stavu rozložení vegetačních stupňů.
Zdroj: Autorka, Antonín Buček, Jan Lacina.
4.2
4.2.1
Výstupy modelu
Úvodní verze modelu
Vedoucí úvahou modelu je časová analogie vztahu klimatických charakteristik a vegetační
stupňovitosti. Pro variantní prognózu důsledků možných globálních změn klimatu na území
České republiky byl vypracován metodický postup prognózy změn vegetační stupňovitosti
s využitím údajů právě registru biogeografie (Buček, Kopecká, 1994), který je založen na
prognostické metodě časoprostorových analogií. Jedná se o model statický, neumožňující
předpovídat rychlost změn vegetace. Základem je jednak vztah současné vegetační
stupňovitosti a disponibilních charakteristik, jednak předpoklad, že uvažované změny
klimatických podmínek se projeví i v určitém trendu změn vegetační stupňovitosti.
84
Vlčková
Pro připojení klimatických veličin byl – viz 3.3. – použit Langův dešťový faktor, kombinující
do jedné hodnoty roční průměrný úhrn srážek a roční průměrnou teplotu.
Vymezující vlastností úvodní verze modelu bylo použití izolinií vstupních klimatických
charakteristik, promítnutých do soustavy jednotek katastrálních území, reprezentujících
základnu registru biogeografie.
Obr. 6. Náhled predikce stavu rozložení vegetačních stupňů zhruba k období let 2051 – 2070.
Zdroj: Autorka, Antonín Buček, Jan Lacina.
4.2.2
Současná verze modelu
V současné verzi modelu jsou ke katastrálním územím přiřazována data ze „síťového
modelu“ ČHMÚ. Tato data, nově modelovaná ČHMÚ v numerické podobě za bodové
objekty, bylo nutno z původních 131 bodů pravidelné sítě „rozprostřít“ do území tak, aby bylo
též možné je prostorově propojit s plochami katastrálních území, a získat tak vazbu na
geobiocenologické či zemědělské charakteristiky, přiřazované ke katastrálním územím. To je
provedeno analyticko geometrickou cestou konstrukce podstatně podrobnější sítě bodů
v území, do nichž jsou gradientní metodou přepočteny hodnoty klimatických veličin
příslušných blízkých sousedících původních 131 bodů modelové sítě dat z ČHMÚ.
Acta Informatica Pragensia 85
Obr. 7. Náhled predikce stavu území ČR z hlediska vhodnosti pěstování buku lesního zhruba
k období let 2051 – 2070. Zdroj: Autorka, Antonín Buček, Jan Lacina.
5
Záludnosti modelu – měkkost systému
Je nezbytné vnímat, že se jedná o systémově měkký model, umožňující charakterizovat
především pravděpodobné trendy důsledků globálních klimatických změn bez definitivního
stanovení konkrétních hodnot v jednotlivých krocích časové osy v predikovaném časovém
období. Příčinami jsou především „podrobnost“, vypovídací schopnost vstupních dat a jejich
věrohodnost; dále faktory, které – s odvoláním na metodologii měkkých systémů (Checkland,
Scholes, 1990) – jsou buď na dané úrovni podrobnosti nerozpoznatelné, nebo neměřitelné, či
nejasné ve svém přiřazení do substruktur modelu (Vlček, 2002); a koneckonců i vlastní
procesy (programové moduly) modelu též nelze označit za konečným způsobem vyřešené
(možná další větvení softwarového řešení, možné cyklické procesy, variantní způsoby
propojení údajů o klimatu ke geobiocenologickým charakteristikám apod.).
Potřebnou míru pravdivosti – „tvrdosti“ (jednoznačnou platnost přiřazení predikovaných
hodnot ke konkrétním časovým horizontům) by totiž musela obsahovat již vstupní data, která
jí však obdařena nejsou – z ničeho neplyne jednoznačný závěr, že změny hodnot
klimatických charakteristik budou probíhat tak rychle (či pomalu), jak napovídá
speciální výpočetní model Aladin ČHMÚ aj. Lze stavět pouze na jediném pevném,
neměnném faktu, a to na vztahu nadstavbových jednotek geobiocenologické klasifikace
a příslušejících průměrných hodnot klimatologických veličin.
Mezi (hard) záludnostmi, resp. procedurami, napomáhajícími určité míře „vytvrzení“ modelu
patří zmínit závěrem i některé dílčí procesy, provedené pouze jedinkrát na počátku
modelování, neopakujíce se při variantním provozování modelu. Např. úvodní hledání
86
Vlčková
funkční závislosti mezi klimatickými charakteristikami a nadstavbových jednotek
geobiocenologické klasifikace nevycházelo jednoduše z celostátních průměrů, ale postupně
z analýzy dat, zúžených na údaje jednotlivých specifických regionů, poté bylo 91 jednotlivých
regionální částí složeno do vztahového vzorce za celou ČR, který byl nadále používán jako
jeden z konstantních zdrojů (geo)dat.
6
Závěrem aktuální stav aplikací modelu – výstupy do okolí
V prvé řadě je možné diskusi nad systémovým charakterem modelování trendu důsledků
klimatických změn uzavřít mj. i konstatováním, že – svým způsobem paradoxně –
spolehlivost, pravdivost (resp. tvorbu znalostí, zkušeností atd.) predikcí a prognóz je
nezbytné hledat především v pravdivosti (informačních) vztahů, „nenapadnutelnost“
samotných vstupních „pouhých dat“ k vytváření věrohodných obrazů budoucích stavů nestačí.
Systémový závěr jinými slovy říká, že jakékoliv modelování je úkolem hledání vztahů,
zatímco užité konkrétní hodnoty proměnných jsou v podstatě jen nástrojem pro vytváření
variant.
Celý model byl využit v první řadě pro analýzu dat o podmínkách vhodnosti pro pěstování
dřevin, a to smrku ztepilého a buku lesního. V tomto případě byly uplatněny obě dvě verze
modelu. Tyto výstupy byly současně průběžně publikovány a mj. uplatněny i v Atlase
životního prostředí ČR.
V poslední době byl model aplikován na obdobné úlohy již z oboru zemědělství, a to na
cukrovou řepu (Kopecká et al., 2013), v běhu jsou práce na podobném tématu ohledně vinné
révy, jejichž výsledky se dokončují k publikaci v dohledné době v příslušných odborných
periodikách. Lesnické aplikace jsou též rozpracovány na téma výmladkových lesů, ovšem
vzhledem ke stavu rozpracovanosti této verze užití modelu se publikace chystá na pozdější
dobu po dokončení plánovaných úprav modelu.
Poděkování
Zcela nezbytné je závěrem připomenout samotné „okolí autorky“, bez něhož by tento model
a poté tento příspěvek nevznikl a jemuž patří řádné poděkování:
 bývalé Středisko R, oddělení programátorů (dnes informatiků) TERPLANu, Státního
ústavu pro územní plánování, odpovědné za vývoj a provoz ISÚ, resp. EBD ISÚ
 RNDr. Alois Kopecký, vedoucí Střediska R v letech 1985 – 1990
 Ing. Igor Míchal, CSc., odborný konceptor EBD ISÚ
 Doc. Ing. Antonín Buček, CSc., odborný garant registru biogeografie
 prof. Dr. Ing. Jaroslav Vlček, DrSc., významný český praktik i teoretik především
konstruktivní teorie systémů
 prof. Ing. Zdeněk Votruba, CSc., odborný garant systémových věd FD ČVUT
 RNDr. Radim Tolasz, CSc., jeden z autorů použitých prací ČHMÚ
 RNDr. Jan Pretel, CSc., jeden z autorů použitých prací ČHMÚ
 RNDr. Jaroslava Kalvová, CSc., jedna z autorů použitých prací NKP ČR
Seznam použitých zdrojů
Barrile, V., Armocida, G., Di Capua, F. (2009). GIS application with Artificial Intelligence Algorithms for an
Isoseismic Model. In Proceedings of the 2nd WSEAS International Conference on engineering mechanics.
Bravo, J.D., Casals, X.G., Pascua, I.P. (2007). GIS approach to the definition of capacity and generation ceilings
of renewable energy technologies. Energy Policy, 35(10), 4879–4892.
Acta Informatica Pragensia 87
Buček, A., Kopecká V. (1994). Využití registru biogeografie ISÚ pro prostorové vyhodnocení trendu změn
vegetačních stupňů ČR v důsledku globálních změn klimatu. In Závěrečná zpráva zakázky č. 94 057.
Praha: TERPLAN a.s.
Buček, A., Kopecká, V. (1993). Geobiocenologické podklady v informačním systému o území.
In Geobiocenologický výzkum lesů, výsledky a aplikace poznatků. Brno.
Buček, A., Kopecká, V. (2001a). Globální klimatické změny a vegetační stupně na území ČR. Veronica, časopis
ochránců přírody. 15(1).
Buček, A., Kopecká, V. (2001b). Scénáře důsledků vlivů globálních klimatických změn na přírodu České
republiky. In Tvář naší země – krajina domova. Praha: Česká komora architektů.
Buček, A., Kopecká, V. (2004). Možná globální změna klimatu a vegetační stupně. In Polehla, P. (ed)
Hodnocení stavu a vývoje lesních geobiocenóz. Brno.
Buček, A., Lacina, J. (1988). Aplikační systém registru biogeografie. Praha: Státní ústav pro územní plánování.
Buček, A., Vlčková, V. (2009a). Možný vliv globálních změn klimatu na pěstování buku lesního (Fagus
sylvatica) 1990 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 323, s. 320. Praha:
Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné
zahradnictví.
Buček, A., Vlčková, V. (2009b). Možný vliv globálních změn klimatu na pěstování buku lesního (Fagus
sylvatica) 2030 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 324, s. 320. Praha:
Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné
zahradnictví.
Buček, A., Vlčková, V. (2009c). Možný vliv globálních změn klimatu na pěstování buku lesního (Picea abies)
2030 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 326, s. 320. Praha: Ministerstvo
životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví.
Buček, A., Vlčková, V. (2009d). Možný vliv globálních změn klimatu na pěstování smrku ztepilého (Picea
abies) 1990 Mapa 1:2 000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 325, s. 320. Praha:
Ministerstvo životního prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné
zahradnictví.
Buček, A., Vlčková, V. (2009e). Možný vliv globálních změn klimatu na vegetační stupně 1990 Mapa 1:2
000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 327, s. 320. Praha: Ministerstvo životního
prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví.
Buček, A., Vlčková, V. (2009f). Možný vliv globálních změn klimatu na vegetační stupně 2030 Mapa 1:2
000 000. Atlas krajiny České republiky, 7 oddíl, mapa č. 328, s. 320. Praha: Ministerstvo životního
prostředí České republiky a Výzkumný ústav Silva Taroucy pro krajinu a okrasné zahradnictví.
Buček, A., Vlčková, V. (2009g). Scénář změn vegetační stupňovitosti na území České republiky: deset let poté.
Ochrana přírody, 64 (8–11).
Buček, A., Vlčková, V. (2010). Globální klimatická změna a prognóza změn vegetační stupňovitosti na území
České republiky. In International Conference in Landscape Ecology. Brno.
Buček, A., Vlčková, V. (2011). Soubor map s prognózou možných důsledků globálních klimatických změn na
přírodu České republiky. Acta Průhoniciana.
Checkland, P., Scholes, J. (1990). Soft Systems Methodology in Action. Toronto: John Wiley & Sons. ISBN 9780-471-98605-8.
Kopecká, V. (1983 – 1994). Ekologická banka dat ISÚ. In Roční situační zprávy pro Integrovaný informační
systém o území ISÚ. Praha: TERPLAN a.s., Státní ústav pro územní plánování.
Kopecká, V. a kol. (1992). Katalog datové báze ISÚ 1992. Praha: TERPLAN a.s.
Kopecká, V. a kol. (1993). Sekundární datová báze ISÚ. In Situační zpráva zakázky č. 93 007.
Praha: TERPLAN a.s.
Kopecká, V., Buček, A. (1997). Modelování možných důsledků globálních klimatických změn na území České
republiky. In Situační zpráva podúkolu DÚ 01 "Využití GIS a DPZ při výzkumu přírody a krajiny
88
Vlčková
chráněných území, ohrožených ekosystémů a neživé přírody za účelem zlepšení péče o toto území". Grant
VaV/610/3/96 "Územní souvislosti péče o krajinu". Praha.
Kopecká, V., Buček, A., Lacina, J. (1984). Zadávací projekt registru biogeografie. Praha: Státní ústav pro
územní plánování.
Kopecká, V., Machar, I., Buček, A., Kopecký, A. (2013). Vliv klimatických změn na možnosti pěstování
cukrové řepy. Listy cukrovarnické a řepařské, 129(11).
Vlček, J. (1986). Metody SI. Praha: SNTL.
Vlček, J. (1992). Inženýrská informatika. Praha: ČVUT.
Vlček, J. (2002). Systémové inženýrství. Praha: ČVUT.
Vlček, J., Petr, J. (1983). Analýza a projektování systémů. Praha: ČVUT.
Vlčková, V. (2009). Co je GIS. Nepublikovaná přednáška Vlčkova semináře. Praha: FD ČVUT.
Vlčková, V. (2010). Geoznalost a geoinformační inženýrství. Praha: ARCDATA.
Vlčková, V. (2011a). Geoinformační inženýrství – integrující disciplína systémového inženýrství
a (geo)informatiky. Systémová integrace, 8(2).
Vlčková, V. (2011b). Kudy kam geoinformačním inženýrstvím. Praha: ČVUT, Fakulta dopravní.
Vlčková, V., Buček, A., Machar, I. (2014). Aplikace geobiocenologie v hodnocení vlivů klimatických změn na
ekosystémy v krajině. In Výroční konference GEOBIO 2014 "Změny v současné struktuře a využívání
krajiny". Praha.
Acta Informatica Pragensia
3(1), 2014, 89–103, DOI: 10.18267/j.aip.37
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Model pre sledovanie objektu s prediktívnym
riadením zdrojov streamingu
v multikamerových systémoch
Object Tracking Model with Predictive Control of Streaming
Sources in Multicameras Systems
Dávid Cymbalák1, Miroslav Michalko1, František Jakab1
1 Laboratórium
počítačových sieti, Katedra počítačov a informatiky,
Fakulta elektrotechniky a informatiky, Technická univerzita v Košiciach
Letná 9, 042 00 Košice, Slovenská republika
[email protected]
Abstrakt: Práca sa zaoberá analýzou, porovnaním a návrhom prepojenia
streamingových, detekčných a sledovacích technológií v prostredí
multikamerových systémov. Cieľom je návrh prediktívneho sledovacieho systému,
ktorý v reálnom čase sleduje a trasuje objekt v záberoch z viacerých kamier a
realizuje streaming videa práve z jedného zdroja, v ktorom je objekt najlepšie
zobrazený. Na ohodnotenie jednotlivých zdrojov systému bola navrhnutá metrika
hodnotenia založená na aktuálnej polohe, veľkosti a miere spoľahlivosti detekcie
sledovaného objektu v zábere. V práci boli navrhnuté mechanizmy a spôsoby
predikcie hodnotenia jednotlivých zdrojov, predikcie nasledujúceho vysielaného
zdroja a spôsoby riadenia streamingu.
Kľúčové slová: Video streaming, Sledovanie objektu, Počítačové videnie,
Multikamerové systémy, Predikcia
Abstract: This work deals with the analysis, comparison and design of
interconnection between streaming, detection and tracking technologies in the
multi-camera environment. The goal is design of predictive tracking system with
ability to track object in real time across multiple cameras and also with ability to
stream video from one source with the best display of object. There was designed a
metric for rating each source of system, which is based on current position, size or
detection reliability of tracked object in the scene. It was also designed
mechanisms and methods for prediction of video source rating, for prediction next
streamed source and methods for stream control.
Keywords: Computer vision, Multicameras systems, Prediction methods for
stream control.
90
Cymbalák, Michalko, Jakab
1
Úvod
Problematika sledovania a trasovania objektu v záberoch z priestoru zachytávanom viacerými
kamerami je v posledných rokoch skúmaným odvetvím najmä bezpečnostných systémov.
Problémy vznikajúce pri detekcii objektu v rôznorodých záberoch rôznej farebnosti a z
rôznych uhlov boli predmetom viacerých výskumov. Dôraz sa však doposiaľ veľmi nekládol
na prepojenie detekčných technológií so streamingovými technológiami pre účely výstupného
vysielania v reálnom čase obsahujúceho aktuálny najlepší záber sledovaného objektu v rámci
multikamerového systému.
Problém výberu najlepšieho záberu na určitý objekt je možné rozdeliť na niekoľko pohľadov:
z pohľadu ostrosti záberu a kvalitatívnych zložiek prenášaného obrazu, z pohľadu veľkosti
objektu vzhľadom na záber, z pohľadu natočenia a uhla pohľadu na objektu alebo z pohľadu
pozície objektu vzhľadom na záber. Ak je žiaduce preniesť vždy iba najlepší záber na objekt
v reálnom čase s automatickým výberom záberov, je nutné uvažovať aj o probléme
oneskorenia medzi prenosom obrazu a reálnou polohou sledovaného objektu. Z tohto dôvodu
prichádza do úvahy predikcia výberu najlepšieho záberu a to na báze predpovede
nasledujúceho hodnotenia, predpovede trajektórie pohybu alebo kombinácie so zahrnutím
informácií o vzájomnej polohe kamier a konjunkcie záberov.
Cieľom práce prezentovanej v článku je teda vytvorenie prediktívneho sledovacieho systému,
ktorý by na základe periodického ohodnocovania všetkých zdrojov multikamerového systému
realizoval streaming práve jedného zdroja videa, ktorý bude mať v aktuálnom čase najvyššie
predikované ohodnotenie na základe novovytvorenej metriky. Idea je navrhnúť takú metriku,
ktorá určí také ohodnotenie jednotlivých zdrojov videa, ktoré bude závisle na aktuálnej
polohe, veľkosti a ďalších vybraných vlastnostiach sledovaného objektu v zábere. Na
vytvorenie návrhu jednotlivých mechanizmov navrhovaného systému je potrebné analyzovať
súčasné streamingové technológie pre účely zostavenie mechanizmu riadenia streamingu,
súčasné detekčné a sledovacie metódy v obraze pre účely zostavenia mechanizmu hodnotenia
zdroja v multikamerovom systéme a súčasné metódy predikcie a klasifikácie pre účely
zostavenia mechanizmu predikcie nasledujúceho pohybu objektu alebo nasledujúceho zdroja
vysielania.
2
Streamingové technológie
O’driscoll (2008) definoval streamingové technológie zabezpečujú prenos multimediálneho
obsahu prostredníctvom počítačovej siete vo forme vysielania zvuku, videa a doplnkového
obsahu v smere od poskytovateľa k príjemcovi. V priebehu posledných rokov sa
multimediálne aplikácie a streamingové technológie stali natoľko populárne, že generujú viac
ako polovicu celkového internetového toku. Napriek tomu Akhshabi, Begen a Dovrolis
(2011) vo svojom príspevku upozorňujú, že streamingové technológie prenášané IP sieťou sú
stále realizované bez nejakej rozšírenej špeciálnej podpory zo strany siete .
Medzi neodmysliteľnú súčasť streamingových technológií patria aj streamingové protokoly,
ktoré zabezpečujú prenos paketov s multimediálnym obsahom. Rozdelenie multimediálneho
obsahu na viacero paketov, kompresiu a inicializáciu prenosu ku koncovému klientovi,
zabezpečuje streamingový video server. Prenos multimediálneho obsahu medzi rôznymi
uzlami v sieti môže byť vykonaný rôznymi spôsobmi. Typ obsahu, ktorý sa prenáša, a
súvisiace sieťové podmienky zvyčajne stanovujú metódy používané pre komunikáciu. V
Acta InformaticaPragensia
91
prípade jednoduchého prenosu súboru cez siete s vyšším výskytom straty paketov je kladený
dôraz hlavne na spoľahlivosť doručenia. Pakety môžu byť chránené proti stratám so
zavedením redundancie alebo stratené pakety môžu byť obnovené opakovaním prenosom.
Pokiaľ dochádza k doručovaniu multimediálneho obsahu v reálnom čase, najväčší dôraz je
kladený na latenciu a efektívny prenos, kde môžu byť tolerované príležitostné straty.
Štruktúru paketov a algoritmy pre vysielanie a riadenie prenosu v reálnom čase v sieti
definujú streamingové protokoly. Podľa Begen, Akgul a Baugher (2011) sa súčasné
streamingové protokoly určené na prenos multimediálneho obsahu sa líšia v implementačných
detailov, ktoré ich rozdeľujú do dvoch hlavných kategórií: protokoly s princípom tlačenia
(PUSH) a protokoly s princípom ťahania (PULL). PUSH protokoly vytvoria spojenie medzi
serverom a klientom, ktoré je stále udržiavané a pakety sa vysielajú ku klientovi až pokiaľ sa
spojenie nepreruší vypršaním limitu alebo prerušením na strane klienta. Najznámejšie PUSH
protokoly sú RTSP, RTMP, RTP, 3GPP. V PULL protokoloch je klient aktívnym prvkom,
ktorý nadväzuje spojenie vo forme žiadostí o multimediálny obsah od streamingového
servera. Najznámejšie využitie PULL protokolov je v prípade progresívneho sťahovania
multimediálneho obsahu, kde klient posiela HTTP požiadavku na server a začína sťahovať
obsah hneď ako mu server na požiadavku odpovie.
Na základe porovnania výkonnosti v súčasnosti populárnych streamingových protokolov
HTTP a RTMP v prístupe realizovanom Mizerákom (2010) bol zistený rozdiel pri nasadení v
trvaní spracovania požiadavky serverom. V tomto prípade bola efektivita protokolu RTMP
niekoľko násobne väčšia ako HTTP (Obr. 1), avšak výsledky sa môžu líšiť v prípade
nasadenia protokolu v inom type aplikácií.
Obr. 1. Porovnanie výkonnosti protokolov HTTP a RTMP v prístupe Mizeráka (2010).
3
Sledovanie objektu vo videu
Detekcia objektu v obraze slúži na rozpoznanie a klasifikáciu sledovaného objektu a na
určenie jeho vlastností ako je veľkosť, natočenie ale aj poloha. Na rozpoznanie objektu v
obraze je potrebné obraz rozdeliť na segmenty, redukovať málo významné časti obrazu,
92
Cymbalák, Michalko, Jakab
respektíve extrahovať významné časti obrazu. Redukcia alebo extrakcia prvkov v obraze sa
môže realizovať predspracovaním formou aplikácie filtrov obrazu a popisom obrazu na
základe príznakov.
Z hľadiska sledovania objektu vo videu je dôležité realizovať detekciu objektu na sérií
vybraných časovo odstupňovaných snímok daného videa. V každej spracovanej snímke, kde
je po detekcii objekt rozpoznaný, sa vypočíta jeho poloha vzhľadom na záber snímania. Wang
et al. (2011) definuje charakter pohybu objektu ako sériu údajov o polohe, či už vo forme
postupnosti bodov so súradnicami alebo vo forme funkcie. Detekcia pohybujúcich sa objektov
vo videu môže byť realizovaná na základe odfiltrovania pozadia. Odfiltrovanie pozadia na
základe farebnosti alebo gradientu sa môže realizovať na úrovni pixelu, regiónu obrazu alebo
celej snímky. Metódy, ktoré sledujú odchýlky v jednotlivých snímkach videa musia čeliť
rôznym problémom, ktoré sa vyskytujú pri snímaní realistického prostredia: postupné alebo
náhle zmeny osvetlenia, nízka miera farebnej odlíšiteľnosti sledovaného objektu od
prostredia, neželané tiene objektu, zmena pozadia sledovaného objektu alebo neustály pohyb
objektu aj pri inicializácií detekcie. Všetky tieto faktory ovplyvňujú úspešnosť rozpoznania
objektu vo videu a preto je vhodné použitie takzvaných učiacich algoritmov, ktoré budú
priebežne sledovať zmeny na sledovanom objekte a dopĺňať modelový vzor, podľa ktorého sa
objekt detekuje. Typický sledovací systém je zložený z troch komponentov: reprezentácia
objektu, dynamický model a vyhľadávací mechanizmus. Objekt môže byť reprezentovaný
buď holistickým deskriptorom ako je farebný histogram a hodnota úrovne jasu pixelu, alebo
môže byť reprezentovaný lokálnym deskriptorom ako je lokálny histogram a informácia o
farebnosti. Dynamický model je zvyčajne používaný na zjednodušenie výpočtovej zložitosti
pri sledovaní objektu. Vyhľadávací mechanizmus slúži na optimalizáciu samotného
sledovania objektu a môže využívať deterministické aj stochastické metódy. Dôležitým
prvkom pri sledovacích metódach je pohybový model, ktorý môže vyjadrovať napríklad
posuvný pohyb, transformáciu na základe podobnosti objektov alebo afinnú transformáciu.
Medzi súčasné moderné metódy používané pri sledovaní objektov v reálnom čase patria:
inkrementálne vizuálne sledovanie (IVT), ktorý bližsie popisuje Ross et al. (2008), rozptýlené
pomerné sledovanie (VRT) opísané Collinsom, Liuom a Leordeanu (2005), fragmentové
sledovanie (FragT) opísané Adamom, Rivlinom a Shimshoniom (2006), posilnené sledovanie
v reálnom čase (BoostT) popísné Grabnerom a Bischofom (2006). Sledovanie dohľadom
Gong et al. (2012) možno rozdeliť na: čiastočný dohľad (SemiT) opísané Grabnerom,
Leistnerom a Bischofom (2008), alebo rozšíreným dohľadom (BeSemiT) popísaným
v prístopoch Staldera, Grabnera a Van Goola (2009). Ďalšie metódy ako Tracker (L1T)
nasadený Meiom a Lingom (2009), sledovanie so schopnosťou viac-inštančného učenia
(MIL) definované Babenkom, Yangom a Belongieom (2009), algoritmus vizuálnej sledovacej
dekompozície (VTD) opísaný Kwonom a Leeom (2010) a metóda sledovania a detekcie so
schopnosťou učenia (TLD) vytvorená Kalalom, Matasom a Mikolajczykom (2010), ktorá je aj
podľa nasledovných výskumov Kalala , Mikolajczyka a Matasa (2012) považovaná za vysoko
spoľahlivú a použiteľnú pre rozmanité typy vzorov sledovania. Spoľahlivosť a funkčnosť
týchto algoritmov je možné overiť pomocou meraní úspešnosti udržania detekcie sledovaného
objektu (Tab. 1) alebo pomocou sledovania chybného posunu stredovej polohy sledovaného
objektu. Presnosť a spoľahlivosť sledovacieho algoritmu je možné ovplyvniť viacerými
optimalizačnými metódami a úpravami podľa prístupu použitia daného algoritmu. Napríklad
sledovanie tváre človeka si bude žiadať pokročilejšie techniky najmä z dôvodu zložitosti
scény s viacerými tvárami, kde je podľa Zhang a Gomez (2013) nutné aby sa vzor pre
sledovanie nezamieňal a neučil podobu ostatných tvári v scéne. Pri sledovaní objektu
v multikamerovom prostredí je nutné uvažovať o prístupoch distribuovaného modelu
sledovania, ktorý sa podľa Schrader et al. (2012) bude učiť vzor pre sledovanie z viacerých
Acta InformaticaPragensia
93
uzlov systému. Pri sledovaní objektov, ktoré menia náhle smer alebo sa pohybujú vyššími
rýchlosťami vzhľadom na záber je vhodné uvažovať o nasadení hlbokých neurónových sieti
na sledovací algoritmus podobne ako definoval vo svojom prístupe Jin et al. (2013).
Vzorka videa
IVT
VRT
FragT
BoostT
SemiT
BeSemiT
L1T
MILT
VTD
TLD
Animácia 1
45
11
57
45
56
3
79
99
50
94
21
12
21
31
12
72
8
2
37
20
1
88
51
9
3
21
13
77
10
2
77
8
44
14
21
22
85
29
18
46
3
12
44
10
16
78
8
24
37
23
5
20
96
91
85
17
11
24
26
44
36
11
26
100
27
8
16
96
88
58
66
14
13
76
12
46
11
28
95
37
5
72
63
88
51
83
11
5
91
30
36
51
35
39
100
27
7
99
29
65
24
39
9
29
42
68
8
41
5
23
88
47
99
95
89
24
12
44
26
30
79
20
72
33
99
96
71
88
96
57
14
10
32
36
40
86
70
61
43
36
8
56
99
95
81
72
11
13
57
28
42.40
27.60
29.93
39.27
43.13
47.73
42.07
46.60
56.20
54.40
Animácia 2
Interiér
Šport 1
Koncert 1
Koncert 2
Šport 2
Skákavý pohyb
Auto
Otáčanie hlavy
Ľudia na ulici
Ľudia v budove
Mikročip
Animácia 3
Exteriér
Priemer
Tab. 1. Úspešnosť detekcie sledovacích algoritmov podľa Wang et al. (2011).
3.1
3.1.1
Knižnice počítačového videnia
OpenCV
OpenCV (Open Source Computer Vision) je multiplatformová knižnica určená
k programovaniu aplikácií počítačového videnia. OpenCV obsahuje funkcie pre spracovanie
obrazu v reálnom čase, transformácie obrazu, analýzu videa, kalibráciu kamier, rekonštrukciu
3D obrazu, detekciu a sledovanie objektov, strojové učenie, multidimenzionálne hľadanie
a rôzne doplnky pre tvorbu rozšírených grafických prostredí. Podľa Bradskiho a Kaehlera
(2008) je zaujímavou možnosťou využitie výkonu grafickej karty pri realizácii počítačového
videnia. V posledných verziách táto knižnica disponuje rozhraniami pre C++, C, Python
a Java a je použiteľná aj v mobilných systémoch Android a iOS.
3.1.2
FastCV
Knižnica počítačového videnia FastCV bola vyvíjaná firmou Qualcomm (2012), neskôr voľne
sprístupnená. Medzi jej hlavné prednosti patria: funkcie pre spracovanie a transformáciu
obrazu, detekcia, sledovanie, rozpoznávanie, 3D rekonštrukcia, funkcie pre využitie
v rozšírenej realite, segmentácia, vyhľadávanie a vyspelý manažment pamäte. FastCV je
primárne určené pre ARM platformy mobilných zariadení, kde dosahuje výrazne efektívnejšie
a rýchlejšie spracovanie obrazu ako konkurenčné knižnice.
94
Cymbalák, Michalko, Jakab
Obr. 2. Skúšobná aplikácia a zaťaženie při OpenCV vs FastCV s prístupom od Gravdala (2012).
4
Návrh hodnotiacej metriky v multikamerovom systéme
Pre účely spracovania informácií o vlastnostiach sledovaného objektu v zábere kamery v čase
t je dôležité poznať jeho aktuálne polohové súradnice x a y vzhľadom na záber, jeho výšku h
a šírku w v zábere (Obr. 3) ale aj hodnotu dôveryhodnosti detekcie objektu d. Stav objektu
O v čase t pre uzol multikamerového systému n sa môže vyjadriť ako vektor:
, , , ,
(1)
Hodnoty obsiahnuté v
budú slúžiť na výpočet metriky a porovnávanie medzi jednotlivými
uzlami v multikamerovom systéme. Matica tvorená vektormi ,
...
bude slúžiť pre
výpočet predikcie metriky v čase t+1 na základe k predchádzajúcich stavov.
Acta InformaticaPragensia
95
Obr. 3. Detekcia polohy a veľkosti objektov v čase t.
Pre získanie aktuálnych informácií o polohe a vlastnostiach objektu bol v rámci riešenia
využitý algoritmus TLD a jeho implementácie openTLD. Výstup informácií o polohe objektu
je možné získať priamo z výstupného súboru openTLD aplikácie, ktorý sa priebežne dopĺňa.
Každý riadok výstupu ma tvar F X Y W H D, kde F je poradie sledovanej snímky, X a Y je
aktuálna horizontálna a vertikálna pozícia kotviaceho pixelu sledovaného objektu, W a H je
pixelová šírka a výška sledovaného objektu a D je hodnota dôveryhodnosti detekcie, ktorá
určuje na koľko percent je sledovaný objekt zhodný zo zdrojom. Ukážka výstupu sledovania
OpenTLD C++ aplikácie s informáciami o polohe, veľkosti a dôveryhodnosti detekcie:
F 489 490 491 492 493 X NaN 63 64 64 64 Y NaN 176 186 186 184 W NaN 75 75 75 75 H NaN 59 59 59 59 D 0.000000 0.748394 0.651912 0.620531 0.613741 Obr. 4. Experimentálne sledovanie objektov prostredníctvom implementácie OpenTLD pre Unix a Android.
Pre účely porovnávania medzi jednotlivými uzlami systému a na ohodnotenie zdrojov videa
na základe informácií o polohových vlastnostiach sledovaného objektu, je potrebné zaviesť
hodnotiacu metriku, ktorá ohodnotí každý zdroj samostatne. Samotné hodnotenie by mohlo
spočívať z troch zložiek: primárna zložka s polohou objektu vzhľadom na záber (Mp),
96
Cymbalák, Michalko, Jakab
sekundárna zložka s veľkosťou objektu vzhľadom na záber (Mv) a terciálna zložka
s dôveryhodnosťou detekcia podľa vzoru (Md).
Primárna polohová zložka navrhovanej metriky by mala vytvárať hodnotenie na základe
aktuálnej polohy kotviaceho bodu sledovaného objektu v zábere. Záber je potrebné rozdeliť
na zóny, ktoré budú reprezentovať číselné hodnotenie. Na základe aktuálnych súradníc x a y
bodu objektu sa výpočtom určí, v ktorej zóne bod leží a aké hodnotenie mu prislúcha.
Jednotlivé zóny môžu mať tvar sústredných elíps alebo obsahovať okrajové zóny, ktoré by
určovali smer odchodu alebo príchodu objektu zo záberu. Z hľadiska optimálnej výstupnej
kompozície záberu je vhodné, aby objekt ležal čo najbližšie k zlatému rezu záberu a teda
rozdelenia zón bolo odvodené z Fibonacciho špirály (Obr. 5).
Obr. 5. Návrh zón záberu pre uzol systému s využitím optimálnej kompozície zlatého rezu.
Finálna metrika zdroja n v čase t pozostávajúca zo zložiek Mp (hodnotenie polohy), Mv
(hodnotenie veľkosti), Md (hodnotenie dôveryhodnosti) by sa mohla vyjadriť vo výslednom
tvare:
∗
(2)
Kde
je celé číslo udávajúce číslo zóny detekcie v čase t, zložka
udáva v tvare
1, pomer šírky wo sledovaného objektu k šírke celkového záberu wz v čase
desatinného
t:
(3)
Zložka
udáva pomer dôveryhodnosti v tvare desatinného čísla
1, ktoré definuje
percentuálnu zhodnosť sledovaného objektu so šablónou vzoru určenej k detekcii. Na základe
pravidelného vyhodnocovania jednotlivých zdrojov hodnotiacou metrikou sa v čase t získa
vektor hodnotenia všetkých n zdrojov v systéme:
,
Po výpočte maxima
, …
(4)
výstupných hodnotení n zdrojov v čase t sa získa poradie zdroja
k, ktoré určuje, ktorý zdroj videa sa má aktuálne vziať ako výstupný zdroj pre streaming
videa.
Acta InformaticaPragensia
97
Pre optimalizáciu časového oneskorenia medzi zistením zdroja s najvyšším ohodnotením
a finálnym zobrazením výstupného zdroja videa u príjemcu je vhodné zaviesť predikciu
ohodnotenia, ktorá by mohla inicializovať v čase t prepnutie zdroja videa na zdroj, ktorý by
mal v čase t+1 získať najvyššie hodnotenie. V ideálnych podmienkach by tento prístup mohol
zabezpečiť prepnutie zdroja ešte pred príchodom objektu do záberu a teda vymazať rozdiel
medzi inicializáciou zmeny zdroja streamingu a skutočnou polohou sledovaného objektu
v danom zábere.
Predikčné mechanizmy na odhadnutie nasledujúceho ohodnotenia zdrojov by sa do celkového
návrhu mohli integrovať buď globálne a to medzi mechanizmus výpočtu hodnotiacej metriky
a riadiaci mechanizmus (Obr. 6). V tomto prípade by predikčný mechanizmus vzal do úvahy
maticu obsahujúcu
vektory k predchádzajúcich hodnotení (
) jednotlivých n
zdrojov:
⋯
⋱
⋯
⋮ ⋮
(5)
⋮
Na základe tejto matice
by globálny predikčný mechanizmus vytvoril nový predikovaný
vektor hodnotení obsahujúci jednotlivé predikované hodnotenia uzlov systému pre n zdrojov
v čase t+1:
,
(6)
, …
Obr. 6. Návrh umiestnenia globálneho predikčného mechanizmu.
Ďalším spôsobom je možné predikčné mechanizmy integrovať na lokálnej úrovni medzi
detekčný mechanizmus a mechanizmus výpočtu hodnotiacej metriky (Obr. 7). Pri tomto
spôsobe by každý lokálny predikčný mechanizmus vzal do úvahy
maticu obsahujúcu
vektory k predchádzajúcich vlastností objektu (súradnice x a y , rozmery w a h
a dôveryhodnosť d):
⋮ ⋮
⋮ ⋮
⋮
(7)
98
Cymbalák, Michalko, Jakab
Na základe
sa vytvorí lokálne pre každý zdroj n nový vektor obsahujúci predikované
súradnice, veľkosť a dôveryhodnosť v čase t+1:
,
,
,
,
(8)
Obr. 7. Návrh umiestnenia lokálnych predikčných mechanizmov.
Predikčné mechanizmy na lokálnej úrovni by mohli byť založené aj na metódach
predikovania trajektórie pohybu podľa predchádzajúcich súradníc ako sú Kalmanov filter
alebo rozšírený Kalmanov filter. Kalmanov filter (KF) sa používa na predikovanie
nasledujúcej polohy na základe opisu pohybu poslednej pohybovej sekcie. Funk (2003)
definuje, že model Kalmanovho filtra potrebuje poznať reprezentáciu sledovaného objektu
v stavovom ponímaný. Alternatívnym prístupom pre zvýšenie presnosti predikcie je použitie
rozšíreného Kalmanovho filtra (EKF), v ktorom funkcie stavu môžu byť aj v nelineárnej
podobe. Presnosť EKF je použiteľná najmä pri problematických pohyboch s náhlou zmenou
smeru pohybu sledovaného objektu (Obr. 8 ).
Acta InformaticaPragensia
99
Obr. 8. Presnosť predikcie s využitím KF a EKF pri náhlych zmenách
v prístupe Cuevasa , Zaldivara a Rojasa (2005).
5
Aplikácia návrhu a možnosti využitia
V súčasnosti je navrhovaný systém v experimentálnej prevádzke a pripravený testovať zmeny
v definícií metriky a v použití predikčných metód. Aplikácia riešenia pozostáva z prepojenie
softvérového mixu s vytvoreným API, ktoré zabezpečuje prepínanie zdrojov streamingu
v závislosti od informácií doručovaných mechanizmom pre výpočet metriky, ktorý vzchádza
z lokálnych inštancií openTLD aplikácií. Táto experimentálna zostava umožňuje integrovať
do systému okrem priamych káblových vstupov bežných kamier s nízkym oneskorením aj
HTTP alebo RTP stream z IP kamier alebo mobilných streamingových aplikácií (Obr. 9).
100 Cymbalák, Michalko, Jakab
Obr. 9. Experimentálne zapojenie systému v súčasnom stave.
Využitie navrhovaného systému by mohlo byť široké, či už pri bezpečnostných systémoch,
športových podujatiach, dopravnom dispečingu, vzdelávacích konferenciách alebo nasadení
na monitorovanie výrobnej linky a podobne. Systém by mohol byť aplikovateľný na sústavu
IP kamier v sieti, na mobilné snímacie zariadenia alebo na priamo zapojené lokálne snímacie
zariadenia ako HD kamery a videomixážne pulty. Zaujímavou možnosťou je aplikovanie
navrhovaného systému do prostredia inteligentných mobilných telefónov s integrovanou
kamerou (Obr. 10).
Acta InformaticaPragensia 101
Obr. 10. Koncepcia využitia riešenia s mobilnými zariadeniami.
6
Záver
Práca sa v úvode venovala analýzou súčasných technológií a prístupov v oblasti prenosu
multimediálneho obsahu, detekčných a sledovacích mechanizmov pre multikamerové
systémy. Cieľom tejto analýzy bolo oboznámiť sa a porovnať jednotlivé metódy, technológie
a prístupy, s pomocou ktorých by bolo možné zostaviť prediktívny systém pre riadenie
streamingu na základe detekcie polohy sledovaného objektu v multikamerovom prostredí.
Základný návrh systému počíta s využitím viacerých alternatív aplikácie streamingových
technológií s rôznou pozíciou mechanizmu riadenia streamingu v rámci kompozície
multikamerového systému, streamingového servera a mechanizmu prehrávania videa. Z
hľadiska detekcie sa na základe porovnania jednotlivých algoritmov javil ako najspoľahlivejší
sledovací algoritmus TLD pre lokálnu detekciu objektu vo videu v rámci jednotlivých uzlov
systému. Výstup tohto algoritmu obsahujúci informácie o aktuálnej polohe sledovaného
objektu a ďalších je vlastnostiach je vhodný ako vstup pre navrhnutú metriku hodnotenia
jednotlivých zdrojov videa. Návrh systému taktiež predstavuje viacero spôsobov predikcie
nasledujúceho hodnotenia zdroja videa, predikcie nasledujúceho vysielaného zdroja alebo
predikcie očakávaného pohybu sledovaného objektu medzi jednotlivými uzlami
multikamerového systému. V budúcnosti je potrebné definovať a optimalizovať metódy
predikcie hodnotenia jednotlivých zdrojov, čo by malo spočívať v definovaní neurónovej
102 Cymbalák, Michalko, Jakab
siete, respektíve Bayesovho klasifikátora a následne porovnanie spoľahlivosti predikcie
v zostavenom riešení.
Ďalším zaujímavým riešením pre rozšírenie tejto problematiky by sa mohlo javiť posielanie
informácií o aktuálnej polohe a ďalších vlastnostiach sledovaného objektu formou pridania
dodatočných hlavičiek a úpravy vybraného streamingového protokolu. Z hľadiska nasadenia a
implementácie navrhovaného systému v prostredí mobilných zariadený by bolo potrebné
optimalizovať jednotlivé streamingové, detekčné a sledovacie mechanizmy tak, aby pre ich
spoľahlivú funkčnosť postačoval výkon inteligentného mobilného telefónu. Je však
predpoklad, že v blízkej budúcnosti dosiahnu mobilné zariadenia nových výkonových limitov,
ktoré nebudú mať problém s nasadením streamingového servera priamo na zariadenie, ktoré
by zároveň okrem posielania streamu objekt vo videu detekovalo, hodnotilo v reálnom čase
s veľmi krátkymi intervalmi výberu posudzovanej snímky videa.
Poďakovanie
Tento príspevok vznikol vďaka podpore v rámci operačného programu Výskum a vývoj, pre
projekt: Univerzitný vedecký park TECHNICOM pre inovačné aplikácie s podporou
znalostných technológií, kód ITMS: 26220220182, spolufinancovaný zo zdrojov Európskeho
fondu regionálneho rozvoja. Podporujeme výskumné aktivity na Slovensku/Projekt je
spolufinancovaný zo zdrojov EÚ.
Zoznam použitých zdrojov
Adam A., Rivlin E., Shimshoni I. (2006). Robust fragments-based tracking using the integral histogram. In
Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (pp. 798–805).
Akhshabi S., Begen A., Dovrolis C. (2011). An Experimental Evaluation of Rate-Adaptation Algorithms in
Adaptive Streaming over http. In MMSys'11, USA.
Babenko B., Yang M., Belongie S. (2009). Visual tracking with online multiple instance learning. In
Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (pp. 983–990).
Bradski G., Kaehler A. (2008). Learning OpenCV. Sebastopol: O'Reilly.
Begen A., Akgul T., Baugher M. (2011). Watching Video over the Web. Part I, Streaming Protocols, Cisco.
Collins R., Liu T., Leordeanu M. (2005) Online selection of discriminative tracking features. IEEE Transactions
on Pattern Analysis and Machine Intelligence, 27(10), 1631–1643.
Cuevas E., Zaldivar D., Rojas R. (2005). Kalman filter for vision tracking. FUDOCS, Technical Report B 05-12.
Funk N. (2003). A Study of the Kalman Filter applied to Visual Tracking. Project for CMPUT 652.
Gong, C. et al. (2012). The extended co-learning framework for robust object tracking. In Proceedings - IEEE
International Conference on Multimedia and Expo (pp. 398-403).
Grabner H., Bischof H. (2006). On-line boosting and vision. In Proceedings of IEEE Conference on Computer
Vision and Pattern Recognition (pp. 260–267).
Grabner H., Leistner C., Bischof H. (2008). Semi-supervised on-line boosting for robust tracking. In
Proceedings of European Conference on Computer Vision (pp. 234–247).
Gravdal E. (2012). Augumented Reality and Object Tracking for Mobile Devices. Trondheim: NTNU.
Jin, J. et al. (2013). Tracking with deep neural networks. In 47th Annual Conference on Information Sciences
and Systems, CISS 2013.
Kalal Z., Matas J., Mikolajczyk K. (2010). P-N learning: Bootstrapping binary classifiers by structural
constraints. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (pp. 49–56).
Kalal, Z., Mikolajczyk, K., Matas, J. (2012). Tracking-Learning-Detection. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 34 (7), 1409-1422.
Acta InformaticaPragensia 103
Kwon J., Lee K. (2010). Visual tracking decomposition. In Proceedings of IEEE Conference on Computer
Vision and Pattern Recognition (pp. 1269–1276).
Mei X., Ling H. (2009). Robust visual tracking using l1 minimization. In Proceedings of the IEEE International
Conference on Computer Vision (pp. 1436–1443).
Mizerák T. (2010). Protokoly pro komunikaci klientu na platforme Flash. Brno: MUNI.
O’Driscoll G. (2008). Next generation IPTV services and Technologies. Hoboken: Wiley.
Qualcomm Inc. (2012). FastCV Library 1.1.1. Retrieved from
https://developer.qualcomm.com/docs/fastcv/api/index.html.
Ross D. et al. (2008). Incremental learning for robust visual tracking. International Journal of Computer Vision
77(1), 125–141.
Schrader, S. et al. (2012). A distributed online learning tracking algorithm. In 12th International Conference on
Control, Automation, Robotics and Vision (pp. 1083-1088).
Stalder S., Grabner H., Van Gool A. (2009). Beyond semi-supervised tracking: Tracking should be as simple as
detection, but not simpler than recognition. In Proceedings of IEEE Workshop on Online Learning for
Computer Vision.
Wang Q. et al. (2011). An Experimental Comparison of Online Object Tracking Algorithms. In Proceedings of
SPIE: Image and Signal Processing Track.
Zhang , T., Gomez, H.M. (2013). Technology survey on video face tracking. In Proceedings of SPIE - The
International Society for Optical Engineering.
Acta Informatica Pragensia
3(1), 2014, 104–112, DOI: 10.18267/j.aip.38
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Approach to Hand Tracking and Gesture
Recognition Based on Depth-Sensing Cameras
and EMG Monitoring
Ondrej Kainz1, František Jakab1
1
Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics,
Technical University of Košice, Košice
Letná 9, 042 00 Košice, Slovakia
{ondrej.kainz, frantisek.jakab}@tuke.sk
Abstract: In this paper, a new approach for hand tracking and gesture recognition
based on the Leap Motion device and surface electromyography (SEMG) is
presented. The system is about to process the depth image information and the
electrical activity produced by skeletal muscles on forearm. The purpose of such
combination is enhancement in the gesture recognition rate. As a first we analyse
the conventional approaches toward hand tracking and gesture recognition and
present the results of various researches. Successive topic gives brief overview of
depth-sensing cameras with focus on Leap motion device where we test its
accuracy of fingers recognition. The vision-SEMG-based system is to be
potentially applicable to many areas of human computer interaction.
Keywords: Depth-sensing camera, electromyography, gesture recognition, hand
tracking, Leap Motion.
Acta Informatica Pragensia 105
1
Introduction
Contemporary technology allows us to transfer almost any component of the real world into
the digital form. Nature of such a component can be not only static but also dynamic, e.g.
whole body, arms or legs movement. Transfer to the digital form is only one essence of the
whole story. Another important step for machine (in our case personal computer) is to
recognize and identify an object. For purposes of motion tracking, device must be able to
sense the changes in real time; this is enabled by specific sensors dependent on used
technology.
Motion tracking offers the ability to control the device. Approaches towards control and the
advancement of their research have had virtually exponential nature. Modern sensors and
technological advancements enable us to create sophisticated sensors that are able to precisely
sense the environment and its changes. As we are part of this environment we are also subject
of sensor monitoring. Human limbs such as hands or whole body have been used as a tool for
control of machine through the recognition of specific patterns, as learnt by machine.
In the following chapters we present standard approaches towards hand tracking and gesture
recognition and propose a new approach realized by means of image processing and body
signals monitoring.
2
Hand tracking and gesture recognition
Gestures as such arise from a person's mental concept and are expressed through the motion
of arms and hands. These expressions are then observed and recognized by the spectator
(Pavlovic, Sharma, Huang, 1997). In our case the spectator is computational device that is
able to recognize gestures through specific pre-learnt models.
Two conventional approaches towards gesture recognition are free-hand tracking and
glove-based tracking. Both of these approaches have in common the need for specific
mathematical model. First approach, free-hand tracking, enables control without any
mechanical devices directly attached to user; the only input here is based on image processing
(Mazumdar, Talukdar, Sarma, 2013). Second approach, glove-based tracking, uses
mechanical device fixed on hand with sensors that track the movement. This kind of tracking
is not affected by surroundings and allows the usage of multiple sensors such as force sensor,
accelerometer, gyroscope or bend sensor.
As for the free-hand tracking Pavlovic, Sharma & Huang (1997) further define two main
models. First, 3D hand-based models are based on 3D description of hand. Further divided
into volumetric model, where hand/arm postures are analysed by synthesizing of 3D model of
human hand while its parameters are modulated until compliance with real human hand is
found, and skeletal model - comparable to volumetric model but this model deals with
reduced set of equivalent joint angle parameters together with segment lengths. 3D-based
model was used for sign language recognition by Mehrez & Jemni (2012) with recognition
rate of 98.5 using 900 ASL. Second, appearance-based models, are not directly derived from
3D description of hand but are rather based on display of hands in sequence of images. Great
numbers of such models use parameters that are derived from images in the templates such as
contours and edges, image moments or image eigenvectors.
3
Depth-sensing cameras
Hand gesture recognition has become widely implemented as one of the features offered to
customers for computer control. Software tools that come with these devices have predefined
106 Kainz, Jakab
tracking patterns for specific operating system. Specific tools that offer customization are
generally available for development.
Kinect by Microsoft is one of the most popular devices available on market among
developers. This device was primarily intended for X-Box 360 video game console, few
month after its release Microsoft announced Kinect for Windows. Kinect for Windows is a
depth sensing and RGB camera – specifically it consists of depth camera, RGB camera, IR
sensor, tilting motor and four microphones. Several tracking options are possible using
Kinect: skeleton, face and hand tracking (Jana, 2012). For further specifications see Tab. 1.
Due to its availability Kinect has become very popular in the area of research, mainly in the
field of robotics (Hernández-Lópeza et al., 2012) and human-computer interaction. Other
sorts of utilization were proposed as well – Changa, Chenb & Huang (2011) and GonzálezOrtega et al. (2014) pointed out possibility of its usage for physical rehabilitation to be
successful. A different – and for us more interesting – research is the one of Dominio,
Donadeo & Zanuttigh (2013) which resulted in hand gestures recognition using the extracted
depth data. Another analogous area of gesture recognition is sign language recognition –
several research papers dealing with this type of recognition provided effective and useful
results (Sun C. el al., 2013), (Verma, Aggarwal, Chandra, 2013).
Another successful product on the market that enables depth recognition is called Asus Xtion
PRO LIVE, depth-sensing and RGB camera. Jiang, Liu & Matsumaru (2012) proved the
ability of this device to recognize background and also hand in the real-time. Research
showed the inability to recognize proper multi-touch functionality. Haggag et al. (2013)
proved Kinect to be superior when compared to Xtion PRO. Identically to Kinect, it is a low
cost device, for further specifications see Tab. 1.
Designers of device called Leap Motion took another approach to depth sensing. Same as
above mentioned is Leap Motion also equipped with depth sensing camera; however no
additional features such as RGB camera or microphone are available. This device is also not
focused on skeletal or face tracking; its principal use is aimed towards hand tracking and
gesture recognition. Sabir et al. (2013) combined in their research Leap Motion with Kinect
and were able to provide enhanced tracking and with six degrees of freedom - three axes for
translation and the same for rotation, this research was aim to provide control for graphics
system. Many other depth-sensing cameras solution are available, such as Creative Senz3D or
SoftKinetic DS325, however both of these provide only small depth image size of QVGA
(320x240).
Distance (cm)
Field of view
(horizontal,
vertical, diagonal)
Sensor
Depth image size
Resolution
Programming
language support
Microsoft Kinect
40 - 350
57°, 43°
Asus Xtion PRO
80 - 350
58°, 45°, 70°
Leap Motion
7 - 25
140°
RGB, Depth,
Microphone
VGA (640x480)
RGB, Depth,
Microphone
VGA (640x480) : 30
fps,
QVGA (320x240):
60 fps
SXGA (1280x1024)
C++, C#, Java
Depth
SXGA− (1280 x 960)
C++, C#
VGA (640x480)
N/A
C++, C#, Java,
JavaScript, Python
Acta Informatica Pragensia 107
Dimensions (cm)
28 x 8 x 8
18 x 3.5 x 5
8x3x1
Tab. 1. Depth-sensing cameras comparison.
3.1
Hand tracking using Leap Motion
Mobility, price and distance interaction range were factors that led us to select Leap Motion
as a device to be tested for hand tracking purposes. Our focus was placed primary on accuracy
of the Leap Motion device - first for one hand and latter for both hands. Tests were conducted
in the laboratory environment under regular lightning conditions, such conditions are
expected for regular usage. No smudges or any other obstacles that might disrupt the
measurement were observed. For measurement was used official web tool Motion Dump from
the developer. Hands were in horizontal position in height of approx. 16 centimetres from
device, with interaction height set to just declared value. The goal of testing was to estimate
the accuracy of the device. Results were collected from over 1500 samples per one
measurement. As we can see from a Fig. 1 the best accuracy was achieved when one finger
was used tracking with accuracy rate of 96.34%. Minor change in accuracy was observed
when thumb was used for tracking. Minimum accuracy was achieved for the case of three
fingers tracking with thumb. Tracking of two hands had poorer tracking for all the fingers. It
should be noted that distance between fingers and position of hand and fingers, i.e. adduction
or abduction/flexion or extension, had great significance in recognition.
As demonstrated by Sabir el al. (2013) Leap Motion in combination with Kinect is suitable
for usage in a 3D environment however its long-term usage as a replacement for mouse or
keyboard is highly questionable. This device allows simple gesture recognition in default state
it is not suitable for complex tasks. Further research on specific types of its utilization is to be
conducted.
100,00%
Accuracy
90,00%
80,00%
70,00%
60,00%
50,00%
40,00%
1
2
3
4
5
Number of fingers
Without thumb
With thumb
Two hand recognition
Fig. 1. One hand vs two hand recognition comparison.
4
Surface electromyography in hand gesture recognition
Usage of depth-sensing cameras for detailed gesture recognition might be in some cases
troublesome or even impossible. Primary issue is recognition of specific hand positions and
recognition in non-laboratory environment. Usage of glove is more invasive and may be
108 Kainz, Jakab
complex for handling. Bearing in mind all just stated we propose innovative approach, which
combines depth-sensing cameras and EMG monitoring.
4.1
What is EMG?
A term EMG is known since the 1943 when introduced by Weddell et al. for the description
of clinical application – in this process the needle was used for the examination of skeletal
muscles (Katirii, 2007). Phenomena of electromechanical coupling in muscle is utilized, more
specifically deep invagination of muscle membrane inside the muscle cells enable conduction
of electrical impulses in skeletal and cardiac cells, these are called t-tubules. When muscle
contraction occurs it can be then graphically depicted as electromyogram and recoding is
realized using electromyograph (Kumar, Mital, 1996). EMG enables diagnosis of some
peripheral nervous system disorders. Traditional approach of EMG includes the usage of
needle inserted into the muscle to enable recording. Less invasive or completely non-invasive
approach is called surface electromyography (SEMG). Fig. 2 represents the difference
between intramuscular and surface EMG. Sensor may be attached to specific muscles to
monitor and provide capability for differentiation of the activity of the muscle. SEMG signal
is non-linear and short-time stationary.
Fig. 2. Surface vs Intramuscular EMG signal of medial gastrocnemius muscle
Source: Garcia, Vieira (2011)
4.2
Related work
Following section introduces current progress in research related to SEMG, its results were
taken into consideration during vision-SEMG-system development; focal point is
classification of recorded data. Luo, Wang, Ma (2006) used autoregressive model to describe
SEMG and utilized model coefficients in order to implement recognition of motion patterns –
as a classifier high-order neural network called Pi-Sigma is utilized. Focus of research was on
the movement recognition and as one of the conclusions authors pointed out that proper
position of electrodes placement play a very important role in the whole measurement
process. Zhaojie, Honghai (2014) utilized Fuzzy Gaussian Mixture Models (FGMMs) for
hand grasps and manipulation. Results of study show that as for the recognition rate (92.75
percent) these models outperform Gaussian Mixture Models and as likewise vector machine
(SVM). Combination of linear and nonlinear measurements while utilizing adaptive neuro-
Acta Informatica Pragensia 109
fuzzy inference system (ANFIS) was introduced by Gaoxiang et al. (2014) with pretty good
accuracy of 99.1 percent. Prototype for mobile device control was proposed and implemented
by Zhiyuan et al. (2014), this approach results with the accuracy of 95 percent while utilizing
Bayes linear classifier (BLC) and dynamic time wrappings (DTW).
5
Vision-SEMG-based system
Approach we take combines SEMG and depth-camera. Visual monitoring of hands realized,
as proposed, by Leap Motion sensor device that is directly connected to the computer. Main
drawback when using this device is requirement for a user to remain near the interaction zone,
i.e. near computer. Hand and fingers position or general gestures were using functions
available by Leap Motion API. Four disposable electrodes were utilized in SEMG monitoring,
with Arduino microcontroller used to record the signals. Arduino enabled us to utilize its
capabilities – we designed shield that was directly attached to microcontroller, this shield
serves as an amplifier of EMG signals and connects Arduino board to electrodes via 3.5 mm
jack. Electrodes were directly attached to a skin, conductive gel was used as to enhance
connection. All the processing of signal is accomplished on data processing machine, i.e.
personal computer.
Fig. 3. SEMG and Leap Motion.
Classification of specific patterns for SEMG monitoring is realized by utilization of neural
networks. For our system we selected Deep belief network (DBN). This network is type of
deep neural network with multi hidden layers connected together while using unsupervised
algorithm that trains the network layer after layer. Layer is using a restricted Boltzmann
110 Kainz, Jakab
machine (RBM). Training itself is carried on in unsupervised way. Future development will
focus on combination of DBN and hidden Markov model (HMM). As analysed by Zheng et
al. (2014) utilization of DBN shows fine accuracy, however the very same research concluded
better results while utilizing DBN-HMM. Research was focused on electroencephalography
(EEG) reading, while in our case we use it for EMG – nevertheless accuracy was analogical
as presented by authors. We have developed and tested rudimentary system with accuracy of
86 percent – hand gasp. When implemented together with depth camera accuracy of 95
percent was achieved. Both of these monitoring devices were first designed and tested
separately. Hand as detected by depth camera and signal from SEMG electrodes were
deployed as a whole system for hand gesture monitoring as depicted in Fig. 3. This system
may be used for tracking of one hand only.
When monitoring specific muscles determined hand or even fingers movement is enabling us
to track gestures, for instance for monitoring of forearm flexion or extension (Fig. 4).
Together with Leap Motion recognition rate is sufficient enough for monitoring of virtually
all gestures with high certainty. Monitoring of SEMG and visual tracking using Leap Motion
can be further used for other purposes of non-invasive hand tracking and gesture recognition,
e.g. use for sign language recognition or wireless machine control.
Fig. 4. Forearm flexor/extensor electrode placement with Leap Motion tracking.
6
Conclusion and future works
This study presented a new hand tracking approach for gesture recognition. This approach is
indented for human computer interaction using SEMG technique in combination with
visual-based tracking system with depth recognition. Monitoring is achieved through the hand
muscles EMG signals tracking and visual image detection of hand movement. Leap Motion
device proved ability to effectively recognize gestures, however issues with continuous finger
tracking and certain hand positions were observed. This system is supposed to overcome
shortcomings of solely visual-based system where tracking of hand is not always recognized
due obstacles – e.g. hand covered by hand. We expect utilization of SEMG system in many
areas. Next stage of project is to design a wireless armband that will include sensors for
SEMG monitoring, this might allow usage of solely SEMG device without the need of
utilizing Leap Motion. Another aim is to develop such device in accordance with WBAN
standard.
Acta Informatica Pragensia 111
Acknowledgement
Research described in the paper was supervised by Assoc. Prof. Frantisek Jakab, PhD.,
Computer Networks Laboratory at DCI FEEI TU in Košice. We support research activities in
Slovakia/This project is being co-financed by the European Union. Paper is the result of the
Project implementation: University Science Park TECHNICOM for Innovation Applications
Supported by Knowledge Technology, ITMS: 26220220182, supported by the Research &
Development Operational Programme funded by the ERDF.
References
Changa, Y.-J., Chenb, S.-F., Huang, J.-D. (2011). A Kinect-based system for physical rehabilitation: A pilot
study for young adults with motor disabilities. Research in Developmental Disabilities, 32(6), 2566–2570.
doi: j.ridd.2011.07.002
Dominio, F., Donadeo, M., Zanuttigh, P. (2013). Combining multiple depth-based descriptors for hand gesture
recognition. Pattern Recognition Letters, in press, doi: j.patrec.2013.10.010
Gaoxiang, O., Xiangyang, Z., Zhaojie, J., Honghai, L. (2014). Dynamical Characteristics of Surface EMG
Signals of Hand Grasps via Recurrence Plot. IEEE Journal of Biomedical and Health Informatics, 18(1),
257–265. doi: 10.1109/JBHI.2013.2261311.
Garcia M.A. C.,Vieira T.M. M. (2011) Surface electromyography: Why, when and how to use it. Revista
Andaluza de Medicina del Deporte, 10(6), 17-28
González-Ortega, D., Díaz-Pernas, F.J., Martínez-Zarzuela, M., Antón-Rodríguez, M. (2014). A Kinect-based
system for cognitive rehabilitation exercises monitoring. Computer Methods and Programs in
Biomedicine, 113(2), 620–631. doi: j.cmpb.2013.10.014
Haggag, H., Hossny, M., Filippidis, D., Creighton, D., Nahavandi, S., Puri, V. (2013). Measuring depth accuracy
in RGBD cameras. 7th International Conference on Signal Processing and Communication Systems (pp.
1-7). doi: 10.1109/ICSPCS.2013.6723971
Hernández-Lópeza, J.-J., Quintanilla-Olveraa, A.-L., López-Ramíreza, J.-L., Rangel-Butandaa, F.-J., IbarraManzanoa, M.-A., Almanza-Ojedab, D.-L. (2012). Detecting objects using color and depth segmentation
with Kinect sensor. Procedia Technology, 3, 196-204. doi: j.protcy.2012.03.021
Jana, A. (2012). Kinect for Windows SDK Programming Guide. Birmingham: Packt Publishing Ltd.
Jiang, Y., Liu, Y., Matsumaru, T. (2012). Applying infrared radiation image sensor to step-on interface: Touched
point detection and tracking, IEEE/SICE International Symposium on System Integration (pp. 752-757).
doi: 10.1109/SII.2012.6427302
Katirii B. (2007) Electromyography in Clinical Practice: A Case Study Approach. Philadelphia: Mosby Elsevier.
Kumar S., Mital A. (1996). Electromyography in Ergonomics. London: T J Press.
Luo Z., Wang F., Ma W. (2006). Pattern Classification of Surface Electromyography Based on AR Model and
High-order Neural Network. Proceedings of the 2nd IEEE/ASME International Conference on
Mechatronic and Embedded Systems and Applications (pp. 1-6), doi: 10.1109/MESA.2006.296982
Mazumdar, D., Talukdar, A.K. & Sarma, K.K. (2013). Gloved and free hand tracking based hand gesture
recognition. 1st International Conference on Emerging Trends and Applications in Computer Science
(pp. 197-202). doi: 10.1109/ICETACS.2013.6691422
Mehrez, B., Jemni, M. (2012). 3D Motion Trajectory Analysis Approach to Improve Sign Language 3D-based
Content Recognition. Proceedings of the International Neural Network Society Winter Conference (13
vol., pp. 133-143). doi: 10.1016/j.procs.2012.09.122
Pavlovic, V.I., Sharma, R., & Huang, T.S. (1997). Visual interpretation of hand gestures for human-computer
interaction: a review. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7), 677 – 695.,
doi: 10.1109/34.598226
112 Kainz, Jakab
Sabir, K., Stolte, C., Tabor, B., O'Donoghue, S.I. (2013). The Molecular Control Toolkit: Controlling 3D
molecular graphics via gesture and voice. IEEE Symposium on Biological Data Visualization (pp. 49-56),
doi: 10.1109/BioVis.2013.6664346
Sun, C., Zhang, T., Bao, B.-K., Xu, C., Mei, T. (2013). Discriminative exemplar coding for sign language
recognition with Kinect. IEEE Transactions on Cybernetics, 43(5), 1418-1428. doi:
10.1109/TCYB.2013.2265337
Verma, H.V., Aggarwal, E., Chandra, S. (2013). Gesture recognition using kinect for sign language translation.
IEEE Second International Conference on Image Information Processing (pp. 96-100).
doi: 10.1109/ICIIP.2013.6707563
Zhaojie, J., Honghai L. (2014). Human Hand Motion Analysis With Multisensory Information. IEEE/ASME
Transactions on Mechatronics, 19(2), 456–466. doi: 10.1109/TMECH.2013.2240312
Zheng, W.-L., Zhu J.-Y., Peng Y., Lu, B.-L. (2014). EEG-Based Emotion Classification Using Deep Belief
Networks. IEEE International Conference on Multimedia & Expo (ICME)
Zhiyuan, L., Xiang, Ch., Qiang, L., Xu, Z., Ping, Z. (2014). A Hand Gesture Recognition Framework and
Wearable Gesture-Based Interaction Prototype for Mobile Devices. IEEE Transactions on HumanMachine Systems, 44(2), 293 – 299. doi: 10.1109/THMS.2014.2302794
Acta Informatica Pragensia
3(1), 2014, 113–124, DOI: 10.18267/j.aip.39
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Simulácia PID regulátora v programovom
prostredí Matlab
Simulation of PID Controller in the Programming Environment Matlab
Štefan Koprda1
1
Katedra informatiky, Fakulta prírodných vied,
Univerzita Konštantína Filozofa v Nitre
Trieda A. Hlinku 1, 949 74 Nitra
[email protected]
Abstrakt: Článok sa zaoberá problematikou modelovania spojitých systémov. Pre
simuláciu regulátora PID sme použili prostredie Matlab. Cieľom príspevku je
oboznámiť sa s problematikou simulácie základných regulátorov PI PD
a v neposlednom rade aj PID. Riešená problematika má v konečnom dôsledku priniesť
odbornej verejnosti jednoduchý prehľad ako nasimulovať základné druhy regulátorov
v prostredí Matlab. V článku je ako nástroj na modelovanie dynamických systémov
použitý programový systém Matlab vyvinutý firmou Math Works. V súčasnosti má
tento Software široké uplatnenie v rôznych oblastiach vedy a techniky. V teórii
automatického riadenia sa stáva dokonca jedným z najpoužívanejších programových
prostriedkov vo svete. Matlab tak ako každý iný programový prostriedok umožňuje
vyjadriť niektoré myšlienky viacerými spôsobmi. Výhodou prostredia Matlab je
možnosť pracovať s blokmi podobnými blokom bežne používaným v schémach pre
regulačnú techniku. Dynamický systém, ktorý potrebujeme modelovať je možné
zostaviť zo štandardných blokov. Tie sú preddefinované v knižniciach Simulinku a
jednoduchým kopírovaním ich môžeme aplikovať priamo v Matlabe.
Klíčová slova: PID regulátor, Modelovanie, Matlab Simulink, Spojitý systém.
Abstract: This paper deals with the problem of modelling continuous systems. For
simulate a PID controller, we used virtual environment Matlab. The goal of this article
is to give information about the topic of the basic regulators PI PD simulation and PID
too. Eventually, solved issues have to bring to professionals simple overview of how
to simulate fundamental regulators’ types in Matlab enviroment. In this paper is like a
tool for modelling of dynamic systems applied Matlab. Matlab was developed by The
Math Works Inc. This software has a wide application in various fields of science and
technology. In the theory of automatic control is becoming even one of the most used
software tools in the world. MATLAB just like any other simulation program means
allow to express some thoughts in several ways. The advantage of Matlab is the
opportunity to work with blocks of similar blocks commonly used in schemes for
control technology. Dynamic systems which need to be modelled can be assembled
from standard blocks. These are predefined in libraries Simulink and with using simple
copying them can be applied their directly in Matlab.
Keywords: PID controller, Modelling, Matlab Simulink, Discrete system.
114 Koprda
1
Úvod
Modelovanie systémov je činnosť, ktorá umožňuje uvažovať o reálnom svete na základe
získaných poznatkov a tak ho cieľavedome ovplyvňovať. Pod pojmom systém obvykle
rozumieme abstrakciu reality, pričom sa zameriavame len na tie skutočnosti, ktoré sú
relevantné pre naše skúmanie. Modelovaný systém má určitú štruktúru, teda sa skladá zo
zložiek (prvkov alebo entít systému), medzi ktorými existujú isté väzby, vzťahy alebo relácie.
V dynamickom systéme sa môžu meniť väzby, ale i množina prvkov systému (Balogh et al.,
2012). Systém teda definujeme ako objekt, už reálne existujúci alebo v abstraktnom význame,
ktorý chceme skúmať, pričom sa počas svojej existencie môže vyvíjať a spolupracovať s
inými systémami, ktoré tvoria jeho okolie (Backlund, 2000).
Dôležitým aspektom je požiadavka, aby sa s modelom dalo experimentovať, a to často aj v
reálnom čase. Proces experimentovania, v ktorom skúmame vlastnosti modelu, alebo jeho
interakciu s okolitým svetom, je často jediný možný spôsob, ako získať aspoň kvalitatívne
nové poznatky o dynamike a štruktúre analyzovaného, alebo projektovaného systému
(Neuschl, 1988).
Proporcionálne-integračne-derivačné (PID) ovládanie je tradičná metóda lineárneho riadenia
použitá v mnohých aplikáciách (Prodic, 2002). Regulátor PID je široko používaný pre
priemyselnú automatizáciu úloh a regulovanie tepelného komfortu vykurovania a chladenia
v aplikáciách. (Ardehali, 2004)
2
Automatizácia a regulácia v spojitých systémoch
Riadenie je činnosť, pri ktorej sa hodnotia a spracúvajú informácie o riadenom objekte alebo
procese a podľa nich sa ovládajú príslušné zariadenia tak, aby sa dosiahol daný cieľ (Krčula,
1982). Je to pôsobenie riadiaceho systému na riadený systém. Ak sa uskutočňuje nejakým
zariadením samočinne, hovoríme o automatickom riadení. Otvorený systém automatického
riadenia, čiže riadenie v otvorenej slučke je také riadenie, kde nie je spätná kontrola ani
vplyvu riadiacich zásahov cez vektor vstupných veličín u(t), ani vplyvu vektora poruchových
veličín d(t) na vektor výstupných (riadených) veličín y(t). Takéto riadenie (bez spätnej väzby
od riadeného k riadiacemu systému) nazývame ovládaním. Môžeme ho použiť iba tam, kde
vznik poruchových veličín je málo pravdepodobný.
Regulácia je udržiavanie regulovaných veličín na vopred stanovených hodnotách. Skutočné
hodnoty sa zisťujú meraním a porovnávajú sa so žiadanými hodnotami. Podľa odchýlok,
ktoré sú mierou presnosti regulácie sa zasahuje do riadeného procesu tak, aby tieto odchýlky
boli minimálne. Ak túto činnosť vykonáva človek, hovoríme o ručnej regulácii, ak sa
uskutočňuje samočinne nejakým zariadením, hovoríme o automatickej regulácii. Regulovaná
sústava je zariadenie, na ktorom sa uskutočňuje regulácia a regulátor je zariadenie, ktoré
samočinne uskutočňuje reguláciu (Vítek, 1988).
Acta Informatica Pragensia 115
Regulácia sa uskutočňuje vždy v regulačnom obvode:
Obr. 1. Úplná bloková schéma regulačného obvodu.
w - poruchová veličina
e - regulačná odchýlka
u - akčná veličina
h - riadiaca veličina
y - výstupná regulovaná veličina
3
Proporcionálno-integračno-derivačný regulátor (PID regulátor)
Regulátor je zariadenie, ktoré sa stará, aby daný systém automaticky pracoval a fungoval v
požadovanom rozsahu hodnôt. Riadeným systém môže byť napríklad motor, elektromotor,
vykurovanie, klimatizácia, chemický proces atď. (Dorčák et al., 2006).
Jeho vlastnosti vyjadruje súčet vlastností jednoduchých regulátorov P, I a D. Tomu
zodpovedá jeho rovnica (Lukáč, Hrubý, 2005):
t

1
det  

yt   P et  
et dt  Td

Ti
dt 
0



(1)
Veľkosť každej zložky je možné samostatne nastavovať, to znamená P – pásmo
proporcionality, Ti – integračnú časovú konštantu a Td – derivačnú časovú konštantu. Pre
kvantitatívne vyjadrenie platí:
116 Koprda



zväčšenie vplyvu proporcionálnej zložky dosiahneme zväčšením zosilnenia, alebo
zúžením pásma proporcionality,
zväčšenie vplyvu integračnej zložky dosiahneme zmenšením integračnej časovej
konštanty,
zväčšenie vplyvu derivačnej zložky dosiahneme zmenšením derivačnej časovej
konštanty. Zväčšením derivačnej zložky zlepšíme stabilitu regulačného obvodu, kým
integračná zložka nám stabilitu zhorší.
Regulátor vznikne paralelným spojením členov P, I a člena D. Uvedený združený regulátor
pracuje bez trvalej regulačnej odchýlky a možno ho hodnotiť ako najdokonalejší spojitý
regulátor. Prenosová funkcia regulátora:

1
G R s   P  1 
 Td s
Ti s





(2)
Obr. 2. Prechodová charakteristika a schéma PID regulátora.
PID regulátor je vhodný všade tam, kde vyhovuje regulátor PI. Oproti regulátoru PI je
rýchlejší, takže lepšie tlmí rýchle prekmity regulovanej veličiny, vstupujúcej obzvlášť pri
častých poruchách do regulovanej sústavy.
Kvalita procesu regulácie je funkciou parametrov P, Ti a Td PID regulátora. Môžeme ich
navrhnúť tak, aby sme podľa zvoleného kritéria dosiahli najlepšiu možnú kvalitu regulácie.
Určovanie optimálnych parametrov regulátorov je relatívne zložitá a namáhavá práca. Preto
sa hľadali jednoduché algoritmy, často aj na úkor ich všeobecnej platnosti a presnosti
riešenia. Medzi takéto jednoduché algoritmy patrí napr. metóda optimálneho modulu a
experimentálna metóda Zieglera – Nicholsa (Tomas, 2004).
Výhody PID regulátora:

vysoká kvalita regulácie, najmä statických sústav.
Nevýhody PID regulátora:


veľké nároky na regulátor,
zdĺhavé manuálne nastavovanie regulačných parametrov.
Acta Informatica Pragensia 117
Analýza spojitého regulačného obvodu s regulátorom PID
3.1
Schémy procesov a ich blokové schémy poskytujú možnosť kvalitatívneho porozumenia ich
funkcii. Za účelom kvantitatívneho vyjadrenia vlastností procesov sa využívajú matematické
opisy. Tieto opisy sa nazývajú matematické modely. Matematický model procesu je vlastne
matematickou abstrakciou reálneho procesu. V tejto práci ako moduly budeme používať
regulačný obvod. Zjednodušenie výpočtu dynamických vlastností systémov a zložitých
členov sa dá uskutočniť ich rozdelením na subsystémy. Regulačný obvod sa rozdeľuje na
regulovanú sústavu S a regulátor R, čo umožňuje k danej sústave priradiť regulátor o takých
dynamických vlastnostiach, aby regulačný obvod ako celok mal požadované fyzikálne a
prevádzkové vlastnosti.
PID má výstupný signál úmerný vstupnému signálu, jeho integrálu a derivácii. Diferenciálna
rovnica PID regulátora má preto tvar:
r x t
r x t dt
y t
r x
Ty
T y
⋯
(3)
Prenos PID regulátora je:
1
⋯
(4)
PID regulátor dostaneme paralelným spojením PI D regulátorov. Je to znázornené na obrázku
3. Vlastnosti PID regulátora:




je stredne rýchly,
dokáže odstrániť regulačnú odchýlku na 0,
nie je náchylný na kmitanie,
je najkvalitnejší.
Obr. 3. PID regulátor.
PID regulátor pracuje takto: Najprv pôjde zložka D, je najrýchlejšia, a preto dokáže najviac
stiahnuť regulačnú odchýlku. Potom pôjde zložka P, aby sa regulátor nerozkmital a potom I
odstráni regulačnú odchýlku na 0. Je vhodný všade tam, kde vyhovuje PI. Oproti PI
regulátoru je rýchlejší, takže úplne tlmi rýchle prekmity regulovanej veličiny. Pri modelovaní
simulácií sme použili statickú sústavu 2. rádu. Prenosová funkcia je:
F
2s
1
5s
3
(5)
118 Koprda
Najskôr si ukážeme správanie PID regulátora v regulačnom obvode bez poruchovej veličiny
W. Schéma – modul je zobrazený na obrázku 4.
Obr. 4 Regulačný obvod s PID regulátorom.
Výsledky simulácie sú na nasledujúcich obrázkoch 5 a 6.
Obr. 5. Výstupný priebeh regulovanej sústavy s PID.
Acta Informatica Pragensia 119
Obr. 6. Priebeh regulačnej odchýlky.
Zo simulácie možno vyvodiť záver, že PID regulátor lepšie tlmí rýchle prekmity regulovanej
veličiny. V ďalšom kroku si ukážeme ako sa správa regulačný obvod s PID regulátorom po
zásahu poruchovej veličiny W. Pre tento prípad sme opäť použili sústavu 2. rádu. Schéma model zapojenia je na obrázku 7.
Obr. 7. Regulačný obvod s PID regulátorom po zásahu poruchovej veličiny W.
120 Koprda
Výsledky simulácie sú na nasledujúcich obrázkoch 8 a 9.
Obr. 8. Výstupný priebeh regulovanej sústavy po zásahu poruchovej veličiny W.
Obr. 9. Priebeh regulačnej odchýlky po zásahu poruchovej veličiny W.
Acta Informatica Pragensia 121
Pri modelovaní regulačného obvodu sme si zvolili regulátor PID. Tento regulátor sme
následne zapojili do regulačného obvodu. Regulovanou sústavou bola sústava 2. rádu. Prenos
sústavy bol nasledovný:
F
2s
1
5s
3
(6)
Simulácia s PID regulátorom bola robená pri zásahu poruchovej veličiny a bez nej.
Odsimulovaný PID regulátor sme porovnávali s regulátormi typu PI A PD, ktorých priebehy
uvádzame na obrázkoch 10 a 12. Priebehy na obrázkoch zobrazujú vlastnosti regulátorov bez
pôsobenia poruchovej veličiny. Na obrázku 11 sa nachádza priebeh regulačnej odchýlky PI
regulátora. Ako vidno z grafického priebehu PI regulátor dokáže odstrániť regulačnú
odchýlku na 0. PI regulátor sa vyznačoval tým, že úplne odstránil regulačnú odchýlku.
Spravidla vyhovujúcim spôsobom odstraňuje poruchy vstupujúce do regulovanej sústavy a vo
väčšine prípadov zlepšuje stabilitu regulačného obvodu. Je viac náchylný na kmitanie.
Regulátor PI sa najviac používa pri regulácii kmitavých sústav druhého a vyššieho rádu. Čím
je rád sústavy vyšší, tým viac musíme zmenšovať zosilnenie, poprípade zväčšovať časovú
konštantu T.
Na základe simulácie platí, že proporcionálno-derivačný-regulátor je vhodný všade tam, kde
vyhovuje regulátor P. Jeho prednosti sú väčšia rýchlosť regulácie, čo sa prejavuje potlačením
rýchlych prekmitov regulovanej veličiny, kedy sú časté poruchy vstupujúce do regulovanej
sústavy. PD regulátor sa vyznačuje tým, že nieje tak náchylný na kmitanie, ale nevie
odstrániť regulačnú odchýlku na 0. Na obrázku 13 sa nachádza priebeh regulačnej odchýlky
PD regulátora.
PID regulátor bol odsimulovaný znovu s poruchovou veličinou a bez nej. Možno povedať, že
je vhodný všade tam, kde vyhovuje PI. Oproti PI regulátoru je rýchlejší, takže úplne tlmí
rýchle prekmity regulovanej veličiny.
122 Koprda
Obr. 10. Výstupný priebeh regulovanej sústavy s PI regulátorom.
Obr. 11. Priebeh regulačnej odchýlky s PI regulátorom.
Acta Informatica Pragensia 123
Obr. 12. Výstupný priebeh regulovanej sústavy s PD regulátorom.
Obr. 13. Priebeh regulačnej odchýlky s PD regulátorom.
124 Koprda
4
Záver
Hlavnou úlohou bolo úvodné znázornenie modelovania a simulovania v programe Simulink
systému MATLAB. Pre názornosť som funkcie opisujúce dynamické deje vyjadril najskôr
všeobecne a potom som priebehy týchto funkcií odsimuloval v Simulinku programu
MATLAB. Modelovanie a následná simulácia v tejto práci bola robená hlavne preto, aby si
študenti pri výučbe ľahšie vedeli predstaviť činnosť jednotlivých regulátorov zapojených
v regulačných obvodoch. Z nasimulovaných priebehov možno vyvodiť nasledovné závery. PI
regulátor je najrozšírenejším kombinovaným regulátorom, lebo má takmer univerzálne
použitie. Dôvodom je to, že nie je príliš zložitý, úplne odstraňuje regulačnú odchýlku
a zlepšuje stabilitu regulačného obvodu. Najviac sa používa na reguláciu kmitavých sústav
druhého a vyšších rádov. Čo sa týka použitia regulátora pre reguláciu bežných fyzikálnych
veličín je najvhodnejší na reguláciu teploty, výšky hladiny, otáčok, tlaku plynov, vlečnú
reguláciu a servomechanizmy.
PD regulátor pracuje s trvalou regulačnou odchýlkou. Regulátor vznikne paralelným spojením
člena P a D. Vhodnou voľbou časovej konštanty je niekedy možné znížiť rád regulovanej
sústavy a zvýšiť tak stabilitu regulačného obvodu.
PID regulátor
pracuje bez trvalej regulačnej odchýlky a možno ho hodnotiť ako
najdokonalejší spojitý regulátor. Nevýhodou PID regulátora je zdĺhavé nastavovanie
regulačných parametrov.
Zoznam použitých zdrojov
Ardehali, M. M., Saboori, M, Teshnelab, M. (2004). Numerical simulation and analysis of fuzzy PID and PSD
control methodologies as dynamic energy efficiency measures. Energy Convers Manage, 45(13–14),
1981–92.
Backlund, A. (2000). The definition of system. Kybernetes, 29(4), 444–451.
Balogh, Z., & Klimeš, C. (2012). Modelovanie procesov pomocou Petriho sietí. Nitra: Univerzita Konštantína
Filozofa.
Dorčák, Ľ. Terpák, J., & Dorčáková, F. (2006). Teória automatického riadenia: Spojité lineárne systémy.
Košice: TU Košice.
Krčula, J. (1982). Automatizácia. Bratislava: Príroda.
Lukáč, O., & Hrubý, D. (2005). Simulácia dynamického systému plášťového výmenníka tepla. Acta
Technologica Agriculturae, 6(4), 98-100.
Neuschl, Š. et al. (1988). Modelovanie a simulácia. Bratislava: Alfa.
Prodic, A., Maksimovic, D. (2002). Design of a digital PID regulator based on look-up tables for control of highfrequency dc–dc converters. In Proceedings of IEEE Workshop on Computers in Power Electronics (pp.
18–22).
Tomas, B. (2004). Ziegler-Nichols Closed Loop Tuning. Retrieved from
http://www.chem.mtu.edu/~tbco/cm416/zn.html
Vítek, V. et al. (1988). Automatizace a robotizace. Praha: VŠZ.
Acta Informatica Pragensia
3(1), 2013, 125–127, DOI: 10.18267/j.aip.40
Online: aip.vse.cz
Sekce / Section:
Knižní recenze / Book reviews
Digitální demence
Digital dementia
Václav Řezníček1
1
Katedra systémové analýzy, Fakulta informatiky a statistiky,
Vysoká škola ekonomická v Praze
nám. W. Churchilla 4, 130 67 Praha 3
[email protected]
Abstrakt: Tento článek je recenzí knihy Manfreda Spitzera „Digitální demence:
jak připravujeme sami sebe a naše děti o rozum”, která byla v českém jazyce
vydána v roce 2014 vydavatelstvím Host.
Klíčová slova: Digitální demence, Manfred Spitzer, recenze, technologie, digitální
média, myšlení.
Abstract: This article is review of the Manfred Spitzer´s book “Digital dementia:
How to make ourselves and our children fool”, which was published in Czech
language by Host in 2014.
Keywords: Digital dementia, Manfred Spitzer, review, technology, digital media,
thinking.
126 Řezníček
1 Recenze knihy
Spitzer, M. (2014). Digitální demence: jak připravujeme sami sebe a naše děti o rozum.
1. vydání. Brno: Host. 341 s. ISBN 978-80-7294-872-7.
„Digitální demence se vyznačuje především narůstající
neschopností využívat duševní výkony v plném rozsahu
a ovládat je, tzn. myslet, chtít, jednat – při vědomí,
co se právě děje, kde jsme a vposledku také kdo jsme.“
(Spitzer, 2014, str. 266)
Kniha Digitální demence, kterou napsal německý psychiatr Manfred Spitzer (2014),
presentuje výsledky analýzy vlivu současných digitálních médií a technologií, tedy televizí,
počítačů, mobilních telefonů apod., na mozek a duševní výkonnost člověka. U nás tato
monografie s původním názvem Digitale Demenz: Wie wir uns und unsere Kinder um den
Verstand bringen vyšla v překladu Františka Ryčla necelé dva roky po jejím uvedení
v Německu. Spitzer vystudoval medicínu, psychologii a filosofii. Dnes je významným
německým badatelem v oblasti neurovědy.
Po období „počítačového fanatismu“ druhé poloviny dvacátého století, kdy byli někteří jeho
kritici označováni za „kacíře“, nepřátele informatiky či snad dokonce pokroku obecně, možno
vzpomenout Josepha Weizenbauma, se otevírá prostor pro kritickou reflexi kontextu
informatizace. Uvedenou Spitzerovu knihu by šlo mezi takové kritické počiny rovněž zařadit.
Dle Spitzera doposud neexistují nezávislé studie, které by prokazovaly pozitivní účinek
počítačů na učení a duševní výkon, přesněji řečeno lze pochybovat o nezávislosti těch studií,
které k dispozici máme. Zde se odvolává na slova Uwe Afemanna (2011), jenž ve svém
článku Ein Laptop macht noch keine Bildung, konstatuje, že „skoro všechny studie týkající se
úspěšnosti učení za využití počítačů ve škole iniciovaly a sponzorovaly takřka bez výjimky
počítačové firmy a telefonní společnosti.“ Spitzer naproti tomu presentuje množství výzkumů,
které by nás měly spíše znepokojovat než nechávat klidnými a bezmezně optimistickými,
a opřen o fakta upozorňuje, že digitální média vedou potenciálně k tomu, že mozek méně
používáme a tím klesá jeho výkonnost. Podle Spitzera byly prokázány negativní účinky nejen,
pokud jde o myšlení, ale i, pokud jde o vůli, emoce a sociální chování.
Co je to a proč digitální demence? Jak Spitzer (2014, str. 19) poznamenává: „Demence je více
než jen zapomnětlivost. A v případě digitální demence mi proto jde o více než jen o fakt, že se
zejména mladí lidé zdají být stále zapomnětlivější, na což poprvé poukázali korejští vědci
v roce 2007. Jedná se víceméně o duševní výkonnost, myšlení, schopnost kritiky, o orientaci
v houštině informační záplavy. Pokud pokladní sčítá na kalkulačce 2 + 2 a nevšimne si, že
výsledek 400 je zaručeně nesprávný, pokud NASA pošle do háje (respektive do nekonečného
vesmíru) nějaký ten satelit, protože nikdo nezaznamenal, že palce a míle nejsou totéž jako
centimetry a kilometry, nebo pokud se bankéř přepočítá o rovných 55 miliard eur, to vše
vposledku znamená jen to, že už nikdo nemyslí současně s technikou.“ Hovoří se o tendování
k povrchnosti a o poklesu hloubky zpracování informace, a sice právě díky mediím (v čele
s internetem) a jimi zjednodušenému přístupu k informacím, jak o tom píše kupříkladu Carr
(2011) příznačně nazývající svůj titul The Shallows nebo rakouský filosof Liessmann (2009)
upozorňující na rostoucí averzi k myšlení a porozumění, kterou dává dále (mimo uvedené) do
souvislosti s komodifikací a instrumentalizací vědění (znalostí). Spitzer (2014, str. 64-65)
z pozice své odbornosti vysvětluje, že „co se s příchozí informací v našem mozku děje,
určujeme tím, jestli ji zpracováváme jen povrchně, nebo se jí věnujeme důkladně. To
vysvětluje účinek hloubky zpracování na ukládání: pokud se nějakým věcným obsahem
Acta Informatica Pragensia 127
zabývám důkladně, všechny tyto aspekty a vlastnosti budou zachyceny různými oblastmi
mozku. Toto intenzivní zpracování na základě všech možných aspektů ovlivňuje změnu
četných synapsí a tím lepší uložení dotyčného obsahu. …Tato myšlenka samozřejmě platí
také obráceně: čím povrchněji se nějakým věcným obsahem zabývám, tím méně synapsí se
mi v mozku aktivuje, což má za následek, že se méně naučím.“ Využívání moderních
technologií a digitálních médií vede k apatii vůči vštěpování si vědomostí (k lenosti), neboť
máme pocit, že si vše potřebné můžeme snadno tzv. „najít na internetu“, aniž bychom
uvažovali o potřebě vládnout jistým znalostním zázemím, které by nám pomohlo určit ne
nepodstatnou validitu a kredibilitu daných informací. Nahrazením duševní práce počítačem se
dle Spitzera (2004, str. 100) „v dlouhodobém horizontu vytrácejí odborné znalosti, které
ovšem nutně potřebujeme, pokud chceme s internetem smysluplně pracovat. Dále se tím
redukují i budoucí možnosti samostatné duševní práce a využití vlastní paměti.“ Spitzer
(2014, str. 99) také poukazuje na v daném kontextu nezanedbatelný význam osobní (face to
face) komunikace, když píše: „Pokud lidé zpracovávají informaci v přímém dialogu nebo
v diskusi, pak je to podle všeho, co víme, nejhlubší možný způsob zpracování (informace).“
V této souvislosti dále zmiňuje stále moderní fenomén sociálních sítí, kdy uvádí následující
příklad: „Svět bez sociálních sítí jako Facebook nebo Google+ si mnoho lidí dnes už
nedokáže pro svůj život představit. Na schůzce sedí v kavárně proti sobě, ale nehledí si
navzájem do očí, nýbrž každý do svého smartphonu – zřejmě proto, aby mohli přátelům
rychle tweetovat, jak je rande skvělé“ (Spitzer, 2014, str. 101). Z provedených studií (Spitzer,
2014, str. 113) současně vyplývá, že užívání sociálních sítí jako je Facebook, které je spojeno
s menším množstvím reálných kontaktů, musí u dětí vést ke „zmenšení velikosti sociálních
oblastí mozku a k jejich menší sociální kompetenci.“ Fakt, že se uvedené a další v knize
zmíněné, zejména pokud jde o děti, zlehčuje, je dle Spitzera alarmující. A nejde pouze
o digitální média, mohli bychom bez přemíry nadsázky konstatovat, že lidstvo samo na sobě
provádí takový zvláštní experiment, kdy zkoumá, do jaké míry jsme jako lidé schopni
zdegenerovat.
Reflexe předložená v knize Digitální demence je bezpochyby nejen citování-hodná, je
především potřebná, a alespoň nahlédnutí do ní lze doporučit už jen kvůli bibliografii čítající
množství relevantních pramenů. Ač by mohl čtenář, jak někteří vytýkají, postrádat diskusi
programově opomenutých pozitiv, konkrétnější doporučení, jak eliminovat jmenovaná rizika
(i když tato jsou alespoň naznačena v kapitole 14), než jsou možná v kontextu doby naivně
působící tipy jako „vyhýbejte se digitálním médiím“, „usmívejte se“, „travte čas v přírodě“
nebo „zpívejte si“, případně hlubší k podstatě směřující analýzu, je zřejmé, že autorovým
záměrem bylo něco jiného.
Seznam použitých zdrojů
Afemann, U. (2011). Ein Laptop macht noch keine Bildung. The European. Retrieved from
www.theeuropean.de/uwe-afemann/6335-ikt-in-der-entwicklungszusammenarbeit.
Carr, N. (2011). The Shallows: How the internet is changing the way we think, read and remember. London:
Atlantic Books.
Liessmann, K. P. (2009). Teorie nevzdělanosti: omyly společnosti vědění. Praha: Academia.
Spitzer, M. (2014). Digitální demence: jak připravujeme sami sebe a naše děti o rozum. Brno: Host.
Acta Informatica Pragensia
3(1), 2014, 128–136, DOI: 10.18267/j.aip.41
Online: aip.vse.cz
Sekce / Section:
Zamyšlení / Reflections
Informace hypermoderní doby
Information in Hypermodern Age
Miloš Vítek1
1
Filozofická fakulta, Univerzita Hradec Králové,
Rokitanského 62, 500 03 Hradec Králové
[email protected]
Abstrakt: Příspěvek otevírá problematiku, které se věnovala výroční 45. vědecká
konference o systémovém inženýrství SYSIN 14: „Předpoklady informačních
systémů“ na Univerzitě Pardubice, Fakultě ekonomicko-správní a jejím Ústavu
systémového inženýrství a informatiky, v květnu 2014.
Klíčová slova: Systémové inženýrství, informatika, informační systémy, filosofie,
sociologie, modernita, hypermodernita.
Abstract: The paper opens the issues of the annual 45th Scientific Conference on
Systems Engineering SYSIN 14: “Preliminaries to Information Systems” holds at
University Pardubice, Faculty of Economics and Administration, Institute of
Systems Engineering and Informatics in May 2014.
Keywords: Systems engineering, Informatics, Information systems, Philosophy,
Sociology, Modernity, Hypermodernity.
Acta Informatica Pragensia 129
1 Úvod
Každá doba pracuje s informacemi, které odpovídají jejímu charakteru (Říhová, Vítek, 1989),
(Vítek, 1990). Dnes internet „varuje dětičky před radou rodičů, vítězí tak zlo, lež, nenávist“.
V příspěvku se budu držet pojetí hypermoderní doby, s nímž přišel francouzský filosof a
sociolog Gilles Lipovetsky, profesor z pařížské Sorbonny, v knize Les temps hypermodernes,
a které získalo mezinárodní ohlas. Pokusím se ukázat, jaká jsou specifika informací
nastupující doby a jak se promítají do práce s informačními systémy.
2 Co je hypermodernita?
Léta 1880-1950 můžeme považovat za první fázi modernity, pro niž bylo charakteristické
zvyšování průmyslové výroby (fordismus, taylorismus), rozvoj dopravy a komunikací
(železnice, telefon) a také prosazení kapitalistických tržních strategií (marketing, obchodní
domy, výrobní značky, reklama). Šlo zároveň o období, kdy se rozšiřoval konzum a móda,
tehdy ovšem pro jen některé vrstvy buržoasie.
Po roce 1950 začíná druhá fáze modernity, kdy výroba a masový konzum přestaly být
záležitostí jedné privilegované společenské vrstvy. Došlo k osvobození individualismu od
tradičních norem a pravidel, rostl význam módního zboží a šířil se požitkářský způsob života,
dostupný všem společenským vrstvám. Tato fáze stále více nabývala rysů postmodernity,
když pojmy jako disciplina a odcizení nahradily půvab a svůdnost, předepsané způsoby
chování zmizely a byly nahrazeny osobní volbou a zodpovědností. Na scénu přichází Narcis,
ústřední postava zároveň pohodová i cool, požitkářská i anarchistická, neústupná i flexibilní.
Asi od 80. let jsme vstoupili do časů hypermodernity jako třetí fáze konzumu, příznačné
hypernarcismem (přehnaným obdivem k sobě samému), hyperkonzumem (vtahujícím do sebe
další oblasti společenského života, strukturované podle principů slasti a citového prožitku)
a hyperpřepychem (z důvodu sebeuspokojení, nikoli již demonstrace osobního postavení, tj.
psychologizovaný luxus nahradil sociální teatrálnost). Doba má dvojakou povahu: „Místo
hýřivé utopie máme odpovědnost a místo protestu obhospodařování: jako bychom dnes
uznávali jen etiku a soutěživost, moudré regulování a úspěch v práci“ (Lipovetsky, 1983, str.
344).
Rozpory hypermodernity se projevují zcela zřetelně:
- Narcis je vyzrálý a zároveň nedospělý;
- podniky přijímají etické kodexy a zároveň falšují obchodní údaje;
- dopravci uznávají nutnost respektovat přírodu a zároveň ji ničí;
- řidiči znají pravidla silničního provozu a zároveň při jízdě telefonují;
- podnikatelé jsou stále výkonnější a zároveň rostou jejich psychosomatické potíže;
- společnost žádá odpovědné chování a zároveň se šíří neodpovědnost;
- jedinci jsou kritičtější a zároveň povrchnější;
- informační technologie se neomezeně rozvíjejí a zároveň hrozí nezaměstnanost.
Lipovetsky (2013, str. 29) shrnuje: „Posedlost sebou samým se už dnes neprojevuje
v horečném požitkářství, ale ve strachu z nemoci a ze smrti, v postoupení běžných událostí
lidského života do lékařské péče. Narcis už není zahleděný sám do sebe, převažuje
vystrašenost z každodenního života, z vlastního těla a ze společnosti a lidských vztahů, které
na něj působí agresivně.“ To vše se projevuje v působení neoliberálních principů na pracovní
uplatnění jednotlivce, na místní úrovni ve znečištění životního prostředí a rostoucím násilí, na
mezinárodní úrovni v terorismu a zkáze. Hesla „Užívejte si bez omezení“ případně „Nevaž se,
odvaž se“ vystřídalo „Obávejte se bez ohledu na to, kolik vám je let“.
130 Vítek
Víru nahradilo nadšení, nesmlouvavost systematických diskurzů vystřídala lehkovážnost, od
extremismu jsme přešli k uvolnění. „Nastoupili jsme nekonečný proces desakralizace
a desubstancializace smyslu, jímž se vymezuje panství dokonalé módy. Takto umírají bozi:
nikoli v nihilistické demoralizaci Západu a v úzkosti z hodnotového prázdna, nýbrž
v záškubech smyslu“ (Lipovetsky, Charles, 2013, str. 31). Ideové systémy se staly předmětem
spotřeby a je možné je vyměnit jako auto nebo byt. Moderní sekularizace zcela potlačila
vzájemnou solidaritu a nahradila ji osobními zájmy. Dnes komercializaci životních stylů
nestojí v cestě žádné překážky, veřejná i soukromá sféra jsou uspořádány na základě principů
spotřeby.
Principy módy a spotřeby prostoupily stále širší oblasti veřejného i soukromého života: „Za
vlády dokonalé módy je duchovní život je méně pevný, avšak vnímavější ke kritice, méně stálý,
ale tolerantnější, méně sebejistý, avšak otevřenější k odlišnosti, k důkazu a k argumentaci
druhého. Přirovnávat dovršenou módu k nevídanému procesu standardizace a odosobnění je
povrchní. Ve skutečnosti móda podněcuje k náročnějšímu tázání, ke zmnožení subjektivních
hledisek, ke zhroucení obecné názorové shody. Nelze tvrdit, že by narůstala všeobecná
podobnost, naopak – dochází k odlišování drobných osobních verzí. Velké ideologické jistoty
zmizely, aby umožnily rozkvět subjektivních názorů, které jsou možná nepříliš originální,
tvůrčí a promyšlené, avšak početnější a tvárnější“ (Lipovetsky, Charles, 2013, str. 33).
3 Personalizované informace
Celým Lipovetskyho dílem – od jeho první knihy Éra prázdnoty (1983) – prostupuje jako
ústřední myšlenka personalizace. Vypjatý individualismus, který se zrodil s moderní dobou,
za postmodernity přešel od příslušnosti k určitému světu k platnosti pouze formálních
právních norem a předpisů. Za hypermodernity mechanismy kontroly nezmizely, pouze se
přizpůsobily době, staly se méně direktivními a ustoupily ve prospěch komunikace: „Proces
personalizace je totiž nový způsob, jak se společnost může uspořádat a nabrat směr, nový
způsob, jak řídit chování jednotlivců. Není založen na pedantské krutovládě, nýbrž naopak na
co nejmenším omezování a co největší možnosti soukromé volby, na minimální strohosti
a maximální touze, na co nejmenším donucování a co možná největším pochopení“
(Lipovetsky, Charles, 2013, str. 19).
Proti světu konzumu nemáme jiný ideál, který bychom proti němu mohli postavit. „Došlo i na
náboženství, které se podvolilo konzumnímu způsobu života. Vyměnilo askezi za požitkářství a
zalíbení v radovánkách a oslavách a upřednostnilo lásku a solidaritu před kajícností a
rozjímáním… Hypermodernita funguje na principu neustálého přehodnocování minulosti a
zdá se, že jejímu působení neunikne žádná oblast“ (Lipovetsky, Charles, 2013, str. 35).
Pozdní modernizace a její principy ztratily se zřetele lidstvo a jeho potřeby, technika vymýtila
veškeré hodnoty. Jejím přímým důsledkem je vznik určité podoby neonihilismu.
„Nicméně nemůžeme se na věci dívat jen z negativního úhlu pohledu – zdaleka ne všechno se
podřizuje jen ryzí spotřebě a je recyklovatelné. Například lidská práva nebo péče o pravdu se
rozhodně konzumem strhnout nedají. Intelektuálové zůstávají houževnatými tvůrci smyslu jako
takového. Intelektuální práce, kterou charakterizuje nepřekonatelná řemeslná dovednost a
láskyplné zaujetí, možná postaví nejtrvalejší a nejsolidnější překážku malichernosti a světu,
jenž se má stát především okázalou podívanou“ (Lipovetsky, Charles, 2013, str. 37-38).
Láska nepodléhá úsilí o prospěch a zisk. Nadvláda peněz lásku nepodkopává. Konzum tedy
nevládne bez omezení. Nové uspořádání společnosti se opírá o výhradně individuální touhy
a přání, což neodstraňuje hrozby asociálního chování. Hodnotový relativismus neznamená
ještě morální nihilismus. Občanská společnost touží po řádu a umírněnosti, „naší kultuře sice
Acta Informatica Pragensia 131
vládnou subjektivní práva, ale to ještě neznamená, že ´vše je dovoleno´“ (Lipovetsky,
Charles, 2013, str. 42).
Média byla nucena přijmout principy módy, včlenit se do okázalého a povrchního způsobu
života a ve svých poselstvích dát větší důraz na svůdnost a rozptýlení. „Touto cestou se
přizpůsobila nové situaci, kdy individuální úsudek stále méně vychází z diskuse mezi
soukromými osobami a stále více je určován konzumem a okouzlováním prostřednictvím
informací… Rozhodně nejsme vystaveni uniformizaci smýšlení a chování. Sjednocování
názorů a způsobů života nevede ke konsenzu v politické a sociální oblasti. Rozpory a konflikty
přetrvávají i nadále, ale prošly individualistickým zklidněním veřejné diskuse“ (Lipovetsky,
Charles, 2013, str. 45-47).
Média zůstávají prostoupena principem duality, díky němuž je každá skutečnost ambivalentní.
Tím mohou nejen informovat, ale i dezinformovat, např. vzbuzováním senzací mění politiku
na frašku, namísto podpory kultury nás zahrnují záplavou estrád a sportovních přenosů.
Zodpovědné chování je stále aktuální: „masová konzumní společnost, založená na
individualismu a emocích, umožňuje současně existenci zodpovědného ducha v různých
podobách i ducha nezodpovědného, který nedokáže odolat ani vnějším pokušením, ani
niterným nutkáním. Ve skutečnosti bude binární princip naší společnosti dále narůstat
a zodpovědnost každého jednotlivce bude stále důležitější“ (Lipovetsky, Charles, 2013,
str. 50). Lipovetsky tak bere v úvahu komplexní povahu budoucnosti a odmítá její idealistické
či naopak katastrofické vnímání. Zvyšování kolektivní i individuální odpovědnosti zůstane
úhelným kamenem.
4 Binární povaha informací
„Hypermoderní doba vytváří svým působením skrze technologickou normalizaci
a rozvolňování sociálních vztahů zároveň zmatek i pořádek, nezávislost i subjektivní závislost,
umírněnost i posedlost“ (Lipovetsky, Charles, 2013, str. 60). Ve všech oblastech je kladen
důraz na neustálé proměny, na hyperzměnu nezatíženou utopickými vizemi, ale spjatou
s nutností přežít. Čím méně je budoucnost předvídatelná, tím proměnlivější, flexibilnější
a připravenější ke změnám musíme být. Zatímco modernita prvního řádu vyústila do
technologického a tržního nihilismu, potom modernitě druhého řádu už nejde o to minulost
zničit, ale znovu ji přijmout a začlenit do sebe. Naší dobou už není postmodernita, nýbrž
hypermodernita.
„Převažující lehkovážnost v prožívání času nahradil pocit ohrožení a nejistoty. Dříve byl
každý den prožíván s určitou bezstarostností. V dnešní době je přítomnost a její prožitek
doprovázen narůstající nejistotou. Doba se dnes zaměřuje pouze na ochranu, bezpečnost,
obranu nabytých sociálních hodnot, humanitární pomoc v krizi a záchranu planety.
Přítomnosti spíše otročíme, než abychom si užívali nových možností, které přinesla
individualizace společnosti. Celosvětová společnost nás nepřestává nabádat ke konzumnímu
požitkářství, zároveň už život není tak bezstarostný, prožíváme jej ve větším stresu
a úzkostech“ (Lipovetsky, Charles, 2013, str. 72). Binární povaha hypermodernity tedy
znamená, že vedle lehkovážnosti stojí úzkostlivost, vedle povznesené nálady a nadšení
zranitelnost a vedle hravosti hrůza a zděšení. Zaměření na přítomnost prochází neustálou
změnou a zůstává otevřené ve vztahu k sobě samému.
Naděje vkládané do vzdělání provází obava ze snížení hodnoty získaných vysvědčení
a diplomů. Mladí lidé mají obavu, že nenajdou uplatnění, starší že ztratí pracovní místo.
Neplatí už doporučení carpe diem, život ze dne na den je zahalen strachem a neuspokojením.
Budoucnost se stala něčím neurčitým a nejistým. „Damoklův meč nezaměstnanosti nutí
studenty, aby vybírali typy studia, které trvají déle, a angažovali se v honbě za diplomy,
132 Vítek
považované za záruku do budoucnosti. Také rodiče přijali hrozby související s hypermoderní
liberalizací za své a přizpůsobili se jim“ (Lipovetsky, Charles, 2013, str. 81). Starost
o budoucnost, včetně financování důchodů, je ústředním tématem spíše než uspokojení „teď
a hned“ (hic et nunc).
Podobně, nové postoje ke zdraví přešly od hédonistických ideálů k teoriím zaměřeným na
zdraví a dlouhověkost. Lékařství se nespokojí s léčbou nemocných, vstupuje do péče dřív, než
se objeví příznaky a nabádá ke změně životního stylu. Je třeba identifikovat zdroje nemocí,
jíst zdravě, hubnout, nekouřit a mít dostatek pohybu. „Hyperindividualismus je spíše
projektivní než zaměřený na současný okamžik, dává přednost hygieně před sváteční
atmosférou a prevenci před požitkem. Převážila spíše přítomnost, která už netvoří jednotný
celek, je plná úzkosti a znepokojení a pronásledují ji obavy z virů a z rozpadu časového
uspořádání“ (Lipovetsky, Charles, 2013, str. 84).
I jinde se množí kladné projevy všeho, co má trvalejší hodnotu. „Lidé přes všechny obavy a
překážky vstupují do manželství, v milostném životě usilují o stabilní vztahy a znovu chápou
věrnost jako důležitou hodnotu. Spíše než opěvování příležitostné lásky můžeme zaznamenat
nespokojenost či frustraci ze známosti na jednu noc“ (Lipovetsky, Charles, 2013, str. 85). Jen
tak lze porozumět přetrvávání ideálu lásky jako protipólu k úzkostné nadvládě pomíjivosti.
Návrat budoucnosti je stejně důležitý jako oživení minulosti. „Hypermoderní doba projevuje
úctu sebenepatrnějším minulým událostem či předmětům, odkazuje na povinnost nezapomínat
a oživuje náboženské tradice“ (Lipovetsky, Charles, 2013, str. 99). Ve spotřebním duchu
ovšem kvete „vzpomínková turistika“, kdy nad díly z minulých dob nerozjímáme, ale
zhltneme je za několik vteřin. Často jde o způsob, jak zabít volný čas a rozptýlit se.
„Předpona „post“ v tomto smyslu vyjadřuje obrácení do minulosti. A předpona „hyper“ zase
označuje, že vztah k časovosti je od nynějška předmětem tržní spotřeby a rozšířil se i na
oblast kulturní paměti“ (Lipovetsky, Charles, 2013, str. 104). Tradice už neznamená
opakování a stala se módním předmětem.
V hypermoderním světě vzniká nový prostor pro náboženství, uspokojujícím potřebu jednoty
a smyslu, bezpečí a příslušnosti ke komunitě. „Sekularizace neznamená bezbožnost.
Sekularizace je také tím, co znovu vnáší náboženský rozměr do světa pozemské nezávislosti,
náboženský rozměr, který se oprostil od vlivu institucí a který zohledňuje především osobní
názor a cítění a je založený na emocionálním prožitku“ (Lipovetsky, Charles, 2013, str. 112).
Kulturní identita se nyní více zakládá na reflexi, je otevřená a závislá na jednotlivcích.
Důležitá je touha po hyperuznání, která odmítá pohrdání, znevažování a povyšování se
v jakékoli podobě, směřuje k nové kultuře individuálního blahobytu, vztahující se sama
k sobě jako metazbožnost. Ta do sebe vtahuje tradici západních i východních náboženství.
Lipovetsky (2013, str. 120) svůj výklad uzavírá slovy: „Asi nikdo nebude popírat, že světový
vývoj vyvolává spíše obavy než optimistické nadšení. Opravňuje nás však tato skutečnost
k tomu, abychom proměnu dnešního světa vnímali jako „návrat nelidskosti a barbarství“?
Znamenalo by to, že podceňujeme sílu sebekritiky a usměrňování sebe samého, která má
v liberálně demokratickém světě své místo. Znevažování svrchovaných hodnot totiž má své
hranice a budoucnost zůstává otevřená. Demokratická a tržní hypermodernita stojí teprve na
počátku svého historického dobrodružství“.
5 Poznámka o současnosti
O nové hrozbě ztráty domova u tradičních komunit i u společenských tříd uvažuje Jan Keller
(2013) v knize Posvícení bezdomovců: „Moderní člověk v důsledku rychlých změn
a destrukce tradičních životních podmínek včetně zpochybnění náboženství trpí pocitem
absence domova … Nástup masové nezaměstnanosti a stále nejistější zaměstnání vede od
Acta Informatica Pragensia 133
80. let k šíření konceptu zranitelnosti /vulnerability/. Sociální vyloučení se stává trvalým
stavem pro relativně malou část lidí žijících v bohatých společnostech. Všechny základní
hodnoty, které přináší existence pevného domova, jsou přímo v jádru zpochybněny i u těch,
kdo se zatím ještě fyzickými bezdomovci nestali. Sociální exkluze je pouze posledním stadiem
procesu vykořisťování s jeho střídavým přivlastňováním a vypuzováním pracovní síly podle
momentálních potřeb kapitálu“. Kapitál už nepotřebuje práci a masový konzum, ani chudé,
které již totálně zinkasoval. Postup neoliberalismu v posledních letech „neznamená nic
jiného, než že se vlivní a bohatí definitivně rozhodli zinkasovat příslušníky středních vrstev.
Neoliberálové vše podřizují imperativu ekonomickému a ze sociálna činí jen jeho druhořadý
doplněk“. Tomu odpovídá představa, že společnost má být řízena personálními agenturami
a profesními odborníky zcela bezideově a utilitárně. Nedostatek moderní práce je dán také
nebývalým vědeckotechnickým rozvojem, automatizací a specializací. Vcelku to znamená
stále větší kumulaci kapitálu v rukou stále menšího počtu subjektů na jedné straně a na druhé
straně stále větší masu vyloučených. Chudobou, sociálním vyloučením a ztrátou střechy nad
hlavou je ohrožena asi čtvrtina obyvatel Evropy.
O tom, jak vypadá česká společnost v přicházející hypermoderní době, si můžeme udělat
podrobnější představu také ze svodných článků v LN 4.1.2014. Podle politologa Michala
Klímy (str. 24) parlamentní politické strany tu jsou převážně klientelistické a podnikatelské
s vazbami na nekalý byznys, někde i na organizovaný zločin. Tím se navyšuje jejich
parazitický a korupční potenciál. Privatizaci partají zdola uskutečnili bossové nebo kmotři
okresního a regionálního formátu, kteří investovali do politiky a ovládnutí zastupitelstev a rad
velkých měst a krajů. Kolonizace českých stran shora se zakládá na vztahu klient-klient mezi
nejmocnějším byznysem a celostátní politickou reprezentací, např. ČEZ, Penta a MUS mají
klíčový vliv na ODS a ČSSD. Zbytky ideově založených členů ve stranách byly převálcovány
lépe organizovanými strukturami ze šedé a černé zóny. Naději vidí Klíma v silné občanské
společnosti, která bude politikům nastavovat náročné mantinely po celé funkční období.
Podle redaktora Josefa Chuchmy (tamtéž, str. 21-22) hrozí, že ČR se Západem nikdy nestane
a zůstane středoevropská. Frustrující je přitom přízemnost, pasivní agresivita a odevzdanost.
Beton zatížil tento prostor, ačkoli řešením by mělo být vzdělání a svobodný prostor. ČR
stagnuje mentálně, v atmosféře, ve vitalitě. Začíná být ponechána na pospas kolonizátorům
všeho druhu. Oproti postmodernímu diskurzu, který připouštěl různost postojů, se dnes
postoje staví ostře proti sobě a bohatí a chudí se ani neposlouchají. Po natěšeném
polistopadovém neoliberalismu se historické kyvadlo přesouvá nalevo, avšak bez pozitivního
programu. Politická kultura je kontaminována nízkou podporou institucí, jako jsou vláda,
parlament a politické strany, přitom klesá spokojenost lidí s fungováním demokracie.
K hédonistickým hodnotovým orientacím se hlásí kolem 90% dospělé populace a kolem 75%
dospělé populace vyznává rovnostářské hodnotové orientace – tyto orientace si ovšem
protiřečí a vyvolávají pnutí „ať se každý stará sám o sebe“. Kulturnost lidí např. v ordinacích
lékařů se rapidně zhoršuje, přibývá výstupů agresivních neurvalců. „Společnost se polarizuje
shora i zdola, s tím druhým se nemluví, rozmývají se hranice mezi morálně a politicky
přijatelným a nepřijatelným, nikoli vinou nějaké postmoderní libovůle, nýbrž vinou apatie
a pasivní agresivity. ČR sice nadále zůstává mezi vyspělými zeměmi a vzniká v ní řada
užitečných a dobrých věcí. Otázkou je, jak dlouho takové žití z podstaty, respektive existování
bez vize, může vydržet bez citelných hmotných následků.“ Máme být na co hrdi?
Shrnuto: v klidu a pohodě šíří se zlodějství / hrdinstvím doby však zůstalo nekrást. Tak tomu
ovšem bylo už v minulosti, kupříkladu zasloužilí členové rodu Kinských, jenž dodnes sídlí
mj. v Kostelci nad Orlicí, odmítali přijmout titul kníže z Vídně, neboť jako česká šlechta by
jej mohli dostat jen od českého krále (Brož, 1997, str. 58). Zůstaneme-li u českého SI, pak
jeho zakladatel Zdeněk Dráb odmítal přijmout titul profesor od komunistů, na jeho tvůrčí
134 Vítek
odkaz jsme mohli s hrdostí navázat. Pokud by se měli podílet na zkorumpovaném školství
apod., systémoví inženýři své aktivity přeorientují nebo zastaví.
6 Úkoly systémového inženýrství
V systémovém inženýrství rozlišujeme primární analýzu a syntézu, kdy se zaměřujeme na
daná fakta o věcech či lidech a z nich odvozujeme zobecněné informace případně znalosti
jako informace o informacích 1 , a sekundární analýzu a syntézu, která zásadně přetváří
primární výsledky směrem ke vhledu, bdělosti a charismatu. Jestliže primární stupeň je
převážně technologické povahy, potom sekundární úroveň vydatně užívá filosofii a sociologii,
případně další odborné discipliny (například psychologii). Rovněž naše monografie zabíhá
místy k sekundárnímu zpracování již publikovaných monografií a jiných textů, aniž by to
znamenalo pouhou kompilaci ve smyslu „z deseti knih vyrobit jedenáctou“. Máme zato, že
hluboká sekundární práce s daty, informacemi a znalostmi, případně metaznalostmi, se
zapojením nejen rozumu v hlavě člověka, ale též jeho citů, vůle i fantasie, tedy s uvažováním
celého člověka (totus homo), teprve dává smysl a význam informačním systémům. 2
Primární analýza a syntéza informačních systémů se zabývá korektním a spolehlivým
technickým, především hardwarovým a softwarovým, zajištěním IS. Sekundární analýza
a syntéza informačních systémů potom nemá za cíl pouhou popularizaci a medializaci
dosud shromážděných informací, ale stále více si všímá možného zneužití informací
k policejním, mocenským a podnikatelským účelům. Závažné byly v roce 2013 následky
odhalení elektronického špehování americkými vládními službami v programu Prism, před
kterým neochránily občany ani celosvětově, ani v USA či v EU platné listiny lidských práv.
Rostoucí nedůvěra v bezpečnost Facebooku může v některých firmách paradoxně zvýšit
produktivitu práce zaměstnanců až trojnásobně. Heslo Nicka Cartera „Vždy ve střehu“ lze
interpretovat též „pokud nevíte, kdo je sledován, znamená to, že sledují právě vás“. Nicméně
Umberto Eco opakuje, že tzv. utajované informace už někde uveřejnila média. Ještě
výstižnější byl Chalíl Džibrán, když napsal: „Věříte tomu, co říkají ostatní. Věřte raději
v nevyřčené, neboť mlčení lidí se pravdě blíží více než jejich slova.“ Taktéž láska je
tajemstvím našeho soukromí!
Edward Snowden, který špehování odhalil, po putování přes Čínu a Rusko požádal o azyl
v Brazílii, stojící v čele kampaně OSN za omezení elektronického sledování. Brazílie a další
země zavádějí zákony o lokalizaci dat, vyžadující, aby data spojená s domácími občany byla
uložena výlučně v dané zemi. To ovšem zvýší těmto zemím technologické náklady, zejména
na elektřinu na provoz a chlazení serverů. Uchladit velký datový mrak (cloud) v Brazílii bude
1
Primární analýza a syntéza dat přináší zajímavá zjištění, jako že za časů Marxe byl ekonomický výkon
Afričana na pětině jeho britského soudruha, od té doby klesl na desetinu; podobně platí, že průměrný příjem 5%
nejbohatších Indů odpovídá průměrnému příjmu 5% nejchudších Američanů, neboli, chudí v Americe nebo
Evropě jsou příjmovou elitou ve světě (zdroj: Foreign Policy). Jinak: 85 nejbohatších lidí planety vlastní stejně
velký majetek jako 3,5 miliardy nejchudších (zdroj: Oxfam). Kde je tedy světová demokracie? Ptáme se dál.
2
K syntetickým kategoriím tu patří naděje, kterou můžeme nazírat též podle Psychologického ústavu FF
Masarykovy univerzity v Brně: „Bylo zjištěno, že lidé silné naděje se při střetu s překážkou nevzdávají, ale snaží
se hledat alternativní řešení a nacházet jiné způsoby a cesty k dosažení svého cíle. Těžkosti, se kterými se v životě
setkávají, pokládají za zvládnutelné a chápou překážky spíše jako výzvy k jejich překonání. Lidé se slabou nadějí
vnímají překážku jako past, do které budou chyceni. Také často trvají na jednom cíli a nepřemýšlejí o jeho
alternativách“ (LN 27.12.2013, str. 21). Nadějné myšlení značně zvyšuje životní štěstí, duševní vyrovnanost
i fyzické zdraví. Bývá příznačné pro spirituální a religiózní lidi, kteří vykonávají nějakou dobrovolnickou
činnost, k ní motivují přátele a přispívají penězi. Bylo zjištěno, že naději nejméně prožívají lidé od 18 do 29 let,
nejvíce lidé od 50 do 59 let, což ilustruje roli zkušeností a odpovědnosti za svůj život.
Acta Informatica Pragensia 135
takřka nemožné. Také v Evropě se varuje, že růst obchodu se službami v rámci evropské
jurisdikce je nejen velmi nákladný, ale také nebezpečný (neboť zneužitelný). Také tyto
problémy patří mezi Předpoklady informačních systémů, jak zní téma naší monografie. Naše
zkoumání dospělo až k filosofické a sociologické otázce, zda svůj světový názor máme založit
na apriorním principu racionální despocie (Hobbes) nebo na apriorním principu morální
autonomie (Kant). Důležité pro nás je, že od toho vyplynou nejméně dvě odlišné koncepce
informační bezpečnosti, totiž „spolehlivost“ anebo „štěstí“ (politolog by řekl: „násilí“ anebo
„svoboda“, psycholog by odhalil různou míru svéprávnosti zúčastněných jedinců atd.).
Z hlediska systémového inženýrství můžeme rozlišit tři typy vzdělávání:
1/ akademický typ byl vhodný pro hierarchické, centrálně řízené a vrchnostenské společnosti,
jaká tu byla již za Marie Terezie. Platilo heslo: „zopakuj, co jsem ti říkal, a poslušně vykonej,
co jsem ti přikázal“. Informace byly nedostatkové a přidělovaly se talentovanějším lidem,
tehdy šlechtě, se záměrem, aby je kvalifikovaně vykonávali. Takový přístup ještě vyznává
většina středních a vysokých škol, když tlačí před sebou zastaralou představu o povinnosti
studentů zapamatovat si vše, co jejich profesor ještě nezapomněl. Nadále „profesor není
confessor, tj. vyznavač, je malověrný, bázlivý, služebný kastrát“ (Václav Černý). Nedostává
se svobodný čas žáků ani o přestávkách, na pěší přesuny do a ze školy, resp. mezi školami.
2/ systémový typ se stal aktuálním v době plošně dostupných informací, pokročilých ICT
a decentralizované společnosti se složitými sítěmi vztahů. Uvažuje „školu demokracie“
(Tomáš Škrdlant) či „cílově orientované vzdělávání“ (Tomáš Feřtek3), jehož cílem je „sežeň
a posuď důležité informace a rozhodni se, co a jak vykonáš“. Více než poslušnost bez
odmlouvání se cení osobní angažovanost, ochota sám navrhnout řešení problému a vůle
dotáhnout ho do konce. Jde o to, najít člověka, který převezme sociální odpovědnost za úkol
a v domluveném čase ho dokončí bez výmluv na objektivní potíže. K cílům vzdělávání patří
dále týmová spolupráce, empatie a milosrdnost spíše než osobní profit. K metodě
systémového učení radí pedagog Jiří Kostečka: „Neučím od Gilgameše po Kunderu, ale učím
tituly, kvalitní autory. Tím proberu základní umělecké směry“ - k tomu dodáváme, že
osvojení celostného myšlení není dnes možné bez četby Kanta. Naznačenou cestou se ubírá
menšina středních a vysokých škol, zaměřených na rozvoj osobnosti a život, nikoli jen na
další přijímačky. Sestavit a udržet kvalitní tým učitelů tu je obtížné, získat grant téměř
nemožné…
3/ úpadkový typ hrozí tomu, „kdo chvíli stál, teď stojí opodál“ (Jan Neruda) neboli „jsou tu
ještě angličtí letci a Jan Palach. Ale oboje je už taky minulost. To opravdu není nic, co by se
alespoň evropsky prosadilo, když už ne světově? Pivovary vlastní cizí firmy, Škodovku také,
Kaplického blob jsme nepostavili a Miloš Forman už žije v Americe. České sklo jako pojem
známý v celém světě už prostě neexistuje … nacházíme k hrdosti stále méně důvodů“ (Josef
Klíma). Typ ad 3/ zahrnuje zvrhlou demokracii - jako blbost odhlasovanou občany ve
prospěch vůdců jako byli Hitler, Pol Pot nebo Lukašenko: „I kdyby si odhlasovali sebevětší
blbost, bude to jejich demokratická vůle“ (Tomio Okamura). V našich podmínkách na řadě
škol nepřemýšlejí vůbec, nepochybují a mají navždy jasno. Hlavní pro ně bývá, že se děti
3
Z citovaných jmen a prací vybereme článek: Feřtek T. (odborný konzultant EDUin, o.p.s.), Dar z nebes.
Debata o PORG je diskusí o smyslu vzdělávání. Ocenit by to měly ty méně prestižní školy. LN, 25.1.2014, str.10,
odkud uvedeme: „bývalý ředitel Klaus hodně tlačil na akademické výsledky, nijak se tím netajil a k sociálním
kompetencím byl ostražitý“. K prosazování systémového vzdělávání viz monografie Pedagogické fakulty UHK:
Vítek M. (ed.) Skutečnost, řád, výchova (1998), Systémovost ve školství (1999), Vzdělávání bez hranic (1999),
Občanská výchova pro novou společnost (2001), Systémová pedagogika (2005) aj. Hradec Králové: Gaudeamus.
136 Vítek
dostanou, kam chtějí: „na anglinu, ajtý nebo občanku“. Přesto: „Neleží mi v hlavě ani tak
politika, jak stálý růst zlodějství. Protože ono je součástí živočišné povahy, která se dá
překonávat jenom výchovou“ (Ludvík Vaculík).
Tolik k úkolům systémového inženýrství, pokud SI chápeme jako „aplikaci holistického
myšlení při projektování a přeprojektování sociálně kulturních systémů“ (Vítek et al., 1990),
(Vítek, 2005).
7 Závěr
Ačkoli Gilles Lipovetsky4 nepoužívá pojem „systémový“, přesto jeho „komplexní“ názor se
zřetelem k více úhlům pohledu je pro nás výzvou jak k obnově tradičních postupů
(náboženství, ale též Kanta, Hegela aj.), tak ke hledání postupů zcela nových. Ve smyslu
binarity hypermoderní doby a její reflexe nám jde o propojování technologických informací
s informacemi sociálními, o sepětí mezi primární a sekundární analýzou a syntézou dat,
informací a znalostí. Sám Lipovetsky doznává, že jako filosof „zbloudil“, jeho vnímání je
nezařaditelné mezi univerzitní obory, spíše se snaží pochopit, jak skutečnost „funguje“
(Lipovetsky, Charles, 2013, str. 121). Závěrem tedy nedospíváme k celostné a jednoduché
formulce, nýbrž k hlubokému respektu ke složité, rozporuplné a konfliktní skutečnosti.
Poučili jsme se, že pod hypersystémové přístupy musíme zahrnovat rovněž názory
nesystémové, tj. netechnické a nesociální: „Hypermoderní tlak na neustálé navyšování je
zmírňován požadavky na kvalitnější život, na zhodnocení citového prožitku a na
nezaměnitelnou osobnost“ (Lipovetsky, Charles, 2013, str. 96).
Seznam použitých zdrojů
Brož, I. (1997) Velké postavy rodu Kinských. Praha: Petrklíč.
Keller, J. (2013) Posvícení bezdomovců. Úvod do sociologie domova. Praha: SLON.
Lipovetsky, G. (1983) Éra prázdnoty. Praha: Prostor.
Lipovetsky, G., Charles, S. (2013) Hypermoderní doba. Od požitku k úzkosti. Praha: Prostor.
Říhová, Z., Vítek, M. (1989) Kybernetika a teorie systémů. Praha: SPN.
Vítek, M. (1990) Informatizace. Pardubice: VŠCHT.
Vítek, M. et al. (1990) Systémové inženýrství. Pardubice: VŠCHT.
Vítek, M. (2005) Systémová pedagogika. In Sborník XXXVII. vědecké konference o systémovém inženýrství SI.
Hradec Králové: Gaudeamus.
4
V zájmu stručnosti jsme se soustředili pouze na nedávno vydanou knihu (Lipovetsky, Charles, 2013).
V pražském nakladatelství Prostor od stejného autora vyšly ještě tituly Věčný přepych (2005), Třetí žena
(Neměnnost a proměny ženství) (2007), Paradoxní štěstí (Esej o hyperkonzumní společnosti) (2007), Éra
prázdnoty (Úvahy o současném individualismu) (2008), Říše pomíjivosti (Móda a její úděl v moderních
společnostech) (2010), Soumrak povinnosti (Bezbolestná etika nových demokratických časů) (2011)
a Globalizovaný Západ (Polemika o planetární kultuře) (2012).
Acta Informatica Pragensia
Recenzovaný vědecký časopis / Peer-reviewed scientific journal
ISSN: 1805-4951
Články v časopise podléhají licenci Creative Commons Uveďte autora 3.0
This work is licensed under a Creative Commons Attribution 3.0 License

Podobné dokumenty

Návod k použití UD 3004

Návod k použití UD 3004 Záznam na základě detekce pohybu v obraze a Záznam na základě alarmu senzoru jsou označovány jako Alarmové záznamy(Alarm Record). Multikamerové nahrávání V případě Multikamerového nahrávání pracuje...

Více

anotace přijatých projektů soutěže iga 2015

anotace přijatých projektů soutěže iga 2015 rostlina-patogen, rostlinné biotechnologie a evoluční vztahy. Jde o dlouhodobou koncepci katedry, která se odráží v jednotlivých ročních studentských projektech. Trendem dnešní doby je komplexní př...

Více

Výstavba datového skladu s použitím open source

Výstavba datového skladu s použitím open source Práce se zabývá využitím open source a bezplatného software pro vybudování datového skladu. Motivací je navrhnout implementací datového skladu při malou či střední firmu bez nutnosti pořízení komer...

Více

Integrační nástroje a jejich vazba k CASE a modelování vůbec

Integrační nástroje a jejich vazba k CASE a modelování vůbec podporu průřezových obchodních procesů. Většinou jsou míněny klíčové postupy podniku. Požadavky na tyto aplikace se ale často mění, a proto je potřeba, aby i takto složité integrační prostředí bylo...

Více

Výroční zpráva - Fakulta mezinárodních vztahů

Výroční zpráva - Fakulta mezinárodních vztahů koncipovaných předmětech a zároveň zpřístupněním vybraných akreditovaných předmětů i pro posluchače této univerzity. Další programy a kurzy celoživotního vzdělávání byly uskutečňovány v rámci doplň...

Více

Recenzovaný vědecký časopis / Peer

Recenzovaný vědecký časopis / Peer Vysoká škola ekonomická v Praze / University of Economics Prague nám. W. Churchilla 4 130 67 Praha 3 Czech Republic (The European Union) IČ / ID: 61384399 Web: http://aip.vse.cz

Více

2) Krajina, definice v různých pojetích, typologie krajin Krajina

2) Krajina, definice v různých pojetích, typologie krajin Krajina fidelita – označuje stupeň vázanosti či věrnosti druhů k určité zoocenóze. Podle fidelity rozlišujeme druhy eucenní, tychocenní, acenní a xenocenní. koordinace – vyjadřuje stupeň společného výskytu...

Více