Recenzovaný vědecký časopis / Peer

Transkript

Recenzovaný vědecký časopis / Peer
Recenzovaný vědecký časopis / Peer-reviewed scientific journal
Ročník / Year: 2013
Číslo / Number: 2
ISSN: 1805-4951
Vydává / Publisher:
Vysoká škola ekonomická v Praze / University of Economics Prague
Recenzovaný vědecký časopis / Peer-reviewed scientific journal
Ročník / Year: 2013 (vychází dvakrát ročně / published twice a year)
Číslo / Number: 2
Místo vydání / Place of edition: Praha
ISSN 1805-4951
Vydává / Publisher:
Vysoká škola ekonomická v Praze / University of Economics Prague
nám. W. Churchilla 4
130 67 Praha 3
Czech Republic (The European Union)
IČ / ID: 61384399
Web: http://aip.vse.cz
Kontakt a technické informace / Contact and technical information:
Václav Řezníček – [email protected]
Zdeněk Smutný – [email protected]
Redakční rada / Board of editors:
Stanislava Mildeová1 | University of Economics Prague, Czech Republic
Martin Boháček | University of Economics Prague, Czech Republic
Tomáš Bruckner | University of Economics Prague, Czech Republic
Vesna Čančer | University of Maribor, Slovenia
Rasa Daugėlienė | Kaunas University of Technology, Lithuania
Jiří Fišer | Jan Evangelista Purkyne University in Ústí nad Labem, Czech Republic
Milan Houška | Czech University of Life Sciences Prague, Czech Republic
Miloslav Hub | University of Pardubice, Czech Republic
Petr Kučera | Komix, Prague, Czech Republic
Petr Máša | Partners Financial Services, Prague, Czech Republic
Jan Ministr | VSB-Technical University of Ostrava, Czech Republic
Eve Mitleton-Kelly | London School of Economics, United Kingdom
Ingeborg Němcová | University of Economics Prague, Czech Republic
Jan Rauch | University of Economics Prague, Czech Republic
Václav Řezníček | University of Economics Prague, Czech Republic
Markus Schwaninger | University of St. Gallen, Switzerland
Antonín Slabý | University of Hradec Králové, Czech Republic
Zdeněk Smutný | University of Economics Prague, Czech Republic
Olga Štěpánková | Czech Technical University in Prague, Czech Republic
Prokop Toman | Czech University of Life Sciences Prague, Czech Republic
Milan Turčáni | Constantine the Philosopher University in Nitra, Slovakia
Viktor Vojtko | University of South Bohemia in České Budějovice, Czech Republic
Jan Voráček | College of Polytechnics Jihlava, Czech Republic
1
Šéfredaktorka / Editor in Chief
OBSAH / CONTENT:
Recenzované stati / Peer-reviewed papers
Novel methods of utilizing Jitter for Network Congestion Control ......................................... 1
Ivan Klimek, Marek Čajkovský, František Jakab
Flexible data queries ............................................................................................................... 25
Miroslav Hudec
A Review on Macroscopic Pedestrian Flow Modelling ......................................................... 39
Anna Kormanová
Subgraph Colouring Technique for Computer with Data Driven Computation Model ......... 51
Liberios Vokorokos, Branislav Madoš, Norbert Ádám, Marek Čajkovský
Framework for utilizing computational devices within simulation ........................................ 59
Miroslav Mintál
TOGAF usage in outsourcing of software development ........................................................ 68
Aziz Ahmad Rais, Rudolf Pecinovský
Mikroprogram pre riadenie procesu spájania operandov v architektúre DF KPI ................... 77
/ Microprogram for operand matching in DF KPI architecture
Norbert Ádám
Inovativní přístup k rozvoji Informačního managementu
magisterského oboru studia na VŠE v Praze .......................................................................... 97
/ An innovative approach to the development of the master study
of the Information management at the University of Economics in Prague
Vlasta Střížová, Zdeněk Smutný
Systémová dynamika: disciplína pro zkoumání
chování komplexních sociálních systémů ............................................................................ 112
/ System dynamics: discipline for studying complex soft systems
Stanislava Mildeová
Knižní recenze / Book reviews
Dynamika sociálně-ekonomických procesů ......................................................................... 122
/ Dynamics of socio-economic processes
Ingeborg Němcová
Zamyšlení / Reflections
(In)formování sociálních systémů ........................................................................................ 125
/ (In)formation of social systems
Miloš Vítek
Acta Informatica Pragensia
2(2), 2013, 1–24, DOI: 10.18267/j.aip.20
Online: aip.vse.cz
Section:
Peer-reviewed papers
Novel methods of utilizing Jitter
for Network Congestion Control
Ivan Klimek1, Marek Čajkovský1, František Jakab1
1
Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics,
Technical University of Košice, Letná 9, 042 00 Košice, Slovak Republic
{ivan.klimek, marek.cajkovsky, frantisek.jakab}@tuke.sk
Abstract: This paper proposes a novel paradigm for network congestion control.
Instead of perpetual conflict as in TCP, a proof-of-concept first-ever protocol
enabling inter-flow communication without infrastructure support thru a side
channel constructed on generic FIFO queue behaviour is presented. This enables
independent flows passing thru the same bottleneck queue to communicate and
achieve fair capacity sharing and a stable equilibrium state in a rapid fashion.
Keywords: Congestion control, Transport protocol, Inter-flow
communication, Jitter
2
Klimek, Čajkovský, Jakab
1 INTRODUCTION
Recent advances in rateless erasure codes [16, 22] enable to separate reliability from rate/congestion
control for general purpose unicast transport protocols [15]. Currently for purposes where reliability is
not necessary, for example multimedia applications, or when other layers take care of reliability for
example through Application Layer Forward Error Correction (AL-FEC) [3]. but congestion control
has to be guaranteed - TCP-Friendly Rate Control (TFRC) provides an option [8]. But it does so by
modelling the Transmission Control Protocol (TCP) [5] performance as a function of packet loss and
Round-Trip Delay Time (RTT) under the same conditions and limiting its rate accordingly. We argue
that this approach is sub-optimal because it inherits the TCP performance which is not always
satisfactory (For example on Wireless Wide Area Network (WAN) links, or Long Fat Networks
(LFN), resp. the issue of Bufferbloat [18] etc. ).
TCP flow synchronization occurs when congestion caused packet drop reaches levels that it affects all
the flows on the overflowing bottleneck, as TCP understands packet drop as an indication of
congestion it reduces its data rate. Because all the affected flows react the same way, the effect is flow
synchronization [28] [23]. More generally speaking this behaviour is not TCP-specific, congestion can
be utilized for synchronizing into a stable equilibrium state, where instead of aggressively reducing the
rate as TCP does, flows stop increasing their rate and only reduce it so that packet loss or queuing
doesn’t occur, thus stabilize the overflowing buffer, reaching and holding the full capacity of the
bottleneck. Protocol that utilizes this behaviour can be designed [14], the problem with this state is that
the capacity is not distributed fairly amongst flows it is just stabilized at whatever utilization the flows
reached in the moment bottleneck capacity was reached. While experimenting with this stable state we
noticed an interesting phenomena, we were able to on demand break the stable state and increase or
decrease jitter levels on all flows passing thru the bottleneck with the change of the data rate of one of
the competing flows even if it represented a fraction of the total bottleneck data rate. Thus effectively
creating a broadcast communication medium between independent flows from the bottleneck queue.
We present a proof of concept and explore the possibility of using this mechanism for congestion
control.
Acta Informatica Pragensia
3
Fig. 1. Example of two TCP flows synchronizing. X-axis = time [ms], Y-axis = no. of packets/s
2 JITTER AS CONTROL SIGNAL
Several variants of TCP already proposed using RTT as an additional control signal on top of packet
drop.
TCP Vegas [4] aims to improve the end-to-end congestion avoidance mechanism of TCP. The main
objective is to estimate the expected bandwidth for the connection in order to control the transmission
rate that can avoid network congestion. To achieve this goal, the scheme defines BaseRTT value
which represents the minimal round trip time during the transmission to calculate the expected
transmission rate of the link. After receiving an acknowledgement, sender continues to update
ActualRTT value which represents the current RTT and is necessary to be able to calculate the real
transmission rate. If the difference between BaseRTT and ActualRTT is higher than upper bound
threshold, congestion may occur since sending rate is too high. Thus, sender decreases one congestion
window size. If the difference is smaller than lower bound, sender should increase one congestion
window size to utilize the available bandwidth. Else, sender should keep the sending rate stable. TCP
Vegas suffers fairness problems when the connections start transmitting at different times. Also, TCP
Vegas is not suitable for wireless network since it cannot distinct loss events.
TCP Veno [10] is a loss differentiation scheme for the wireless environment and it is derived from
TCP Vegas. This method provides another threshold to differentiate between wireless and congestion
losses. Although the performance is improved in wireless environment, the loss differentiation scheme
cannot work well when the random loss rate is high. And it still does not solve the fairness issues of
Vegas.
4
Klimek, Čajkovský, Jakab
TCP Jersey [26] is another enhancement which improves network performance in wireless network.
But because it needs router support (ECN) we will not describe it further.
All the mentioned schemes so far used RTT, such congestion estimator cannot perform well when the
traffic load gets heavy over reverse links or asymmetric links.
On the other hand, JTCP [24, 25, 7] applies the jitter ratio to differentiate wireless losses from
congestion losses and revise the Reno’s congestion control scheme to adapt to wireless environments.
Jitter ratio [6] is derived from the inter-arrival jitter, which is defined in Real-time Transport Protocol
(RTP) [21]. Inter-arrival jitter is the variance of packet spacing at the receiver side and packet spacing
at the sender side. In other words, it presents current path’s status by the packet-by-packet delay. On
packet loss JTCP compares the average jitter ratio with a threshold, which is defined as the inverse of
congestion window size. If average jitter ratio is greater than this threshold, JTCP regards the loss
event as congestion loss and reduces its congestion window size to one half. Otherwise, the loss event
will be viewed as wireless loss. Sender will not reduce the congestion window and will do fast
retransmission immediately. The problem with such approach is the setting of the threshold, inverse of
congestion window size is a local parameter and does not represent the state of the network. Also, it
means that on higher transmission speeds and thus bigger congestion windows the system will be
much more sensitive to jitter variance.
Jitter seems to be better suited as an additional control signal than RTT as it describes only the one
way delay changes triggered by changed path load, thus it is more stable as it cannot be affected by the
load of the reverse path.
3 CHANGING THE PERSPECTIVE
State of the art transport protocols still use the TCP "point of view" - looking at data on packet level
[27] [12], even if Forward Error Correction (FEC) protocols slowly gain traction [17] they are no
different. The presented design is based on FEC codes and uses their error correcting properties to
change the perspective from a packet level to flow level. This abstraction can be compared to the
difference in the physics of a particle and a wave. We no longer have to deal with individual packets,
retransmit them etc. they are all just pieces of a flow. Where the flow can be modulated as a waveform
to create a secondary channel without affecting the primary channel – the information it transmits.
Acta Informatica Pragensia
5
Fig. 2. In digital fountain codes, the encoder produces a potentially infinite number of encoded symbols and the
decoder is able to recover the original information from any set of at least K=k(1+e) encoded symbols. [13]
Inter-flow communication is a crucial milestone, it enables fast convergence to a stable network state
where resources are allocated with absolute fairness. This is in contrast with currently used TCP-based
logic, where flows compete for capacity in a never ending fight for resources without ever reaching a
stable state or full resource utilization. All designs that tried to improve this situation did so by
utilizing feedback from the network requiring the network to change – routers to add functionality
[19],[1]. The presented system is the first as far as authors are aware of that provides the capability for
network flows to cooperate in achieving optimal network utilization without the need for any support
from the network – thus usable on the currently deployed infrastructure.
Most queues still use the most basic queuing algorithm – First in First out (FIFO) aka DropTail [20].
This fact that FIFO queues are "everywhere" in Internet is considered an issue causing problems such
as Bufferbloat [11]. In fact their omnipresence is a crucial enabler for our mechanism to function.
Other queuing mechanisms such as Active Queue Management (AQM) (Random Early Detection
(RED)[9]/Weighted RED (WRED)[2] etc.) should be also theoretically to some extent supported but
we did not so far look deeper into them.
The presented design primarily targets last mile routers as they are where most congestion occurs [11].
This scope limitation enables us to design a simple proof of concept communication system as not too
many concurrent flows occur at a last mile bottleneck when compared to a core router bottleneck
situation. Figure 3 illustrates the core concept behind our design, independent flows interact at the
bottleneck queue. When the ingress packet rate is higher than egress packet rate – buffering occurs.
Packets are ordered inside of the queue by their ingress time, if one flow increases its rate, the gap
between packets of other flows will be altered creating a measurable change. In the previously
mentioned equilibrium state achieved by congestion synchronization [14] a change of the transmitter
(TX) inter-packet delta aka packet rate of one flow can on-demand break the queue equilibrium and
create jitter measurable by all flows in that queue. The flow can also return back to the original rate,
thus a stable/unstable jitter modulation scheme can be constructed.
6
Klimek, Čajkovský, Jakab
Fig. 3. FIFO inter-flow interaction
4 FIFO THE THEORETICAL COMMUNICATION CHANNEL
FIFO is far from a perfect communication medium, it is not linear as the TX of a frequency or
amplitude modulation will not necessarily create a linear response on the receiver (RX) of a different
flow. The sampling rate of the RX flow is not stable and not only a function of its packet rate but a
function of the current state of the queue that is a superposition of all the different flows passing thru
it. Classic modulation approaches such as frequency or amplitude modulation are thus unusable,
transmitting special patterns such as patterns with strong auto-correlation properties also doesn't
produce stable results as error, erasures and shifts are arbitrary. Even if frequency modulation would
be possible it would not be ideal as it would require many samples to be precise. We therefore propose
a modulation requiring only a few samples that provides deterministically achievable results – an
equilibrium breaking modulation – where flows reach a stable state that is broken and restored in
protocol defined time windows.
Because of the mentioned properties a robust coding scheme is required, first of all the true sampling
rate is not known therefore the code needs to be self-clocking. The start of the sequence needs to be
clearly recognizable, to achieve this the presented code is self-synchronizing by reversing the
transmitted sequence every period.
7
Acta Informatica Pragensia
∈
∗
⇒
,
∈
∗
(1)
Equation 1: Self-synchronization, a code X over an alphabet A has a synchronizing word w in A+
Self-clocking is achieved by utilizing Differential Manchester encoding where a transition is
guaranteed at least once every bit, allowing the receiver to perform clock recovery. Differential
scheme is preferred as detecting transitions is often less error-prone than comparing against a
threshold in a noisy environment as a jitter based modulation is, also the polarity of the transition is
unimportant just the presence of a change is detected. The receiver monitors the variance of jitter,
where jitter is defined as the inter-packet delta. Variance is derivative of jitter, thus the second
derivative of packet arrival time.
Fig. 4. Sample delta jitter of a receiver flow. X-axis = jitter [ms], Y-axis = no. of packets
The variance is measured by taking the zero-crossings of the delta jitter. The number of zero crossing
directly reflects the state of the queue – stable/not stable. Because the modulation window is protocol
defined, the number of variance changes per window can be interpreted to bits.
The presented design uses 2 changes to encode bit 1, one change to encode bit 0 – the reconstructed
signal in Figure 5 is therefore 11001000.
8
Klimek, Čajkovský, Jakab
Fig. 5. Sample receiver reconstructed signal - Diff. Manchester encoded. X-axis = jitter [ms], Y-axis = carrier
signal (logical 0 or 1)
The simulations were performed in ns2 using a star topology with five TX nodes, one router node and
one receiver node, each TX node was transmitting one flow. All flows merged at the router node
which connection with the receiver node represented the bottleneck link. The modulated flow changed
its inter-packet delta between 4ms for the stable state and 2ms for the excited state. The four receiver
flows had a constant inter packet delta of 2ms. Protocol defined modulation window was 20ms.
Bottleneck link speed was set to match the stable state. Receiver code post-processed the ns2 data in
Matlab.
Figure 6 illustrates the bandwidth allocation of the bottleneck per flow, the 4 receiver flows are
superimposed as they have the same rate, so the total rate of the not-modulated flows is packet every
0.5ms vs. packet every 2 resp 4ms for the modulated flow. Meaning in average there is 6 times more
not-modulated packets than modulated in the queue at every moment.
Acta Informatica Pragensia
9
Fig. 6. Bottleneck bandwidth utilization per-flow - red is the modulated flow, blue are the 4 receiver flows
superimposed.
To demonstrate that only a fraction of the total queue capacity needs to be modulated for other flows
passing thru it be able to receive the signal the following experiment was performed. The notmodulated flows transmitted a packet every millisecond, the modulated flow every 8ms with
oscillation of 1ms up/down resulting in 7ms/9ms inter-packet delta for duration of protocol defined
window 20ms. Thus in average there was 32 times as many not-modulated packets than modulated in
the queue at every moment. Figure 7 illustrates this bandwidth allocation and Figure 8 shows the
reconstructed signal. Because the presented modulation only aims to trigger instability in the queue,
only a small change is necessary to achieve measurable difference. In contrast to usual modulations
where signal is being modulated on a medium, we modulate by creating and disturbing a stable state of
the medium.
This approach could be compared to the resonant frequencies known from physics, where even a small
periodic driving force can produce large amplitude oscillations. To set the amplitude right we propose
to use an Automatic Gain Control on the RX of the modulated flow, because its the RX of the flow
that is modulating it can have the knowledge of the fact that modulation should be happening and what
10
Klimek, Čajkovský, Jakab
should be transmitted. If the signal is not strong enough because of ambient jitter the RX can
immediately notify the TX that amplitude needs to be increased. For the primary information channel
the modulation/amplitude itself is invisible as it just oscillates to both direction so in average the rate
is constant.
Fig. 7. Bottleneck bandwidth utilization per-flow - red is the modulated flow, blue are the 4 receiver flows
superimposed.
Fig. 8. Reconstructed zoomed color coded signal - red is 1, green and yellow are 0 in up/down position resp.
Acta Informatica Pragensia
11
5 FIFO THE PRACTICAL COMMUNICATION CHANNEL
To verify that the presented theoretical model really works, we implemented it in C and tested “in the
wild” on the most worst case scenario we could think of. Worst case meaning a scenario where
arbitrary jitter is abundant. We used the topology from Figure 3. Two hosts connected via WiFi to a
3G router, one server was located at the Technical University Košice, the other in Germany –
approximately 20ms RTT from the server at our University. Host B had 3 active connections, each at
30ms inter-packet delta, all not-modulated – meaning static rate. Host A had a single modulated flow
at base rate of 40ms, with symmetrical amplitude of 10ms, thus one period inter-packet delta was
30ms, the next 50ms and vice versa. The flows from host B and host A met at the shared bottleneck –
3G wifi router uplink. Except of that they had nothing in common, they were destined for different
servers and originated from different hosts. Figure 9 shows the jitter measured on one of flow B flows.
Figure 10 the signal filtered from the jitter using signal averaging (two pass moving average with
window size of half of the protocol defined window).
The performed experiment clearly demonstrated that only a fraction of the total traffic passing thru the
bottleneck needs to be modulated for other flows to be able to detect it. In this experiment only the
clocking signal was transmitted e.g. all zeros – one change per period. Figure 11 illustrate how does a
1010 signal look – two changes per period marking bit 1.
Fig. 9. Jitter of one of the host B flows. Periodic modulation is clearly visible. X-axis = jitter [ms], Y-axis = no.
of packets
12
Klimek, Čajkovský, Jakab
Fig. 10. Filtered signal from the jitter on Figure 9. X-axis = jitter [ms], Y-axis = no. of packets
Acta Informatica Pragensia
13
Fig. 11. Signal + colored representation - bit 1, two changes per period - red, bit 0 up position - green, bit 0 down
position – yellow. X-axis = averaged jitter from [ms], Y-axis = no. of packets
6 DIGITAL VS. ANALOG
As the previous section demonstrated, digital modulation can be achieved. The problem is it would
take simply too long for information to be transmitted this way. The protocol defined window in
which modulation occurs needs to be at least several tens of milliseconds long so there are enough
samples (packets) for signal averaging to eliminate the random noise. If we can transmit only one bit
in each protocol defined window, it would take several Round Trip Times on most links to transmit
any usable information. We therefore aimed our focus on determining the effects of interactions
between flows on the FIFO that could possibly be combined into enough measurable factors that could
be used for an analog modulation.
Fig. 12. Jitter of 5 flows interacting at a bottleneck FIFO queue, the first flow from top is the modulated.
X-axis = jitter [ms], Y-axis = no. of packets
Figure 12 shows the jitter of 5 flows passing thru the same bottleneck. Flow 1 (first from top) is
modulated – changing its packet rate in a periodic manner. Flows reached a stable equilibrium state –
where they stopped increasing their rate and Flow1 started modulating. Each flow was able to reach a
different rate – clearly visible from the jitter graph is that the rate of Flow 2 and 3 are very similar.
14
Klimek, Čajkovský, Jakab
Fig. 13. Zoomed jitter of Flow 2 from Figure 12. Nomenclature for Equation 2 and 3: yellow = jitter amplitude,
black = up period length, red = down period length.
Figure 13 shows a zoomed portion of Figure 12, market yellow is the amplitude of the received
modulation, black is the length (in packets) of the UP phase and red is the length of DOWN phase.
These three variables describe what is going on the FIFO – amplitude is the change created by the
modulated flow and is received inversed. When the modulated flow transmits more packets – less
packets of other flows will pass thru the FIFO. When the modulated flow transmits less packets –
more packets of other flows will pass thru it. The ratio between the UP and DOWN phases
corresponds directly to the ratio of the modulated flow rate at higher (amp+ [ms]) and lower rate
(amp- [ms]). Jitter samples the state of the queue, the modulated flow changes it by its modulation
amplitude thus all the non-modulated flows that pass thru the queue at that time will be subjected to
the same level of change – resulting in 1:1 transmission of the amplitude to all flows even if they
transmit at different rates.
_
_
_
_
(2)
Equation 2: Relation between the period lengths and modulated flow rate, also visible from Figure 13.
_
(3)
Equation 3: Relation between jitter amplitude and modulated flow rate, also visible from Figure 13.
Where interval is the inter packet gap of the modulated flow and
(amp+) = interval + amplitude
(amp-)= interval - amplitude
In contrast to jitter where the amplitude is received exactly as it is transmitted on bandwidth the effects
are specific to each flow and its speed as Figure 14 illustrates. Jitter is the measure of change, a stable
jitter amplitude translates into a flow specific amplitude in the “bandwidth domain”. A jitter amplitude
of X milliseconds translates into a change of Y percent in jitter for that particular flow. Meaning the
same level Y of change will be visible as the bandwidth amplitude – Y percent of the flow speed. Also
Acta Informatica Pragensia
15
important to note is that the bandwidth amplitude of the modulated flow is because of the limited
capacity of the bottleneck/FIFO matched by the inversed summed amplitude of the other flows. (not
visible from Figure 14 as flows are superimposed). This property can be used as a validator of the
results from Equation 2 and 3.
Fig. 14. Bandwidth allocation demonstrating different amplitude size based on the flow speed.
All together these parameters can be used to construct an analog communication scheme, where the
modulating flow transmits just a square wave with a constant amplitude and frequency – defined by
the protocol defined modulation window. The non-modulated flows can decode the rate and the
amplitude of the modulated flow from just two periods worth of samples as shown in Figure 13.
7 CONGESTION CONTROL USING INTER-FLOW
COMMUNICATION
We have constructed a simple congestion synchronizing inter-flow communication based, congestion
control scheme to demonstrate the possible benefits of communication between independent flows.
Synchronization is achieved by exponential search until less packets than expected arrive at the flow
RX. The RX holds the logic determining the rate of the flow and decides based on the number of
packets it receives, if the expected number of packets per reporting interval is received the rate is
16
Klimek, Čajkovský, Jakab
increased, if less packets is received the rate is set to the rate corresponding to the amount of packets
actually received – thus at the maximum achievable capacity.
Fig. 15. FSM describing the congestion control algorithm.
The first flow to reach the capacity is because of the aggressiveness of the exponential search expected
to be the fastest flow. During the exponential search, the rate is increased in steps, between these steps
the rate is stable and the flow listens to possible jitter modulation. If it reaches the capacity but was not
able to detect any modulation present it starts to modulate a square wave signal with period of the
protocol defined with and a stable amplitude. If another flow is present, it receives the modulation and
immediately changes its rate to the decoded rate of the modulating flow. The result of such action is
that packets of both flows now arrive at the bottleneck with same inter-packet gaps, thus any effect
such as buffering or drop would have the same results on both of them. The result is measurable and
rate is set according to it, thus both flows set the same rate and just shared the capacity fairly. The
modulated flow immediately detects a change on the network when the other flow changes its rate as
less packets will arrive in that interval. To be able to detect when a stable state was achieved it stops
modulating. After a stable amount of packets is received for at least two periods, the rate is adapted to
the detected rate. If any change would happen such as a new flow or a flow was lost, a change would
be detectable. Based on the change an action would be taken, if the jitter would rise and less packets
than expected would be received possibly a new flow arrived. The first flow to detect such change
would start modulate, the earlier mentioned logic would repeat. If the jitter would drop, possibly a
flow was lost. The first flow to detect such change would start exponential search, because of its
aggressiveness it is expected the rate would be achieved before other flows could react in the same
way. After the new rate would be found, the flow would start modulate it to broadcast it to other flows,
that would react and re-sync the capacity.
Acta Informatica Pragensia
17
Fig. 16. Simulated capacity sharing with the knowledge of the maximum flow rate.
Figure 16 illustrates the effect of the broadcasted knowledge of the fastest flow rate. If flows know this
information, fair and instant capacity sharing is trivial because the FIFO does quantization based on
ingress time. If inter packet gaps are the same, the flows will get the same share of capacity. To limit
over-buffering it is important to detect stabilized queue state and adapt the transmit rate accordingly in
as shortest time as possible.
8 PERFORMANCE EVALUATION
There was performed several experiments using various parameters for queue size. Another
parameters which was not changed during experiment was; speed of the exponential search
(multiplicative factor was set to 4) and the capacity usage goal (controlling how much capacity should
each flow use - set to 90%). One of experiments is shown on figure 17 with queue size set to 20
packets. The simulation runtime was 10 seconds with flows stopping at time 9 seconds. Flows where
starting gradually: Flow 1 at time 0, Flow 2 at time 0.3 seconds, Flow 3 at 0.3 seconds, Flow 4 at 0.4
seconds and Flow 5 at 0.5 seconds.
18
Klimek, Čajkovský, Jakab
Fig. 17 System throughput with queue size set to 20 packets. X axis = time elapsed [s], Y axis =
throughput [kbps]
The capacity usage goal is set after the speed of the FIFO equalization - thus after all flows set to the
equal goal, they don't set to what they see is the actual throughput but only to the configured capacity
usage goal in this example 90 percent of that. As expected the algorithm performs the same on all
scenarios - minimal differences was visible between the another (queue size of 20, 50, 100, 1000 and
infinite packets) experiments. To compare the presented protocol we believe the best way to see the
novelty is to see the existing TCP variants in action and compare visually. Experimental settings
(queue size, speed of the exponential search, capacity usage goal) was used on the same values as in
previous experiment.
The considered TCP variants where: Binary Increase Congestion control (BIC) and TCP CUBIC:
Binary Increase Congestion control. Figure 18 shows TCP BIC system throughput. Figure 19 shows
TCP CUBIC system throughput.
Acta Informatica Pragensia
Fig. 18a TCP BIC system throughput for 20 bottleneck queue size. X axis = time elapsed [s], Y axis =
throughput [kbps]
Fig. 18b TCP BIC system throughput for 50 bottleneck queue size. X axis = time elapsed [s], Y axis =
throughput [kbps]
19
20
Klimek, Čajkovský, Jakab
Fig. 18c TCP BIC system throughput for infinite bottleneck queue size. X axis = time elapsed [s], Y axis =
throughput [kbps]
Fig 19a TCP CUBIC system throughput for 20 bottleneck queue size. X axis = time elapsed [s], Y axis =
throughput [kbps]
Acta Informatica Pragensia
21
Fig 19b TCP CUBIC system throughput for 50 bottleneck queue size. X axis = time elapsed [s], Y axis =
throughput [kbps]
Fig 19c TCP CUBIC system throughput for infinite bottleneck queue size. X axis = time elapsed [s], Y axis =
throughput [kbps]
After reviewing TCP behaviour, it is clear that none of the variants provide comparable stability,
convergence time nor intra-flow fairness to the presented algorithm. Personal opinion of the author is
that numeric metrics are useful to compare sub-optimal approaches such as TCP variants in between
each other, but hardly useful to compare against a "straight line" which is clearly visible in our
approach.
22
Klimek, Čajkovský, Jakab
9 CONCLUSION
This paper demonstrated both using simulations and real world measurements that inter-flow
communication without any support from the infrastructure can be achieved. We demonstrated proofof-concepts of both analog and digital modulations over the FIFO jitter side-channel constructed
between independent flows sharing the same bottleneck link utilizing the generic FIFO queue
behaviour. Further we presented a minimalistic algorithm utilizing this communication to achieve
rapid, fair and stable capacity sharing between flows. We hope that the presented proof-of-concepts
will ignite wider research interest and drive progress towards a universally optimal transport protocol.
Future research focus could include optimization of the analog approximation. Our future research will
be aimed towards incorporation of fountain codes as main factors which can possible eliminate the
dependency on RTT.
ACKNOWLEDGEMENT
This work is the result of the Project implementation: Competency Centre for Knowledge technologies
applied in Innovation of Production Systems in Industry and Services, ITMS: 26220220155, supported
by the Research & Development Operational Programme funded by the ERDF.
10 REFERENCES
[1]
AYYUB Qazi, I., ZNATI T., ANDREW L.: Congestion Control using Efficient Explicit
Feedback. In: INFOCOM 2009, IEEE, pp. 10-18. IEEE, 2009. DOI:
10.1109/INFCOM.2009.5061901
[2]
BODIN Ulf, OLOV Schelen, PINK Stephen: Load-tolerant differentiation with active queue
management. In: ACM SIGCOMM Computer Communication Review 30.3 (2000): 4-16.
DOI: 10.1145/382179.382180
[3]
BOURAS Christos, KANAKIS Nikolaos, KOKKINOS Vasileios, PAPAZOIS Andreas: ALFEC for streaming services over LTE systems. In: Wireless Personal Multimedia
Communications (WPMC 1-5.), 2011 14th International Symposium on. IEEE, 2011.
[4]
BRAKMO L. S., PETERSON L. L.: TCP Vegas: end to end congestion avoidance on a global
Internet. In: IEEE Journal on Selected Areas in Communications, vol. 13, no. 8, pp. 1465–
1480, 1995. DOI: 10.1109/49.464716
[5]
CERF Vinton, DALAL Yogen, SUNSHINE Carl: Specification of internet transmission
control program. In: INWG General Note, Vol. 72., 1974.
[6]
CHEN Shi-Yang, WU Eric Hsiao-Kuang, CHEN Mei-Zhen: A new approach using timebased model for TCP-friendly rate estimation. In: Proceedings of the International Conference
on Communications (ICC ’03), pp. 679–683, May 2003. DOI: 10.1109/ICC.2003.1204261
[7]
CHEN, Jyh-Ming, CHU Ching-Hsiang, WU Eric Hsiao-Kuang, TSAI Meng-Feng, WANG
Jian-Ren: Improving SCTP Performance by Jitter-Based Congestion Control over WiredWireless Networks. In: EURASIP Journal on Wireless Communications and Networking, vol.
2011, 2011. DOI: 10.1155/2011/103027
Acta Informatica Pragensia
23
[8]
FLOYD S., KOHLER E., PADHYE J.: Profile for Datagram Congestion Control Protocol
(DCCP) Congestion Control ID 3: TCP-Friendly Rate Control (TFRC). In: RFC 4342. March
2006.
[9]
FLOYD Sally, JACOBSON V.: Random early detection gateways for congestion avoidance.
In: Networking, IEEE/ACM Transactions on 1.4 (1993): 397-413. DOI: 10.1109/90.251892
[10]
FU Cheng Peng, LIEW S.C: TCP Veno: TCP enhancement for transmission over wireless
access networks. In: IEEE Journal on Selected Areas in Communications, vol. 21, no. 2, pp.
216–228, 2003. DOI: 10.1109/JSAC.2002.807336
[11]
GETTYS Jim, NICHOLS Kathleen: Bufferbloat: Dark Buffers in the Internet. In: IEEE Queue
9, no. 11 (2011): 40. DOI: 10.1109/MIC.2011.56
[12]
HYUNGSOO Jung, KIM Shin-gyu, YEOM Heon Y., KANG Sooyong, LIBMAN Lavy:
Adaptive delay-based congestion control for high bandwidth-delay product networks. In:
INFOCOM, 2011 Proceedings IEEE, pp. 2885-2893. IEEE, 2011. DOI:
10.1109/INFCOM.2011.5935127
[13]
Image Processing Lab, Electronics Department at Politecnico di Torino. Research @ IPL Digital fountains. [Online: 30.12.2011] http://www1.tlc.polito.it/sasipl/research_digital_fountains.php.
[14]
KLIMEK Ivan, KELTIKA Marian: Jitter Utilizing Congestion Estimation (JUICE). In:
Proceedings of Scientific Conference of Young Researchers (SCYR) 2012, FEI TU Kosice,
2012.
[15]
KLIMEK Ivan: Wide Area Network Traffic Optimization - Written work to Doctoral Thesis.
At: Technical University Košice, December 2011.
[16]
LUBY M., SHOKROLLAHI A., WATSON M., STOCKHAMMER T., MINDER L.:
RaptorQ Forward Error Correction Scheme for Object Delivery. In: RFC 6330. August 2011.
[17]
MINJI Kim, MÉDARD Muriel, BARROS João: Modeling network coded TCP throughput: A
simple model and its validation. In: 5th International ICST Conference on Performance
Evaluation Methodologies and Tools ValueTools 2011. Newton: EAI Publishing. ISBN
9781936968091.
[18]
NAGLE John: On Packet Switches with Infinite Storage. In: IEEE Trans. Communications,
Vol-35, No. 4, April 1987, pp. 435-438
[19]
NANDITA Dukkipati, McKEOWN Nick, FRASER Alexander G.: RCP-AC: Congestion
Control to Make Flows Complete Quickly in Any Environment. In: INFOCOM 2006. 25 th
IEEE International Conference on Computer Communications. Proceedings, pp. 1-5. IEEE,
2006. DOI: 10.1109/INFOCOM.2006.18
[20]
NARENDRAN Rajagoplan, MALA C.: A Comparative Study of Different Queuing Models
Used in Network Routers for Congestion Avoidance. In: Information Technology and Mobile
Communication (2011): 431-434. DOI: 10.1007/978-3-642-20573-6_77
[21]
SCHULZRINNE H., CASNER S., FREDERICK R., JACOBSON V.: RTP: A Transport
Protocol for Real-Time Application. In: Internet Engineering Task Force (IETF), RFC 1889,
1996.
24
Klimek, Čajkovský, Jakab
[22]
SHOKROLLAHI Amin, LUBY Michael: Raptor Codes: Foundations and Trends(r) in
Communications and Information Theory. In: Boston: Now. ISBN 16-019-8446-4. DOI:
10.1561/0100000060
[23]
SO-IN Chakchai: Loss Synchronization of TCP Connections at a Shared Bottleneck Link. In:
WUSTL Technical Report, 2006.
[24]
WU Eric Hsiao-Kuang, CHEN Mei-Zhen: JTCP: Jitter-Based TCP for Heterogeneous
Wireless Networks. In: IEEE Journal on Selected Areas in Communications, vol. 22, no. 4, pp.
757–766, 2004. DOI: 10.1109/JSAC.2004.825999
[25]
WU Eric Hsiao-Kuang, CHENG Yu-Chen: JRC: jitter-based rate control scheme for wiredwireless hybrid network. In: International Journal Pervasive Computing and Communications,
vol. 3, no. 3, pp. 322-337, 2008. DOI: 10.1108/17427370710856264
[26]
XU K., TIAN Y., ANSARI N.: TCP-Jersey for Wireless IP Communications. In: IEEE
Journal on Selected Areas in Communications, vol. 22, no. 4, pp. 747–756, 2004. DOI:
10.1109/JSAC.2004.825989
[27]
YUNHONG G., GROSSMAN R. L.: End-to-End Congestion Control for High Performance
Data Transfer. In: IEEE/ACM Transaction on Networking, 2003.
[28]
ZHANG Lixia, SHENKER Scott, CLARK Daivd D.: Observations on the dynamics of a
congestion control algorithm: The Effects of Two Way Traffic. In: ACM SIGCOMM '91,
Zurich, 1991.DOI: 10.1145/115992.116006.
Acta Informatica Pragensia
2(2), 2013, 25–38, DOI: 10.18267/j.aip.21
Online: aip.vse.cz
Section:
Peer-reviewed papers
Flexible data queries
Miroslav Hudec1
1
Faculty of Economic Informatics, University of Economics in Bratislava,
Dolnozemská cesta 1, 852 35 Bratislava, Slovak Republic
[email protected]
Abstract: The Structured Query Language (SQL) has been established as a
standard for querying relational databases. However, users face the problem how to
define their requirements for data by the exact query conditions. This work
examines advantages of fuzzy queries, which provide a better representation of the
user requirements by expressing imprecise conditions through linguistic terms.
Further, the paper discusses solving empty and overabundant answer problems,
revealing similarities in database entities and applying preferences in query
conditions. Finally, paper discusses practical realisations of fuzzy queries.
Keywords: Fuzzy logic, SQL, Benefits of fuzzy queries
26
Hudec
1 INTRODUCTION
A query against a collection of data (in database) provides a formal description of the items of interest
to the user posing this query [12]. For querying relational databases the Structured Query Language
(SQL) has been developed. SQL queries use two-valued Boolean concepts (logical conditions) to
describe the entities users are looking for e.g. select municipalities where altitude above sea level is
greater than 1000 m. From the computational point of view this is powerful way for selecting a sub set
of entities from a database.
On the other side of a database are people which use the natural language in communication, searching
for useful information and reasoning. Human approximate reasoning, although without precise
measurements, is a very powerful way for finding solutions of various problems. Therefore, for people
it is more convenient to use the concept based on natural language in data selection processes.
“Computing, in its usual sense, is centred on manipulation of numbers and symbols.” [20] In contrast,
computing with words is inspired by the singular human capability to perform a wide variety of tasks
without precise measurements and computations [20]. These terms include a certain vagueness or
uncertainty that information systems operated on the two-valued logic {true, false} do not understand
and therefore cannot use [6]. When an entity with attribute value of ra satisfies a condition, then we
expect that an entity having attribute value close to ra should also satisfy the condition, but with a
slightly lower satisfaction degree.
In these cases the uncertainty is not based on randomness, it cannot be presented as a precise numeric
value. This type of uncertainty is called fuzziness [23]. It implies that fuzzy set and fuzzy logic theory
[21] is a rational option which may offer the solution for above mentioned tasks. The fuzzy logic
directly employs calculations with linguistic terms in order to solve data selection (retrieval) problems.
Fuzzy logic reduces the complexity of mathematical analysis of problems in comparison with the
classical approaches [16]. By the two-valued logic, two elements of the analysed universe (e.g.
customers or municipalities) can be discerned only if one has and another does not have the examined
property. Therefore, the number of necessary properties (attributes in queries) increases. Contrary, in
fuzzy logic the complexity of the problem can be reduced by including the intensity of the examined
property (e.g. query conditions). This allows us to distinguish elements with the same property, based
on the intensity of matching it.
The paper has two objectives. The first intent is to present advantages of fuzzy queries for researchers
and practitioners, which are highly depended on data (analysts, decision makers…) and are not experts
in fuzzy logic and databases. The second intent is discussing issues and solutions of flexible queries
such as empty and overabundant answers, similarities, preferences and practical realisations. Section 2
discusses limitations of SQL queries. Introduction to the fuzzy logic is provided in Section 3. Section
4 illustrates fuzzy queries. Section 5 is focused on practical realisations. Section 6 is dedicated to
particular problems which ca be efficiently solved by fuzzy queries. Finally, concluding remarks are
drawn in Section 7.
Acta Informatica Pragensia
27
2 LIMITATIONS OF SQL
The SQL has been introduced in [11]. Since then the SQL has been used in variety of relational
database management systems. The applicability of the SQL may be regarded as one of the mayor
reasons for the success of relational databases in the commercial world [18].
Let R be a table in a relational database. A set of tuples t (entities) is then defined as relation on
Cartesian product:
R  {t | t  Dom( A1 ) x Dom( A2 ) x  x Dom( An )}
(1)
where Ai is the entity’s attribute and Dom(Ai) is its associated domain.
In traditional SQL queries the entity in a database can either fully satisfy the intent of a query Qs or
not. Other options do not exist. Let A(Qs) be the set of answers to query Qs defined in the following
way:
A(QS )  {t | t  R   (t )  1}
(2)
where φ(t) indicates that the selected tuple t meets the query criterion.
The usefulness of the SQL for queries on relational databases is indisputable. Nevertheless, limits of
using dichotomous criteria might appear. The limitation is explained on the following query:
select *
from [Table T]
where attribute_1 > A1 and attribute_2 < A2
(3)
The result of the query is depicted in the graphical mode in Fig. 1. Values A1 and A2 delimit the space
of the relevant data. Small squares in the graph show entities in a database. From the graph it is
obvious that three entities are very close to meet the query criterion (3). For example, these entities
could be customers and direct marketing should also consider these customers in motivation issues.
The result is not surprising, because the SQL uses the two-valued (crisp) logic in querying. It means
that the entity is not selected even though it is extremely close to meeting the intent of the query.
28
Hudec
Fig. 1. The result of the classical query.
If the SQL is used for solving this problem, the SQL relaxation could be in the form [4]:
select *
from [Table T]
where ateribute_1 > A1-a1 and attribute_2 < A2+a2
(4)
where a1 and a2 are used to expand the initial condition to encompass entities that are near the
boundary of a query. According to [4] this approach has two main disadvantages. Firstly, the meaning
of the initial query is diluted in order to capture neighbouring entities, but these entities satisfy a query
with the same degree as all entities meeting the initial query (3). It means that the difference between
original and neighbouring data (additional records selected by the relaxed query condition) does not
exist. Secondly, what about entities that are very close to satisfy the expanded query? Is it useful to
make another expanding of a query? In this way more data from the database is selected, but not better
data.
If we include not only the information whether or not record meet the query condition but also the
intensity of satisfying the query condition then we are able to solve issue depicted in Fig. 1.
3 FUZZY SETS AND FUZZY LOGIC IN BRIEF
The concept of fuzzy sets was initially introduced in [21] where it was observed that precisely defined
criteria of belonging to a set often could not be defined. In the classical set theory an element either
belongs or does not belong to a set. The fuzzy set theory allows describing the intensity, uncertainty
and ambiguity described by linguistic terms. The intensity is described by a membership function µ
valued in the unit interval [0, 1]. Let consider a set called high unemployment rate (HUR) [8]. The
HUR set can be presented by fuzzy set HUR shown in Fig. 2. User could define that the
unemployment rate (UR) greater and equal than 10% fully belongs to the HUR concept, the
Acta Informatica Pragensia
29
unemployment rate smaller than 8% definitely is not HUR and unemployment rate between 8% and
10% partially belongs to the HUR concept. Naturally, when unemployment rate is closer to 10%, then
it stronger belongs to the HUR concept. The fuzzy sets approach is not limited to clear sets’
boundaries.
Fig. 2. Fuzzy set for the high unemployment rate concept [8].
A query usually contains several atomic (elementary) conditions in the overall query condition. For
example, query (3) contains two elementary conditions merged by the and logical operator. Let’s
consider the condition: unemployment is high and migration is small. The satisfaction degree for each
elementary condition takes value from the [0, 1] interval. For example the territorial unit satisfies the
high unemployment with 0.8 and the second elementary condition with 0.65. We should apply
aggregation functions dealing with membership degrees. For the logical and operator, these functions
are called t-norms [13]. The min t-norm:
 (t )  min(i (a i )),
i  1,..., n
(5)
where µi(ai) denotes the membership degree of the attribute ai to the i-th fuzzy set and μ(t) denotes
satisfaction degree to the overall condition for entity t is often used because of its simplicity.
Discussion about other t-norm functions can be found in e.g. [4], [5] and [10]. Interesting introduction
into fuzzy logic and its practical applicability presented in a popular way can be found in e.g. [15].
4 FLEXIBLE QUERIES
In queries based on fuzzy logic the entity in a database can satisfy the intent of a query QF with the
particular membership degree. Let A(QF) be the set of answers to query QF defined in the following
way:
A(QF )  {(t ,  (t )) | t  R   (t )  0}
(6)
where µ(t) indicates how the selected entity t meets the query criterion. If µ(t) = 1, the entity fully
meets the query criterion. Value of µ(t) in the interval (0, 1) means that the entity t partially satisfies
the query criterion.
30
Hudec
In fuzzy queries, instead of numbers in query conditions (e.g. unemployment rate > 5%) and
traditional comparison operators (>, =, <) we can apply fuzzy sets. The operator > (greater than) was
in flexible queries improved with the fuzzy set high value (Fig. 1) to catch terms like unemployment
rate is high. The operator = (equal) was fuzzified through the use of the term more or less equal to
value a, where a is a real number. It can be described as a trapezoidal or triangular (a = B = C) fuzzy
set about value (Fig. 3). In the same way other operators like < or between can be fuzzified.
Fig. 3. Fuzzy set About (more or less equal to).
According to the above mentioned facts, the example of a fuzzy query e.g. find appropriate areas for
tourism has the following form:
select municipality
from [Table T]
where air pollution is Small and
number of sunny days is High and
altitude above sea level is about 1500 meters
(7)
The meaning of a fuzzy query is obvious at the first glance because it is expressed with the linguistic
terms. User is not forced to create the query criterion by numbers. Because linguistic terms have
different meaning for different users and contexts, user should define parameters of these terms. For
example the term high temperature has different meaning for temperatures describing activities inside
the Sun or for selecting the appropriate tourism destination. Moreover, for different tourists the term
high temperature has different meaning. Therefore, the parameters of membership functions should be
adjusted according to user’s requirements. For the example (7) small, high and about fuzzy sets and
their respective parameters are depicted in Fig. 4. The result of this query is illustrated in the Table 1.
Fig. 4. Fuzzy set for the example (7).
Acta Informatica Pragensia
Municipality
M7
M5
M2
M3
M8
Pollution
(P)
8.2
10.2
9.5
11.0
14.1
Number
µ(P) of sunny
days (S)
1.00
161
0.96
149
1.00
147
0.80
145
0.18
160
µ(S)
Altitude
(A)
µ(A)
Satisfaction
degree
1.0
0.9
0.7
0.5
1.0
1500
1495
1520
1510
1430
1.00
0.95
0.80
0.90
0.30
1
0.9
0.7
0.5
0.18
31
←
←
Table 1. Areas suitable for the tourism activities.
In Table 1 µ(P) denotes the membership degree to the small pollution concept, µ(S) denotes the
membership degree to the high number of days with sunshine and µ(A) denotes the membership
degree to the altitude about 1500 m concept. The satisfaction degree, calculated by the minimum tnorm (5) represents membership degree to the small air pollution and high number of sunny days and
altitude about 1500 meters concept. If tourist cannot travel to M7, the next choice is the M5 that
almost satisfies the intent of the query. Again, if it is not possible to realise tourism activities in M5,
the next choice is M2 and so on. It is important to emphasize that ranking is not done by one indicator,
their combination by weighted coefficients, etc. All indicators have the same importance and ranking
is done according to the satisfying the concept created in the query criterion. If SQL were used, this
additional valuable information would remain hidden.
The aim of this paper is not to examine the technical realisation of fuzzy queries on relational
databases (transformation from linguistic terms to the SQL where clause, selection all candidates and
calculate their membership degrees). Concerning this topic, readers can find more in e.g. [1], [9], [19]
and [22].
5 PRACTICAL REALISATIONS
Issues of practical realisation are usually divided into two main areas: realisation of an application
layer and intuitive design of a user interface. The former should support imprecise queries and keep a
relational database structure unchanged. An illustrative example of the realisation of fuzzy query by
the fuzzy Generalized Logical Condition [9] is shown in Fig. 5. In the first step users defines all
required parts of queries (attributes of interest and conditions). In the next step application layer
converts fuzzy queries into the SQL query in a way that all candidates (entities which satisfy query
condition with degree greater than 0) are selected from a relational databases. In the reverse direction,
membership degrees to each elementary condition and to the overall query are calculated and result is
provided on a user interface.
32
Hudec
Fig. 5. Fuzzy query realisation.
SQL query is not so easy to use for novice users. The same holds for fuzzy queries. Although fuzzy
queries have significant advantages, an interface should be as intuitive as possible to help users to
formulate their queries. The PostgreSQL_f approach [17] offers the solution. Because, all the
functionalities created in the PostgreSQL_f cannot be easily managed by users, the ReqFlex was
created to offer the intuitive construction of flexible queries.
User should have two options: (i) choose parameters of fuzzy sets according his/her preferences and
(ii) a fuzzy query application calculates these parameters either from users’ previous preferences or by
mining from the current database content. Concerning the (i) both above mentioned approaches ([9],
[17]) offer the solution. Regarding (ii), [17] is able to offer parameters from users previous preferences
whereas approach [9] can mine parameters from the current database content by adding methods
discussed in [10]. Ideally, all discussed ways should be integrated.
6 BENEFITS OF FUZZY QUERIES
In this section, some benefits of fuzzy queries in comparison with traditional SQL queries are
examined, namely solving empty and overabundant answer, membership degrees, similarities and
preferences.
6.1 TREATMENT OF EMPTY AND OVERABUNDANT
ANSWER PROBLEMS
The empty answer means that no entity meets a query condition. At the first glance, this may not be a
problem. It is also an informative answer. But, when the user wants to know why an empty answer has
appeared or how close entities to match he query condition are, user have to modify parameters in
query conditions and process another, similar query. In theory this is known as "empty answer
problem", that is, the problem of providing some alternative data when there is no data fitting the
query [3].
Acta Informatica Pragensia
33
Let look at the query (7) from the traditional SQL perspective:
where air pollution < 10 and number of sunny days > 150
and altitude above sea level = 1500;
and imagine that the M7 does not exist in database (Table 1).
As a consequence, no entity from our database is selected. Moreover, it is not simply to detect that a
small relaxation of the condition like:
where air pollution < 10.3 and number of sunny days > 148
and altitude above sea level = 1495;
will retrieve one entity.
Let consider the query from fuzzy logic perspective again. The solution of fuzzy query shown in Table
1, when excluding M7 (for the purpose of demonstration, M7 does not exist in a database), tells us that
no municipality fully meets the query condition, but also tell us that several municipalities partially
meet the query. In this case, no further adjustment and query processing is required.
Fuzzy queries requires more computational time due to transformation from fuzzy to SQL conditions,
selection all candidates and calculate their membership degrees. On the other hand, in case of empty
answer problems, one fuzzy query could solve this issue and therefore, leads to less computational and
user burden. However, empty answer could also appear in fuzzy queries [3]. In order to solve this
issue relaxation of the initial query has been suggested in [3]. The relaxation is a continuous and time
consuming process. When query contains several fuzzy elementary conditions, then each elementary
condition should be relaxed and tested whether empty answer disappeared. The querying process is
repeated until the answer is not empty or the modified query becomes semantically far from the
original one [3].
The opposite situation appears when query retrieves overabundant number of records, which fully
meets the query condition (if large number of entities partially satisfies the query condition, then
applying threshold by α-cut is an effective and fast solution). Overabundant answer problem is
discussed in [3] where predicates are intensified in order to obtain stronger restriction. Another
solution is adding additional elementary condition (predicate) to the initial query. In practice, it is not
an easy task for users to find the most appropriate predicate which can effectively solve this problem.
To solve this issue an approach which selects a set of predicates according to their degree of semantic
correlation with the initial query is suggested in [2]. In both approaches we have to avoid a deep
modification of the query (semantically far from the original one).
Approaches focused on solving empty and overabundant answer problems [2], [3] operates with fuzzy
sets parameters defined “a priori”. We would like to mention another solution for these issues:
construction of fuzzy sets parameters from the current database content [10]. In this way a user obtains
34
Hudec
suggested parameters of fuzzy sets before running a query that may reduce both issues: empty and
overabundant answer.
6.2 MEMBERSHIP DEGREES TO THE QUERY CONDITION
Fuzzy queries make distinction between selected entities by membership degree. In this way selected
entities are ranked downwards from the best to the worst according to the membership degree, as was
demonstrated in previous sections. Let’s now examine the condition:
where attribute_a = v
where v is a real number.
There is higher jeopardy of empty answer. It could happen that no entity have the exact value of v for
the examined attribute, although there might exist many entities with similar values. Traditional
queries could use intervals in the following way:
where attribute_a > v1 and attribute_a < v2
where v1 < v < v2 and v1 and v2 are also real numbers.
If the interval is longer, more entities will be selected. But, an entity near the edge of the interval
satisfies the query condition in the same way as entity near the middle of the interval. A small interval
might lead to an empty answer. Therefore, the question is how to choose optimal values of v1 and v2.
In case of the fuzzy query this question is irrelevant. We can create triangular fuzzy set on the
examined interval. In this way entities near the edges of the interval have lower membership degrees
than entities near the middle of the interval. In an extreme situation the interval can be the whole
attribute’s domain. Changing values v1 and v2 will lead to different number of selected entities, but
their ranking will not be changed. Applying the threshold value [19], we are able to provide only
entities that significantly meet the query condition. Anyway, reasonable values of v1 and v2 should be
chosen in order to avoid longer evaluation of the fuzzy query. Sharp interval and fuzzy set are depicted
in Fig. 6.
Fig. 6. An interval and a fuzzy set.
Acta Informatica Pragensia
35
6.3 EVALUATION OF SIMILAR ENTITIES IN A DATABASE
Linguistic term more or less equal to is suitable for finding entities in a database with the same or
similar values of chosen indicators. In this example we are interested to find whether municipalities
with similar values of three indicators (altitude, land area and population density) as the municipality
M exist. The suggested procedure works in the following way: the user chooses one municipality (in
our case municipality M) and relevant indicators. Consequently, the application finds values of
selected indicators for the municipality M and creates triangular fuzzy sets (Fig. 3; B = C) for each
indicator. The result is presented in Table 2 [7]. Table shows that no municipality has the same values
as municipality M, but there are two municipalities (M1 and M2) which are very similar to the
municipality M. Other selected municipalities are less similar. More about this issue can be found in
e.g. [7].
Municipality
M1
M2
M3
M4
M5
M6
M7
Altitude [m]
Area [km2]
125
125
120
116
126
132
132
15.78
15.22
18.05
18.13
13.39
14.77
18.71
Popul. Density
[inhab/km2]
68.32
70.64
69.53
75.66
75.65
75.15
72.73
Similarity
0.8189
0.7477
0.4821
0.3688
02505
0.1885
0.1885
Values for the municipality M are: altitude: 123 m; land area: 16.14 km2;
population density: 74 inhabitants / km2
Table 2. Similarity.
6.4 FUZZY PREFERENCES IN QUERY CONDITIONS
Fuzzy preferences allow expressing that some elementary conditions are more relevant than others.
For example, query for the selection of an appropriate hotel would be as follows: select hotels where
price is low, distance to the beach is low and distance to the city centre is low where low distance to
the city centre has lower priority.
Weights for the first two indicators are equal to 1 and the weight for the third indicator is equal to 0.5.
The solution is calculated using the Kleene-Dienes implication [22]:
 (a* )  max( (a),1 - w)
(8)
where a is a database attribute and w  [0, 1] is an importance weight of an attribute a. Applying the
Kleene-Dienes implication (8) and min t-norm (5) the query satisfaction degree is calculated in the
following way:
 (t )  min( max (  i (ai ),1  wi ))
i 1,..., n
(9)
36
Hudec
The membership degrees to the sets low price, low distance to the city centre and low distance to the
beach as well as the solution are depicted in Table 3.
Hotels
H1
H2
H3
H3
H4
H5
µ(Low
price)
µ(Low distance
to beach)
1
1
0.9
0.9
0.9
1
1
1
0.9
0.9
0.9
0.33
µ(Low
distance to city
centre)
1
0.9
0.7
0.1
0.5
0.3
Matching
Degree µ(t)
1
0.94
0.7
0.5
0.5
0.33
Table 3. Evaluation of appropriate hotels.
More about theory of fuzzy preferences can be found in e.g. [22] and about practical issues in [14].
7 CONCLUSION
The usefulness of the SQL for data selection from relational databases has been proven in many
information systems. When sharp values in query criteria are required, the SQL is the optimal solution.
However, when sharp constraints cannot appropriately describe the intent of a query, queries based on
the fuzzy logic offer the solution.
It is obvious that processing of fuzzy queries introduces an additional computation burden due to the
substantial amount of calculations concerning data [12]. We need to point out that this additional
amount of the calculation burden is balanced with the additional valuable information mined from a
database. The main goal of flexible queries is not to select more but better data for users.
The paper contributed with an overview of advantages of fuzzy queries in a legible way for data users,
which are not familiar with mathematics of fuzzy logic and relational databases. Furthermore, paper
discussed several issues that could be efficiently solved by fuzzy logic and fuzzy queries. To
summarize, main characteristics of a fuzzy query approach are as follows:




The query condition is expressed by the linguistic terms, so the meaning of the query is
understandable at the first glance and therefore, query is easily readable and modifiable;
Retrieved entities are ranked downward from the best to the worst according to the satisfaction
degree of the overall query condition;
Fuzzy queries reduce the risk of empty answers providing some data that partially meet the
query condition when no data fully meets the query condition;
An efficient solution for end-users could be obtained by integration of the several fuzzy query
approaches.
Acta Informatica Pragensia
37
8 REFERENCES
[1]
BOSC, P., PIVERT, O. SQLf Query Functionality on Top of a Regular Relational Database
Management System. In Knowledge Management in Fuzzy Databases. Physica Publisher,
Heidelberg, pp. 171-190, 2000.
[2]
BOSC, P., HADJALI, A., PIVERT, O., SMITS, G. Trimming Plethoric Answers to Fuzzy
Queries: An Approach Based on Predicate Correlation. In Computational Intelligence for
Knowledge-Based Systems Design. Springer, Heidelberg, volume 6178, pp. 595-604, 2010.
[3]
BOSC, P. HADJALI, A., PIVERT, O. Empty versus overabundant answers to flexible
relational queries. Fuzzy Sets and Systems. Vol. 159, No, 12, 2008, pp. 1450-1467.
[4]
COX, E.: Fuzzy modeling and genetic algorithms for data mining and exploration. Morgan
Kaufman, San Francisco, 2005. ISBN-10: 0121942759.
[5]
DETYNIECKI M. Fundamentals on Aggregation Operators. In AGOP International Summer
School on Aggregation Operators, Asturias, 2001. [cited 2013-7-7]. Available
from:http://www-poleia.lip6.fr/~marcin/papers/Detynieck_AGOP_01.pdf
[6]
GALINDO J., URRUTIA A., PIATTINI M. Fuzzy databases: Modeling, Design and
Implementation. Idea Group Publishing Inc., Hershey, 2006. ISBN 1-59140-324-3
[7]
HUDEC, M .Fuzzy database queries in official statistics: Perspective of using linguistic terms
in query conditions. Statistical Journal of the IAOS (in press).
[8]
HUDEC, M. Exploration of applying fuzzy logic for official statistics. Conference of New
Techniques and Technologies for Statistic. European Commission, Brussels, 2011. [cited
2013-5-10]. Available from: http://www.cros-portal.eu/content/ps1-poster-9-ntts-2011-s1
[9]
HUDEC, M. An Approach to Fuzzy Database Querying, Analysis and Realisation. Computer
Science and Information Systems, Vol. 6, No. 2, 2009, pp. 127-140.
[10]
HUDEC, M., SUDZINA, F. Construction of fuzzy sets and applying aggregation operators for
fuzzy queries. 14th International Conference on Enterprise Information Systems, Wroclaw,
Poland, ICEIS, 2012, Proceedings volume 1, pp. 253-257.
[11]
CHAMBERLIN, D., BOYCE R.SEQUEL: A Structured English Query Language. In ACM
SIGMOD Workshop on Data Description, Access and Control, Ann Arbor, USA, 1974, pp.
249-264.
[12]
KACPRZYK J., PASI G., VOJTÁŠ P., ZADROZNY S. Fuzzy querying: Issues and
perspectives. Kybernetika, Vol. 36, No. 6, 2000, pp. 605-616.
[13]
KLIR G., YUAN B. Fuzzy sets and fuzzy logic, theory and applications. Prentice Hall, New
Jersey, 1995. ISBN-10: 0131011715.
[14]
KĽÚČIK, M, HUDEC, M., JURIOVÁ, J. Final report on the case study results on usage of IT
tools and procedures developed for data collection (Soft computing tools for Official
Statistics). Deliverable 5.2, Blue-ETS Project, 2012. [cited 2013-03-10]. Available from:
http://www.blue-ets.istat.it/index.php?id=7&tx_wfqbe_pi1 [showpage][1]=2
[15]
MCNEILL F.M., THRO E. Fuzzy logic - a practical approach. Academic Press Inc., Boston.
1994. ISBN-10: 0124859658
38
Hudec
[16]
RADOJEVIĆ, D. Interpolative realization of Boolean algebra as a consistent frame for
gradation and/or fuzziness. In Forging New Frontiers: Fuzzy Pioneers II Studies in Fuzziness
and Soft Computing. Springer-Verlag, Berlin / Heidelberg, pp. 295-318, 2008.
[17]
SMITS, G., PIVERT, O., GIRAULT, T. (2013). ReqFlex: Fuzzy Queries for Everyone. The
VLDB Endowment, Riva del Garda, Italy, Vol. 6, No. 12. pp. 1206-1209, 2013.
[18]
URRUTIA, A., PAVESI, L. Extending the capabilities of database queries using fuzzy logic.
Proceedings of the Collecter-LatAm Conference, Santiago, Chile, 2004. [cited 2011-5-10].
Available from: http://www.collecter.org/archives/2004_October/06.pdf.
[19]
WANG ,T.C., LEE, H.D., CHEN, C.M. Intelligent Queries based on Fuzzy Set Theory and
SQL. Joint Conference on Information Science, Salt Lake City, USA, 2007.pp. 1426-1433.
[20]
ZADEH L.A. From computing with numbers to computing with words - from manipulation of
measurements to manipulation of perceptions. International Journal of Applied Mathematics
and Computer Science, Vol. 12, No. 3, 2002, pp. 307–324.
[21]
ZADEH L. A. Fuzzy sets. Information and Control, Vol. 8, 1965, pp. 338–353.
[22]
ZADROŻNY S., DE TRÉ G., DE CALUWE R. KACPRZYK J. An overview of fuzzy
approaches to flexible database querying, In Fuzzy Information Processing in Databases, IGI
Global, London, pp. 34-54, 2008.
[23]
ZIMMERMANN, H-J. Fuzzy Set Theory: And Its Applications. Kluwer Academic Publishers,
London, 2001. ISBN-10: 0792374355.
Acta Informatica Pragensia
2(2), 2013, 39–50, DOI: 10.18267/j.aip.22
Online: aip.vse.cz
Section:
Peer-reviewed papers
A Review on Macroscopic Pedestrian Flow Modelling
Anna Kormanová1
1
Faculty of Management Science and Informatics, University of Žilina
Univerzitná 8215/1, 010 26 Žilina, Slovak Republic
[email protected]
Abstract: This paper reviews several various approaches to macroscopic
pedestrian modelling. It describes hydrodynamic models based on similarity of
pedestrian flow with fluids and gases; first-order flow models that use fundamental
diagrams and conservation equation; and a model similar to LWR vehicular traffic
model, which allows non-classical shocks. At the end of the paper there is stated a
comparison of described models, intended to find appropriate macroscopic model
to eventually be a part of a hybrid model. The future work of the author is outlined.
Keywords: Flow modelling, Macroscopic model, Pedestrian dynamics
40
Kormanová
1 INTRODUCTION
Pedestrian simulation has wide usage in praxis these days. People tend to group in relatively small
places. Very crowded places can be transportation terminals – airports, railway stations, subways, but
also theatres, stadiums, etc. There comes a need to solve building trafficability and a layout of serving
points, information tables, emergency exits, etc. It can not only help to save financial resources, but
also human lives.
However, the choice of modelling method can be difficult. We have to consider especially purpose of
the simulation and needed degree of granularity. Granularity in this context means the degree of the
modelling detail. From this point of view models are divided into microscopic, mesoscopic and
macroscopic. Each has its pros and cons. Microscopic models model pedestrians in great detail,
distinguish individuals and their interactions. Macroscopic models on the other hand model pedestrian
flow as a whole and can be used in situations, where human interaction is not closely studied.
Mesoscopic modeling usually consist of simplification of dynamics with less data demand. It
combines microscopic aspects (they can deal with individual pedestrians) and macroscopic aspects,
such as flow dynamics. Therefore very interesting and also effective alternative seems to be the
creation of a hybrid simulation model that would allow to flexibly define and modify the granularity
for different areas of modeled scene.
The simulation tool PedSim for pedestrian movement [11][12] is being developed at the Department
of Transportation Networks at Faculty of Management Science and Informatics for several years. The
goal is to develop a complex, generic, agent based 3D tool for modeling pedestrians’ movement. The
utilization of the model can be found in evacuation and design evaluation scenarios of airports,
transportation terminals etc. This tool utilizes microscopic and mesoscopic models of pedestrian
movement so far. Our goal is to add macroscopic model as well, and create a hybrid simulation model.
Macroscopic modelling will be used in areas, which are not statistically important, or where human
interaction observation is not necessary. Microscopic and macroscopic display of PedSim is depicted
on figure 1.
Fig. 1. Left – microscopic movement in PedSim. Right – macroscopic movement in PedSim. Flow is moving
through edges of macroscopic graph. No individuals are distinguished, we can only see value of crowd density in
the edge determined by corresponding color (color palette from blue to red, red is the highest density).
This paper provides a review of several macroscopic flow models. Their advantage is, that they do not
require as much computational power as microscopic methods. At the end of the article there is a
Acta Informatica Pragensia
41
comparison of described models. This provides an information, which one of models is the most
suitable for our purpose of creating a hybrid simulation model for PedSim simulation tool.
2 HYDRODYNAMIC MODELS
Hydrodynamic models [8] use analogy with fluids or gases to describe density and speed changes in
time. These models are based on a fact, that pedestrian flows and their mesoscopic and macroscopic
characteristics are driven by physical laws similar to those valid for dynamics of compressed fluid or
gases.
This analogy was studied by number of scientists, who derived some hydrodynamic models out of it.
Some of these models, similar to physical ones, are called gas-kinetic models (Boltzmann-like
approach, is used mostly for traffic modelling). They describe pedestrian dynamics using distribution
function of speed. Other, macroscopic models, use Navier-Stokes type of equations or equations of
pedestrian conservation.
Compared to traffic hydrodynamic models, the number of pedestrian models is low, since the
complexity of human behavior is much larger than vehicle one.
2.1 HELBING’S FLUID-DYNAMIC MODEL
Dirk Helbing [6] presented his fluid-dynamic model for the collective movement of pedestrians in
1992. It is based on Boltzmann-like gas-kinetic model. The first one to apply this kind of model on
pedestrian crowds was Henderson [7]. However, he assumed a conservation of momentum and energy,
what was quite unrealistic.
Pedestrian here belongs into type µ of motion, if he wants to walk approximately with the velocity .
, , , describes a number
of pedestrians of type µ, who are present within an
Density
area A=A( ) around a place , with intended velocity of approximately
approximately
, while the actual velocity is
. It is defined as:
,
,
,
≡
,
,
(1)
,
∶
∙
is a neighborhood around place , which represents all accessible (public) places .
∶
Similarly,
is a neighborhood of
∗
∈
∗
:‖
,
(2)
‖
, with a volume V = V
.
Next the continuity equations have been established:
≡
∶
.
(3)
42
Kormanová
These can be interpreted as gas-kinetic equations.
The force
can often be neglected.
over time is influenced by four facts:
The change of density




denotes the average mass of type µ pedestrians.
The tendency of pedestrians to reach their intended velocity . Interactions among pedestrians. Changes of pedestrian types when turning right or left or when at a crossing. The density gain or loss per time unit. By multiplication of (3) by
or
,
,
/2, and integration over
, we obtain
following equations:
〈
〉
〉〈
〈
〉
,
,
〈
1
〉
〈
1
〉
1
(4)
for the mass density,
〈
〉〈
,
〉
〉〈
〈
,
,
1
〉
〈
〈
,
〈
,
〉
〉
〈
〈
,
〉
,
〈
〉
〈
,
〉
,
〉 (5)
1
〉〈 〉
〈
〉〈
∗
〉
,
,
〉
〈
,
,
for the momentum density, and
〈
〉
,
〈
〉〈
,
,
〈
〉
1
〈
,
〉
〈
,
〉〈 〉
〈
〈
,
〉
〉
,
〈
,
〉
∗
1
,
〉
2
〈
, ,
〉
〈
1
〉〈
〈
〉
,
,
,
2
2
〈
,
,
〉
density 〈
,
〉
〈
〉〈
,
〉
〈
〉
,
〉〈
〉 ,
〉
2
(at place
〈
,
(6)
and time t) is 〈
〉 〈
for the mass density, the mean momentum density 〈 〉〈
,
〈
for the energy density. Here, the density of pedestrians of type µ is 〈
variance of their velocity components
,
2
,
〉, their velocity 〈 〉, and the
,
〉. 〈
〉∶
〈
〉 stands
〉〈 〉, and the mean energy
〉.
Equations (4), (5) and (6) represent the known hydrodynamic equations. Within there is also an
interaction between pedestrians of type µ and v included. Detailed explanation of equations is
described in [6].
Acta Informatica Pragensia
43
2.2 HUGHES’S MODEL
Roger L. Hughes [9][10] proposed a model resulting from three hypotheses:
Hypothesis 1. The speed at which pedestrians walk is determined solely by the density of surrounding
pedestrians, the behavioral characteristics of the pedestrians, and the ground on which they walk.
The velocity components (u,v) of a pedestrian are given by
,
where
and
(7)
are the direction cosines of the motion and f(ρ) is a speed of pedestrian as a function
of density.
Hypothesis 2. Pedestrians have a common sense of the task (called potential) that they face to reach
their common destination, such that any two individuals at different locations having the same
potential would see no advantage to exchanging places.
Thus the direction of a motion of the pedestrian is perpendicular to his potential, i.e. the direction
cosines are
/
/
/
/
/
/
,
(8)
where ϕ is potential. This hypothesis is applicable for pedestrian flows, because they can visually
access the situation.
Hypothesis 3. Pedestrians seek to minimize their estimated travel time but temper this behavior to
avoid extreme densities. This tempering is assumed to be separable, such that pedestrians minimize the
product of their travel time as a function of density.
The distance between pedestrians’ potentials must be proportional to pedestrian speed, thus
1
/
(9)
/
with potential scaled appropriately.
Equations (7)-(9) with the usual continuity equation are combined into equations for pedestrian flow
0
(10)
and
1
/
where factor
/
stands for the tempering behaviour at high densities.
(11)
44
Kormanová
This formulation can easily be extended to multiple pedestrian types crows.
approximated by:
and
can be
,
, (12)
,
and
1,
(13)
,
where typically A = 1.4 ms-1,
= 0.8 ms-1,
= 3.0 ms-1, and
= 5.0 ms-1.
3 FIRST-ORDER FLOW MODELS
The first-order pedestrian flow theory [1][4][5] is based on combination of a fundamental diagram and
the conservation of pedestrians. Fundamental diagram represents flow-density relation.
3.1 DAAMEN-HOOGENDOORN-BOVY
The fundamental diagrams here [4][5] are derived from cumulative flow plots – functions N(x,t) that
represent counted number of pedestrians that pass a cross-section x from an arbitrary starting point.
The flow q in a cross-section x in time period t1 to t2 equals:
,
, ,
(14)
The density at point x in time t is derived from fundamental relation between speed u, density k and
flow q:
,
,
,
(15)
In [5] the three-dimensional cell C with dimensions X×Y×T is considered. For every trajectory passing
the cell, the three quantities are determined:
1. The travel time TTi – duration of pedestrian i in the cell. 0 < TTi ≤ T
2. The travelled distance Di in the x-direction – the distance pedestrian i walks in x-direction
while staying in the cell. 0 < Di ≤ X
3. The travelled distance Zi in the y-direction – the distance pedestrian i walks in y-direction
while staying in the cell. 0 < Zi ≤ X
From these quantities, the following equations are generalized:
Acta Informatica Pragensia
∑∈
∑∈
45
(16)
(17)
∑∈
where k is density in generalized form in P/m2 and q is definition of flow in x and y direction (in
P/ms). If TTi = T, then:
,
∑∈
(18)
where n is the number of pedestrians in area X×Y at time t. The same holds for flow definitions.
Pedestrian speeds in x and y directions can easily be determined:
∑∈
∑∈
∑∈
∑∈
(19)
Based on the data of narrow bottleneck experiment, the fundamental graph has been constructed.
Fig. 2. Fundamental diagram for pedestrian traffic for bottleneck experiment. [5]
3.2 BRUNO ET. AL.
Bruno et. al. [1] proposed physical framework based on several features of pedestrian behaviour:
(f1) pedestrians are active agents, i.e. in normal (non-panic) situations, their shared objective is to walk
with the maximum velocity towards a target (doors, exits, etc.), while avoiding obstacles and
crowded zones. They actively determine their walking direction and velocity and are not
passively subjected to the laws of inertia;
46
Kormanová
(f2) pedestrians are intelligent agents, so their mind evaluates, selects, makes synthesis of its
perceptions according to various psychological criteria.
(f3) Pedestrians under normal conditions do not perceive the real world locally in space, but have the
ability to see up to a given extent around them. The area required for perception, evaluation and
reaction is called sensory region and is notated as Rs;
(f4) pedestrians react after a reflex time delay τ1 from the perception time, which is needed for reaction
to the actual conditions, while a volitional time delay τ2 is required to adopt walking strategies
and to scan visual field. τ1 ≪ τ2 ≪ T, T is the reference macroscopic time scale required to cross
the walking area at maximum walking speed vM;
(f5) from the previous it comes, that pedestrians in a given position at a given time react to perceived
conditions in front of them at a delayed time, i.e. in a non-local way in both space and time.
(f6) Pedestrians are anisotropic agents, they distinguish between ahead and behind. In normal
situations they are essentially sensitive to what happens in a visual field focused on their direction
of movement;
(f7) walking pedestrians adapt their sensory region’s depth and width to their travel purpose and
walking speed.
Features f1-f2 are about intelligent behavior, features f3-f5 about non-local behavior, and features f6f7 about anisotropic behavior.
3.2.1
PHYSICAL MODELLING FRAMEWORK
The proposed model is expressed by a mass conservation equation for a control mass M in time t:
(20)
0
To describe a system dynamics, the velocity field of the moving mass should be a state variable or be a
priori known. First-order models relate the velocity field to the mass itself.
The velocity field v in the point x Ω at time t:
,
,
(21)
,
where is the magnitude of v (i.e. the walking speed) and ev is a unit vector of walking direction. The
walking direction is modelled as the superposition of two contributors:
- the desired direction identified by the unit vector ed;
- the interaction direction – the direction, the pedestrian would follow to avoid crowded areas.
It is identified by the unit vector ei, which, unlike ed, evolves in time.
The desired direction is a priori determined. The interaction direction is instead obtained through a
perception process. The resulting walking direction ev is:
|
1
1
|
,
(22)
Acta Informatica Pragensia
47
Where θ [0, 1] is a dimensionless parameter – weight of pedestrian’s attitude to prioritize the
walking area layout or the crowd conditions.
The walking speed
is determined by:
1
where
is the free speed,
different travel purposes,
1
exp
1
,
(23)
is the jam density, γ is an exponent, that makes the relation sensitive to
, is the perceived density.
The sensory region
, , , is modelled as a portion of ball centered in x with radius δ and
angular span 2 . In the 1D case the definition is simple:
,
,
⊆ 0,
,
(24)
where the interval Ω = [0, L] is the 1D domain. It is assumed that the depth δ depends on the walking
speed only, while the width 2 is a constant. The radius δ is expressed as a function of the local
delayed walking speed.
,
(25)
,
The constitutive law linking δ to the walking speed is as follows:
∆
(26)
where ∆ and δ0 are understood as the macroscopic counterparts of d(
is constant equaling a given fraction of the reference length L.
) and δ0 . It is assumed that δ0
The visual field width varies in range [0, 90°]. The crowd density and the interaction direction (in
2D setting) come from an intelligent evaluation process.
4 COLOMBO-ROSINI MODEL
A macroscopic model presented by [2][3] can be used to describe real situations, such as crowd
evacuating a corridor. It is a one-dimensional model built on a Couchy problem for the nonlinear
hyperbolic conservation law
0,
∈
,
0,
(27)
which reminds of the Lighthill-Whitham-Richards (LWR) model of vehicular traffic. Furthermore, it
is able to reproduce the Braess’ paradox for pedestrians and was experimentally confirmed by an
empirical study.
When the density grows above the maximum value, it is assumed, that unlike vehicles, pedestrians can
still move but feel overcompressed. As described in [2], this allows to define a concept of solution to
the above conservation law in which non-classical shocks are admitted.
48
Kormanová
5 COMPARISON OF MACROSCOPIC MODELS
Described models were compared from several points of view, as stated in table 1. They are all based
on physical laws.
Helbing’s model is based on fluid-dynamics. As one of a few it is applicable also on panic situations,
what allows us to model evacuations. Different types of pedestrians are distinguished here. This model
describes developments of walking lanes, propagation of waves and behavior on a dance floor. It has
wide application possibilities. Only problem can arise in places with very low densities. The greatest
disadvantage, however, is the fact, that the model has not been validated.
Hugh’s model is based on well-defined hypotheses. It describes time-dependent waves and Braess’
paradox. This model also has problem with low densities. It has been properly validated, but cannot be
used in panic situations.
Daamen’s model is based on flow-density diagram. It has been validated only by laboratory
experiments. It is applicable on pedestrian traffic, but not on panic situations. No apparent problems
have been described.
Bruno et. al. designed model based on physical model and crowd dynamics. It is the only model which
recognizes individual pedestrians. It can be used for pedestrian traffic modelling, but does not support
panic situations. The diffusive effect is explained.
Colombo-Rosini model is based on LWR model. It described phenomena of shock waves and Braess’
paradox. Its advantage is applicability to panic situations and evacuations.
Since our simulation tool PedSim focuses on evacuation and evaluation scenarios mostly at large
transportation terminals, a good choice seems to be the Colombo-Rosini model, which allows panic
situations. As the only model from described ones, this one is focused on evacuations. Unlike
Helbing’s model, which also allows panic situations, Colombo-Rosini model has been properly
validated.
Acta Informatica Pragensia
49
DAAMEN
et. al.
BRUNO et.
al.
COLOMBOROSINI
Fluid-dynamics
Well-defined
observations
(hypotheses)
Flow-density
diagram
Physical
model and
crowd
dynamics
Altered LWR
model
Possible problems
Low densities
Low densities
Not
described
Applicable to panic
situations
Yes
No
No
No
Yes
Recognizes
individuals
Only groups of
different types
No
No
Yes
No
Value of variables
Physical meaning
Physical
meaning
Physical
meaning
Physical
meaning
Physical
meaning
Parameters
calibration
By inspection
Validated
No
HELBING
HUGH
Model based on
Phenomena
explained
Possible applications
Typical values By inspection By inspection
Yes
Development of
Time-dependent
walking lanes,
propagation of waves, waves, Braess’
paradox
behavior on a dance
floor
Town- and trafficplanning
Describes only
Not described one dimensional
movements
Crowd motion
By inspection
Laboratory
experiments
Yes
Yes
None
described
Diffusive
effect
Braess’ paradox,
shock waves
Pedestrian
traffic
Pedestrian
traffic
Evacuation
Table 1. Comparison of macroscopic models.
6 CONCLUSION
Macroscopic models save computation time significantly. They are convenient to use when pedestrian
to pedestrian interaction is not needed to be closely studied.
At the Department of Transportation Networks of Faculty of Management Science and Informatics of
University of Žilina we are developing a simulation tool PedSim [11, 12] for simulating pedestrian
movement. Our goal is to create hybrid model – combination of microscopic and macroscopic model.
Microscopic model will be used in complicated areas or areas of interest, and macroscopic in the rest.
From the comparison of several flow models we can see, that the most suitable one is Colombo-Rosini
model, which is applicable to panic situations and evacuations.
The future work will be focused on implementation and calibration of selected macroscopic model
into PedSim simulation tool. Finally, the transitions and synchronization between microscopic and
macroscopic models will be solved and hybrid model will be created.
50
Kormanová
7 REFERENCES
[1]
BRUNO, L., TOSIN, A., TRICERRI, P., VENUTI, F. Non-local first-order modelling of
crowd dynamics: A multidimensional framework with applications, Applied Mathematical
Modelling.
vol.
35,
no.
1,
pp.
426-445,
2011.
Available
from:
http://arxiv.org/pdf/1003.3891v2.pdf
[2]
COLOMBO, R. M., GOATIN, P., ROSINI, M. D. A macroscopic model for pedestrian flows
in panic situations, in GAKUTO International Series Mathematical Sciences and
Applications.
2010,
pp.
255-272.
Available
from:
http://hal.archivesouvertes.fr/docs/00/53/48/88/PDF/43-rosini.pdf
[3]
COLOMBO, R. M., ROSINI, M. D. Pedestrian flows and non-classical shocks. Mathematical
Methods in the Applied Sciences, vol. 28, no. 13, pp. 1553-1567, 2005. Available from:
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.105.6594&rep=rep1&type=pdf
[4]
DAAMEN, W. Modelling Passenger Flows in Public Transport Facilities, dissertation thesis,
2004. Available from: http://repository.tudelft.nl/assets/uuid:e65fb66c-1e55-4e63-8c495199d40f60e1/trail_daamen_20040909.pdf
[5]
DAAMEN, W., HOOGENDOORN, S. P., BOVY, P. H. L. First-order pedestrian traffic flow
theory, Transportation Research Record: Journal of the Transportation Research Board, vol.
1934,
no.
1,
pp.
43-52,
2005.
Available
from:
http://www.researchgate.net/publication/228531222_Firstorder_pedestrian_traffic_flow_theory/file/79e41509d5b3c90d97.pdf
[6]
HELBING, D. A Fluid-Dynamic Model for the Movement of Pedestrians, in Complex Systems
6, 1992, pp. 391-415. Available from: http://www.complex-systems.com/pdf/06-5-1.pdf
[7]
HENDERSON, L. F. On the fluid mechanics of human crowd motion, Transportation
research, vol. 8, pp. 509-515, 1974.
[8]
HOOGENDOORN, S. P., BOVY, P. H. L. Normative pedestrian behaviour theory and
modeling, in Proceedings of the 15th International Symposium on Transportation and Traffic
Theory, 2002.
[9]
HUGHES, R. L. The Flow of Human Crowds, Annual review of fluid mechanics, vol. 35, pp.
169-182,
2003.
Available
from:
http://www.computingscience.nl/docs/vakken/mcrs/papers/15.pdf
[10]
HUGHES, R. L. The flow of large crowds of pedestrians, Mathematics and Computers in
Simulation,
vol.
53,
pp.
367-370,
2000.
Available
from:
http://www.sciencedirect.com/science/article/pii/S0378475400002287#
[11]
KORMANOVÁ, A. Combining Social Forces and Cellular Automata Models in Pedestrians’
Movement Simulation, Journal of Information, Control and Management Systems, vol. 10, no.
1, pp. 61-70, 2012.
[12]
VARGA, M. Application of the ABAsim architecture in the pedestrian movement modeling
tool, Journal of Information, Control and Management Systems, vol. 10, no. 1, pp. 125-134,
2012.
Acta Informatica Pragensia
2(2), 2013, 51–58, DOI: 10.18267/j.aip.23
Online: aip.vse.cz
Section:
Peer-reviewed papers
Subgraph Colouring Technique for Computer with Data
Driven Computation Model
Liberios Vokorokos1, Branislav Madoš1, Norbert Ádám1, Marek Čajkovský1
1
Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics,
Technical University of Košice, Letná 9, 042 00 Košice, Slovak Republic
{liberios.vokorokos, branislav.mados,
norbert.adam, marek.cajkovsky}@tuke.sk
Abstract: Paper deals with the data driven computation control paradigm, which is
alternative to the mainstream control flow model of program execution control. In
the second part of the paper we are introducing computer architecture that is
proposed at the Department of Computers and Informatics, Faculty of Electrical
Engineering and Informatics, Technical University of Košice, according to the data
driven computation control model with use of tile computing principles. In the final
part of the paper, subgraph colouring technique that is unique characteristic of
proposed computer architecture is described.
Keywords: Data flow, Data driven, Data flow graph, Subgraph mapping,
Subgraph colouring
52
Vokorokos et al.
1 INTRODUCTION
Research oriented in multiple directions in the field of high performance parallel computer
architectures brought in 60’s and 70’s of the last century the popularity to the class of parallel
computers, that are based on the data driven control of program execution, generally referred as the
data flow architectures. Instead of instructions controlled flow of program execution with use of
program counter concept, the flood of operands is used to control the program execution process.
Program for the data flow computer is prepared in the form of directed graph G = (V, E) and its
representation in machine readable form is called Data Flow Graph (DFG). Instructions, called actors,
are represented as the vertexes vi ∈ V in the DFG. Edges ei ∈ E are interconnecting source and
destination actors in the DFG and are representing paths in which operands are flowing through the
DFG in time of program execution. Tokens are representing presence of operands on the edges. Edge
is not only the interconnection between actors but also determines which actor is source of operands
and which is the consumer and assures proper execution of the DFG. Load of the DFG into the
operating memory of data flow computer is called data flow graph mapping and instructions are
mapped into the memory to the activation frames. Instructions that are placed in operating memory are
fired immediately after they became executable (instruction is executable when all operands that are
needed for instructions execution are present). Instruction is activated when it is fired and all hardware
resources that are needed for instructions execution are available.
There are pure data flow architectures, which are divided into two groups called static and dynamic
data flow computer architectures, according to the model of execution of DFG. Static model allows
only one token placed on the edge; dynamic model allows more than one token placed on the edge at
the same time. Each token has its own tag in dynamic model, to identify its position in the token flood.
Tokens must differ in the tag, when are placed on the same edge and there is process of searching of
the tokens with the same tag which is called matching. Unlike dynamic model, there is disadvantage of
the static dataflow computer architecture in impossibility to use dynamic forms of parallelism,
including loops and recursion. Dynamic data flow model allows dynamic forms of parallelism, both
loop and recursive, that appear in the time of program execution [1, 2, 3, 4, 5, 6, 7].
Besides of pure data flow architectures there is possibility to define also category of hybrid data flow
architectures. Those can be seen as the computer architectures which are combining both control flow
and data flow control mechanisms in the program execution control.
2 PROPOSED ARCHITECTURE
Architecture of computer-on-the-chip with static data driven computation model, proposed as the part
of the research of dataflow computer architectures at the Department of Computers and Informatics,
Faculty of Electrical Engineering and Informatics, Technical University of Košice, is developed
according to the principles of tile computing. It is possible to describe this approach as the effort to
build highly scalable architectures of computers with use of the basic building blocks that are
standardized and are reused in architecture many times in the manner that allows easy scalability with
little or no change of used components.
Acta Informatica Pragensia
53
Proposed architecture consists of Processing Elements (PE), which are forming Processing Array
(PA). PA consists of n × n bi-directional layout of PEs, where n is the number of PEs placed on the
edge of PA. Besides of all each PE comprises of the operating memory in the form of Activation
Frames Store (AFS), Arithmetic and Logic Unit, (ALU) and Control Unit (CU). At the edges of PA are
Input/Output Elements (IO) localised and each of IO is close connected to the neighbouring PE (Fig.
1.). Number of IOs is 4n, where n is the number of PEs placed on the edge of PA. There is ratio (R)
between the number of PEs and IOs and this ratio can be determined by the formula (1).
R = n2 / 4n
(1)
IO element is used for creation of communication connection with the components of the computer
that are localised outside of the chip, or in multichip configuration of the computer IOs are forming
bridges that are interconnecting PAs of neighbouring chips.
Elements of the architecture, represented by PEs and IOs are interconnected via communication
networks. One of networks is formed by local communication channels, interconnecting pairs of
neighbouring elements and allows concurrent communication of elements pairs. Another network is
forming global communication network and is interconnecting all elements in the form of the bus.
Global communication network do not allow concurrent communication of element pairs and is
dedicated to the data flow program mapping.
Prototype of the computer built according to the designed architecture consists of 64 PEs distributed
across the chip in 8 x 8 bi-dimensional layout, with 32 IOs located at the edges of the PA. Field
Programmable Gate Array (FPGA) technology is used. As the hardware of the computer prototype
Xilinx Spartan 3AN development board is used and as the software development tool Xilinx ISE
Design Suite was used. Detailed information about architecture and computer prototype can be found
in [3, 8, 9, 10].
Fig. 1. Processing array of the computer consists of 64 PEs and 32 IOs.
54
Vokorokos et al.
2.1 ACTIVATION FRAME
Instructions are represented via 144-bit vectors that are mapped in the form of activation frames into
the activation frames stores of respective processing elements in time of data flow graph mapping,
when computer and memory are in Load mode. Each instruction vector consists of components
according to the Fig. 2.
Fig. 2. Instruction represented by 144 bit vector stored in activation frame.
Where
INIT is 1bit long indicator of instruction executability
OPCODE is 7bit long operation code of instruction
PA is 1bit long indicator of operand A demand for instruction execution
RA is 1bit long indicator of operand A availability
PB is 1bit long indicator of operand B demand for instruction execution
RB is 1bit long indicator of operand B availability
CA is 1 bit long indicator of immediate operand A
CB is 1 bit long indicator of immediate operand B
AB is1bit long indicator of instructions target operand
RES is 1 bit reserved
COLOR is 32 bit long COLOR tag of subgraph
OPA is 32 bit long operand A
OPB is 32 bit long operand B
ADR is 32 bit long target address of the instruction
Acta Informatica Pragensia
55
Architecture brings concept of instruction initialization. Initialization is the basic prerequisite of
instructions execution. It means that it is not possible to fire and execute instruction, which is not
initialized. Initialization can occur in the time of data flow program mapping, when instructions are
mapped into the activation frame store in initialized form, or can occur in time of program execution,
when instructions are initialized with use of special instructions, that are part of the instructions set
architecture. Instruction is initialized when INIT bit of instructions vector is set to 1. Another process
is called deinitialization of the instruction. It can occur in time of data flow program mapping, when
instruction is mapped into memory as deinitialized, or it is possible to deinitialize instruction in time
of program execution via special instructions, that are part of the instructions set architecture. Another
form of this process occurs when instruction is executed, because immediately after execution,
instruction is deinitialized. There is possibility to use multiple cycles of de/initialization process in
time of program execution and this is unique characteristic of this data flow architecture.
3 DATA FLOW SUBGRAPH COLOURING
Program of the data flow computer is prepared in the form of directed graph. It is possible to partition
the data flow graph into the subgraphs and this process is iterative. Let us denote subgraphs with their
respective colours. In proposed architecture, each subgraph is denoted with 32-bit COLOR tag, which
is part of instruction vector (bits 127:96). Each instruction stored in the memory is tagged with colour
of the subgraph as it is shown in the example at Fig. 3., where “yellow” subgraph has COLOR tag
(00000000 00000000 00000000 00000100)2 (leading zeros of 32-bit COLOR tag vector are omitted in
the Fig. 3 in favour of more readable notation), “green” subgraph has COLOR tag (00000000
00000000 00000000 00000110)2 and “white” subgraph has COLOR tag (00000000 00000000
00000000 00000111)2.
Fig. 3. Example of data flow graph partitioned into 3 subgraphs and tagged with different COLOR tags.
Proposed architecture brings concept of de/initialization operations not only for the entire data flow
graph via IG (Initialize Graph) and KG (Kill Graph) instructions that are part of the instructions set
architecture, but also of de/initialization of subgraph operations via ISG (Initialize SubGraph), ISGO
(Initialize SubGraph with Operands) and KSG (Kill SubGraph) instructions.
56
Vokorokos et al.
In the basic concept of the COLOR tag usage, all instructions mentioned above has operand, which is
32-bit long and represents COLOR tag of subgraph on which instruction is applied. It is possible for
example to initialize each of subgraphs with use of instruction IG (00000000 00000000 00000000
00000100)2, IG (00000000 00000000 00000000 00000110)2 or IG (00000000 00000000 00000000
00000111)2. Because of specific construction of operating memory of the computer, operation is
applied in parallel on all activation frames stored in memory that are tagged with respective COLOR
tag in one machine cycle. However, this straightforward approach has its shortcomings. If we are
considering “green” and “yellow” subgraphs as two partitions of one subgraph which is needed to be
initialized, it is not possible to perform this operation in other way but to use sequentially two IG
instructions with (00000000 00000000 00000000 00000110)2 and (00000000 00000000 00000000
00000111)2 operands respectively. This means not only use of more instructions of the program, but
also more machine cycles are needed. That is why more complex approach was chosen.
Instructions which are using COLOR tag are not unary, but have two operands. First is COLOR tag
which is 32-bit vector, as mentioned above, second operand is 7-bit vector that represents the number
of bits of COLOR tag, which are compared, when it is evaluated, if instruction on which
de/initialization operation is applied is part of target subgraph. Bits are counted from MSB of COLOR
tag vector. It is meaningless to compare 0 bits of COLOR tag vector because in that case operation is
applied on all activation frames stored in memory (This is performed by IG and KSG operations
respectively) and there is no possibility to compare more than 32 bits of COLOR tag vector. That is
why value of the second operand is restricted to the range of <1:32> in decimal.
Version of instructions with two operands is powerful, because it can target more than one subgraph at
once and that means operation of de/initialization can be performed on more subgraphs at the same
time, in one machine cycle. In the example mentioned above, if IG operation with operands (00000000
00000000 00000000 00000110)2, (0111111)2 or (00000000 00000000 00000000 00000111)2,
(0111111)2 is applied, subgraphs with 31 MSB bits set to the value (00000000 00000000 00000000
0000011)2 are targeted. Because only one bit left, there are two possible subgraphs, which can be
targeted, with 1 LSB bit set to 0 and 1 respectively. In the example on Fig. 3 those subgraphs are
„green“ and „white“.
If the first operand of instruction is set to the value (00000000 00000000 00000000 000001xx)2 where
xx is the 2 bit vector of any value and second operand is set to the value (0111110)2, there are 30 MSB
bits compared and vector consisting of 2 LSB bits left uncompared. It means 4 subgraphs with 2 LSB
bits set to the values (00)2, (01)2, (10)2, (11)2 are targeted. In the example shown in Fig. 3, all 3
subgraphs meet the condition and are targeted with this instruction.
In the example shown on Fig. 3, there is no possibility to target “yellow” and “white” subgraphs at
once without targeting “green” subgraph.
4 CONCLUSION
Paper briefly introduced the data flow paradigm of computation control as the alternative to the
mainstream control flow paradigm and described main features of the computer architecture with data
flow computation control that is proposed at the Department of Computers and Informatics, Faculty of
Acta Informatica Pragensia
57
Electrical Engineering and Informatics, Technical University of Košice. Special attention was paid to
the description of the data flow subgraph colouring, which is the specific and unique feature of
proposed architecture, and is not implemented in other architectures. Subgraph colouring allows with
use of instructions that are part of instructions set architecture initialization and deinitialization of
other instructions not only in time of program load but also in time of the program execution. There is
possibility to use multiple cycles of de/initialization process in time of program execution and this
feature brings to the architecture certain features of control flow model. Main advantage of this
approach is that this feature makes it possible to preserve construction simplicity of the static data flow
architectures and at the same time allows the implementation of language constructs such as the
recursion and loops; features that are achieved in dynamic data flow architectures but only for the
price of greater complexity of the design. Another advantage is the opportunity to end the execution of
whole block of instructions in any time of its execution, in case there is condition fulfilled, that
execution of this instructions block is unnecessary and there is possibility to deinitialize all
instructions of the block in one machine cycle. This, together with other features of architecture,
allows increase in the effectiveness of the program code execution without significant distortion of the
benefits of data flow control of the program execution.
ACKNOWLEDGEMENT
This work was supported by the Slovak Research and Development Agency under the contract No.
APVV-0008-10. Project is being solved at the Department of Computers and Informatics, Faculty of
Electrical Engineering and Informatics, Technical University of Košice.
5 REFERENCES
[1]
ARVIND, A., CULLER, D.E.: The tagged token dataflow architecture (preliminary version),
Tech. Rep. Laboratory for Computer Science, MIT, Cambridge, MA, 1983.
[2]
DENNIS, J.,B., MISUNAS, R.P.: A Preliminary Architecture for a Basic Data Flow
Processor“, Proceedings of the 2nd Annual Symposium on Computer architectures., 1974.
[3]
MADOŠ, B., BALÁŽ, A.: Data Flow Graph Mapping Techniques of Computer Architecture
with Data Driven Computation Model, SAMI 2011 Proceedings of 9th IEEE International
Symposium on Applied Machine Intelligence and Informatics, Smolenice, Slovakia, 27. - 29.
january 2011, pp. 355 - 359, IEEE Catalog Number: CFP1108E-CDR, ISBN 978-1-42447428-8.
[4]
SHIMADA, T., HIRAKI, K., NISHIDA, K, SEKIGUGHI, S,: Evaluation of a prototype
Dataflow Processor of the SIGMA-1 for Scientific Computations", In: Proc. 13th Annual
Symposium On Computer Architecture, 1986, pp. 226-234.
[5]
VEEN, A.: Dataflow Machine Architecture, ACM Computing Surveys, December 1986, pp.
365-396.
[6]
VLASOV, V.V., KRAYNIKOV, A.V., KURDIKOV, B.A.: A Data Flow Computer System,
In: Izvestiya LETI (Proceedings of Leningrad Electrotechn.Inst.), St.Petersburg, Vol. 436,
1991, pp. 3-7.
58
Vokorokos et al.
[7]
VOKOROKOS, L.: Data Flow Computer Principles (in Slovak), Copycenter, spol. s.r.o.,
Košice, Slovakia, 2002. ISBN 80-7099-824-5.
[8]
VOKOROKOS, L., MADOŠ, B., ÁDÁM, N., BALÁŽ, A.: Priority of Instructions Execution
and DFG Mapping Techniques of Computer Architecture with Data Driven Computation
Model, SISY 2011: 9th IEEE International Symposium on Inteligent Systems and Informatics:
8. - 10.9.2011: Subotica, Serbia P. 483-488 Budapest : Óbuda University, 2011.
[9]
VOKOROKOS, L., MADOŠ, B., BALÁŽ, A., ÁDÁM, N.: Architecture of multi-core
computer with data driven computation model, Acta Electrotechnica et Informatica, december
2010, Košice, Slovakia, pp. 20-23, ISSN 1335-8243.
[10]
VOKOROKOS, L., MADOŠ, B., BALÁŽ, A., ÁDÁM, N.: Innovative Operating Memory
Architecture for Computers using the Data Driven computation model, In: Acta Polytechnica
Hungarica: Special Issue on Celebration of 60th Anniversary of the Foundation of Technical
University of Košice, Vol. 10, No. 5 (2013), p. 1 - 17, 2013 , ISSN 1785-8860.
Acta Informatica Pragensia
2(2), 2013, 59–67, DOI: 10.18267/j.aip.24
Online: aip.vse.cz
Section:
Peer-reviewed papers
Framework for utilizing computational
devices within simulation
Miroslav Mintál1
1
Department of Transportation Networks, Faculty of Management Science and Informatics,
University of Žilina, Univerzitná 8215/1, 010 26 Žilina, Slovak Republic
[email protected]
Abstract: Nowadays there exist several frameworks to utilize a computation power
of graphics cards and other computational devices such as FPGA, ARM and multicore processors. The best known are either low-level and need a lot of controlling
code or are bounded only to special graphic cards. Furthermore there exist more
specialized frameworks, mainly aimed to the mathematic field. Described
framework is adjusted to use in a multi-agent simulations. Here it provides an
option to accelerate computations when preparing simulation and mainly to
accelerate a computation of simulation itself.
Keywords: GPGPU, GPU framework, OpenCL, Simulation
60
Mintál
1 INTRODUCTION
Different simulation studies are being developed worldwide every day. These simulations often
contains complicated models, which computation often last for a long time. In several cases is the
computation slower than the modeled system. It happens especially if we want to model larger
systems.
A solution may be to buy a new more powerful hardware or to rent a computation power. However
these restrictions can be conquered also with utilization of current hardware. A majority of programs is
serial and that is why they cannot fully utilize current multi-core processors. After adjustment, these
programs could fully utilize the processor. In a computer occurs more powerful computational device
when used properly. This device is a graphic card.
To fully use this hardware there exist several frameworks and libraries. Some of them will be
described in chapter two. This paper will deal with a designed framework that is able to utilize
mentioned hardware with focus placed on the utilization in simulation. Designed framework is
integrated into multi-agent simulation architecture ABAsim [1]. This is utilized both on education
purposes as well as commercially in the traffic simulations. Designed framework will be described in
third chapter. Chapter four defines a practical use of the framework. Last chapter will contain
summary and conclusion.
2 EXISTING FRAMEWORKS
Recently there did not exist any frameworks for simple use of computational power of graphic cards.
The only option was to convert data into textures and work with them in a complicated way. To utilize
a computation power of graphic cards and other computation devices there exist nowadays several
frameworks. There is a small amount of basic frameworks. These will be described in subsection 2.1.
Then there exist frameworks based on basic frameworks that simplify utilizing of this performance
such as automation of some steps, simplifying function calls or implementation of some algorithms. In
subsection 2.2 will be some of these frameworks presented.
2.1 LOW-LEVEL FRAMEWORKS
Among basic frameworks that enable to utilize computational devices belong these:
CUDA [2] – is mostly used, especially for good publicity and amount of provided libraries. The
disadvantage is that it only works with NVidia graphic cards.
OpenCL [3] – its main advantage is that it can use computational power of almost every recent
graphics card, processors and FPGA. Because of the wide spectrum of supported devices, it has a
disadvantage in more complicated host code.
DirectCompute – is part of DirectX. It is used in engines built on DirectX. It is rarely used for general
computations.
Acta Informatica Pragensia
61
2.2 HIGHER FRAMEWORKS
Then there exist frameworks and libraries based on mentioned low-level frameworks. These utilizes in
most cases OpenCL and CUDA. They simplify the work with computation on graphic cards in the
way that they make some steps automatically and provides simpler calls of functions. The best
example is a graphic card initialization automation before the computation. In the OpenCL an
initialization of single graphic card can take more than fifty lines of code.
Now will be described frameworks that are focused on the mathematical computations on the graphic
cards:
VexCL [4] – for initializing of computational devices it is necessary to call initializing call. However
it has an advantage that the code is executed over all requested devices. To copy data between graphic
card and processor it uses simple call of copy command. Data can be also set by direct value
assignment, but this is computationally slow. Furthermore it supports simple execution of simple
mathematic operations. Operation is written with the graphics card variables and is automatically
executed over all element of variables. An example of such a simple operation may look as follows:
gpu_vec_C = gpu_vec_A + gpu_vec_B;
gpu_vec_D = gpu_vec_C * 2.0;
It also supports more complicated operations however the whole code with parameters and all key
words from OpenCL must be written.
ViennaCL [5] – automatically initializes graphic card during the first call of any function from this
library. As well as VexCL it supports simple entries in simple mathematical operations. It also
supports data copying in the simple function copy, or by directly values assignment, but it is slow.
MTL4 – it is similar mathematical framework as previous two with one difference. This framework is
based on CUDA, so it can use only NVidia graphic cards for computations.
Frameworks MTL4, ViennaCL and VexCL were compared in the paper from Demidov et. al. [6]. In
the paper they are compared on chosen mathematical problems, where they achieve similar results on
sufficient big problem. In the small problems a time of initialization was the factor. When comparing
CUDA and OpenCL, were the frameworks based on CUDA a little bit faster. However practically this
difference was insignificant. In spite of CUDA, OpenCL supports more hardware.
Flame GPU [7] [8] – is computational framework assigned for simulation. One can see two
fundamental disadvantages. The first is, that it is based on CUDA. Therefore it can use only the
NVidia graphic cards. As NVidia form only a part of current graphic cards and do not support other
computational devices, its utilization is limited. Other possible disadvantage is the use of XML based
code when programming. This means a longer studying before work with the framework.
62
Mintál
3 DEVELOPED FRAMEWORK
Designed framework is built on the OpenCL. Due to this it can work on different computation
hardware and not only on the graphic cards NVidia, as it is in the case of CUDA framework. It is
aimed on the computations during simulations. Because of this it does not support simple
mathematical operations in the simple calls. During simulation are usually utilized complicated
computations. These can be created in a simpler way within the framework. Framework supports also
other benefit properties of mentioned frameworks, such as: automatic initialization, easier copying of
data between the computational device and computer memory and other, that will be described later.
Framework is kernel oriented not a data oriented. That means that for every computation there is
created a kernel object with a code and data can assigned into this. This kernel can then simply be
called several times with different data. It is also possible to assign data output from one kernel as a
data input of another kernel. Then simply a computation over the kernels is called and no commands
to transfer data between kernels have to be entered.
In the next parts will be the framework described in parts and its advantages will be pointed out.
3.1 INITIALIZING
Framework can automatically initialize itself. It is initialized during a first call that will have to work
with the graphic card. If no graphic cards are found the computations will be parallel executed on the
processor or other device supporting OpenCL. If necessary it is possible to manually define which
device should be initialized. For example if it is wanted to execute the computations only on the
specific graphic card.
3.2 MEMORY
When creating a kernel it is necessary to define the types of input and output data (parameters of the
kernel). This is done by the next procedure:
procedure addParamArr<TType>(paName: String = '';
paMemoryType: TECMemoryType = mtReadWrite;
paLength: Cardinal = 0);
The only obligatory parameter is TType, TType is converted into appropriate type in OpenCL. If
TType is a complicated record, then a struct with the same name is created in OpenCL. Then
every element of the record is converted into an appropriate type in OpenCL and is inserted into the
created struct under the same name as it has in the record. It is better to set a name that is later
easy to use when copying data and during the pointing on the data in the kernel.
Then setParam and getParam methods can be called over the kernel to set data and to obtain data
from the graphic card. In the calls a parameter name of kernel can be used. Framework than copies
correct size of data between graphic card and the computer memory.
Acta Informatica Pragensia
63
3.3 KERNEL CODE
Kernel code can be entered directly as a string or as a name of a file where the code is. If the code is in
file and it would contain a syntax error, framework announces this error and will wait for the error
repair in the file. If the code would be repaired, framework is able to continue in the computation
without crash or shutting down the application.
Another advantage of the framework is, that it is not necessary to write a declaration of kernel
function. Name of the kernel together with the correct parameter types and surrounding OpenCL code
is generated automatically. It is needed to write only the computation code for the kernel that will use
the names of the parameters identified during kernel creation. If the names were not defined, generated
names will be created according to the type of used memory.
Sometimes it is more useful not to have a lot of kernels, but call the functions from one kernel. For
example for the reason of speed or code readability. It is possible to assign these functions into the
kernel again as a string or a file name. When there is an error in the function code in the file, it is again
possible to repair it by announced notification and continue in the application run.
3.4 TEMPLATE FUNCTIONS
As was mentioned, framework does not support simple notation for simple mathematic operations.
However it supports template functions for more complicated functions utilizing computational
device. To these operations belongs for example prefix sum (scan) or sort.
It is because these operations are mostly specific for parallel computations or more difficult to code
and optimization. That is why a user can use them with benefit and is not forced to concern in detail of
how they work on graphic cards or other computational device.
3.5 SIMULATION
Framework is integrated into the multi-agent simulation architecture ABAsim. This architecture is
divided into two layers: controlling agents and dynamic agents. Controlling agents are responsible for
larger parts and work as a controllers. Dynamic agents represent intelligent entities presented in the
model. These can be neurons in brain, ants in anthill or cars, trains and pedestrians in the traffic
simulation.
Framework is integrated into dynamic agents. It is because there is a large amount of these agents and
they execute the same activity (the same code). This is preferable for graphic cards. For optimal
utilization it is requested that the executed code is the same for all threads and is executed in as big as
possible number of threads. Algorithm executed on big amount of threads is advantageous also from
the point of future computation acceleration. The trend heads to the computational devices with higher
number of cores that can faster process more threads.
This way it is possible to create a kernel for dynamic agent and register it in the framework. This
kernel is self-executed during simulation for every agent. Of course, this framework is able to utilize
in other parts of simulation. It is enough to create kernel and then execute it in desired places.
64
Mintál
4 USING OF PROPOSED FRAMEWORK
Described framework can be used during simulation in several ways and also it can be used outside
the simulation. Framework has been tested in the pedestrian simulation. Before simulation itself it can
be used to accelerate pre-simulation computations. For example to compute gradient maps [9] used for
pedestrian navigation. Firstly we will describe a simple example of vectors addition. Secondly we will
outline computations before and during simulation of pedestrians on graphic cards with their
advantages.
4.1 VECTORS ADDITION
An example of vectors addition (see below) is composed of three blocks. The first block creates
reusable kernel. The second one copies data from RAM to graphic card and starts the computation.
The third block deallocates kernel. More comprehensive description of the example is located below.
// Part 1
length := 20;
FArrayAdd := TECKernel.Create;
FArrayAdd.Code := 'c[id] = a[id] + b[id];';
FArrayAdd.addParamArr<Single>('a', mtReadOnly);
FArrayAdd.addParamArr<Single>('b', mtReadOnly);
FArrayAdd.addParamArr<Single>('c', mtWriteOnly);
// Part 2
FArrayAdd.setParamLength('c', length);
FArrayAdd.setParam('a', a_cpu);
FArrayAdd.setParam('b', b_cpu);
FArrayAdd.Compute(length);
FArrayAdd.getParam('c', c_cpu);
// Part 3
FArrayAdd.Free;
In the first block, the kernel is created and code for graphic card is assigned. Afterwards the
parameters with their types are defined. The second block executes the computation using Compute
method. Result is retrieved by getParam into variable c_cpu. Another values for addition can be set
using setParam. Call setParamLength is required only for output parameters, which size changes.
The third block comprises just a single command, which deallocates the whole kernel with all
parameters (if they are not used in another kernel).
4.2 COMPUTATION OF GRADIENT MAP
Computation comprises two phases. Firstly a distance matrix is calculated. Gradient map is then
created from this distance matrix (see Figure 1).
Acta Informatica Pragensia
65
Fig. 1. Distance matrix (a,) and gradient map (b,) with two obstacles [9]
Two kernels are needed for distance matrix computation. The first contains code [9] for distance
matrix calculation in local group. The second one synchronizes groups. Data about obstacles are then
sent to graphic card. This is accomplished by assignment of attributes to the first kernel. Both kernels
share the same part of memory on graphic card. Output parameter of the first kernel is assigned to an
input parameter of the second kernel and vice versa. Kernels are executed alternately until the whole
distance matrix is calculated.
Finally, a gradient map is computed from the distance matrix. For this we need another kernel, which
for each cell finds the smallest value in neighborhood. Input of this kernel is distance matrix and
output is gradient map.
This solution has several advantages. Processor can execute another pre-simulation computations
during computation of gradient maps on graphic card. Thanks to it, we can completely utilize the time
needed for creation of gradient maps. Moreover, resulting maps are already located on graphic card
and can be used for computation of pedestrians’ movement.
4.3 PEDESTRIAN MOVEMENT
During simulation it is able to use a connection of framework with simulation architecture ABAsim.
This solution is described in [10]. Described solution uses all properties of framework to implement a
pedestrian movement based on social forces [11]. Firstly, a kernel is created. Computation is similar
to processor alternative except finding of obstacles and pedestrians in surroundings. Static parameters
are set to kernel, such as obstacles or gradient maps. This kernel registers itself into ABAsim
architecture. We have to create a function for actualization of pedestrians attributes, for new pedestrian
arrival and for pedestrian departure from the simulation.
Before the computation of movement, the pedestrian asks, if there is available kernel for its type of
movement. If there is one, ABAsim architecture calls function for actualization of pedestrians
attributes, starts computation on graphic card and copies results from the card (if they are needed e.g.
for statistics).
66
Mintál
The presented solution was tested on two simulation models. Examined models of the pedestrian
movement are depicted in figure 2.
Fig. 2. Models of tested infrastructures [10]
The results of accelerating of movement of pedestrians on the graphics cards opposing to the serial
implementation are depicted in figure 3. The computation for higher amount of pedestrians in
simulated model was on the graphic card significantly faster than original serial implementation. Only
for very small amount of pedestrians (up to the ten pedestrians) was the computation on the graphic
cards slower. However in practical use it is needed to accelerate a computation for large amount of
pedestrians. That is why results reached by this framework are very good.
Fig. 3. Results of comparison of framework with original implementation [10]
5 CONCLUSION
The paper presented a framework for utilization of computational power of graphic cards, multi-core
processors and other computational devices supporting OpenCL. This framework simplifies
initialization and application against basic OpenCL framework. Due to the integration into the multiagent simulation architecture ABAsim it is possible to utilize it for accelerating of simulation
computations. This way it is possible to create larger simulation models which computation will last
shorten time.
Acta Informatica Pragensia
67
The framework was utilized to implement various algorithms. It was used also in the pedestrian
movement simulation. This implementation significantly accelerated a computation of pedestrians in
several models. Algorithms implemented in this framework can in future better utilize new hardware.
This is because algorithms are parallel and are able to use a potential of new multi-core computational
devices compared to current serial algorithms.
6 REFERENCES
[1]
ADAMKO, N. and V. KLIMA. Agent based simulation architeture argumented by actors. In:
SM'2006 - The 2006 European Simulation and Modeling Conference. Tolouse: 2006, pp. 30509. ISBN 90-77381-30-9.
[2]
KIRK, D. B. and W.M. W. HWU. Programming Massively Parallel Processors. 2010. ISBN:
978-0123814722.
[3]
GASTER, B. et al. Heterogenous Computing OpenCL. 2011. ISBN: 978-0123877666.
[4]
DEMIDOV, D. In: Vector expression template library for OpenCL [online]. 2013 [cit. 201310-15]. Available at: https://speakerdeck.com/ddemidov/vexcl-at-cse13
[5]
RUPP, K. F. RUDOLF and J. WEINBUB. ViennaCL - A High Level Linear Algebra Library
for GPUs and Multi-Core CPUs. In: International Workshop on GPUs and Scientific
Applications. Vienna: 2010, pp. 51-56.
[6]
DEMIDOV, D. et al. Programming CUDA and OpenCL: A Case Study Using Modern C++
Libraries. 2012, p. 21.
[7]
RIHMOND, P. and D. ROMANO. Template driven agent based modelling and simulation
with CUDA. In: GPU Computing Gems Emerald Edition. 2011, pp. 313-24. ISBN 978-0-12384988-5.
[8]
KARMAKHARM, T. P. RICHMOND and D. ROMANO. Agent-based Large Scale
Simulation of Pedestrians With Adaptive Realistic Navigation Vector Fields. In: Theory and
Practice of Computer Graphics. Sheffield, 2010, pp. 67-74.
[9]
MINTÁL, M. Accelerating distance matrix calculations utilizing GPU. In Journal of
Information, Control and Management Systems, Vol. 10, No.1, 2012, pp. 71-79. ISSN 13361716.
[10]
MINTÁL, M. Social forces pedestrian simulation utilizing graphics card within simulation
tool PedSim. In IMEA 2013, Pardubice: University of Pardubice, 2013. ISBN 978-80-7395696-7.
[11]
KORMANOVÁ, A. Combining social forces and cellular automata models in pedestrians'
movement simulation. In Journal of Information, Control and Management Systems, Vol. 10,
No.1, 2012, pp. 61-70. ISSN 1336-1716.
Acta Informatica Pragensia
2(2), 2013, 68–76, DOI: 10.18267/j.aip.25
Online: aip.vse.cz
Section:
Peer-reviewed papers
TOGAF usage in outsourcing of software development
Aziz Ahmad Rais1, Rudolf Pecinovsky1
1
Department of Information Technologies, Faculty of Informatics and Statistics,
University of Economics, Prague
W. Churchill Sq. 4, 130 67 Prague 3, Czech Republic
[email protected], [email protected]
Abstract: TOGAF is an Enterprise Architecture framework that provides a method
for developing Enterprise Architecture called architecture development method
(ADM). The purpose of this paper is whether TOGAF ADM can be used for
developing software application architecture. Because the software application
architecture is one of the disciplines in application development life cycle, it is
important to find out how the enterprise architecture development method can
support the application architecture development. Having an open standard that can
be used in the application architecture development could help in outsourcing of
software development. If ADM could be used for software application architecture
development, then we could consider its usability in outsourcing of software
development.
Keywords: Outsourcing, Enterprise Architecture,
Development, software application architecture
TOGAF,
Application
Acta Informatica Pragensia
69
1 INTRODUCTION
The Enterprise Architecture (EA) framework is one of the standard ways that the organizations use to
manage their IT to meet their organization’s business strategy. Enterprise architecture “is a welldefined practice for conducting enterprise analysis, design, planning, and implementation, using a
holistic approach at all times, for the successful development and execution of strategy. Enterprise
Architecture applies architecture principles and practices to guide organizations through the business,
information, process, and technology changes necessary to execute their strategies.” [5]
Therefore it happens that many organizations require that it be possible to use EA development
method for developing software application architecture (Application architecture) too. Application
software is all the computer software that causes a computer to perform useful tasks beyond the
running of the computer itself. A specific instance of such software is called a software application,
application program, application or app.
Although there are many EA frameworks available, in this paper only TOGAF will be used for
analysis, because TOGAF is one of the most frequently used framework by the organizations and is
freely available. Because all EA frameworks should follow a holistic approach at all times, it will not
make sense to analyse all of them.
In order to analyse ADM and decide whether ADM could be used for development of application
architecture, it is important to define what is application architecture and application architecture
method. Application architecture will be understood as defined in online article [11]: Architecture is
the fundamental organization of a system embodied in its components, their relationships to each
other, and to the environment, and the principles guiding its design and evolution.
There are different methods available on how to build application aritecture from different views. For
example: 4+1 view architecture method [7], model driven architecture (MDA) from OMG
(http://www.omg.org/mda/). There are also some goodpractices on how to use design patterns for
building application architecture, but they are not important for comparision with ADM. Both the 4+1
and MDA use object-oriented design. Object-oriented design is a method of design encompassing the
process of object-oriented decomposition and a notation for depicting both logical and physical as well
as static and dynamic models of the system under design [3].
In order to be able to compare both architecture types, it is important to write a few words about the
software application development methodologies. Software development methodologies design is a
discipline that proposes the architecture of the application software. A software development
methodology is a process that divides the software development disciplines e.g. analysis, design,
implementation testing, and maintenance into different phases. Some methodologies perform those
disciplines in a waterfall way and some more in parallel. It is useful to know that the architecture
discipline belongs to design discipline. The details of how a software development methodology
performs iteration on the development of an application architecture and in which step of a software
application development process the design of an application is performed are beyond the scope of this
paper.
70
Rais, Pecinovsky
The architecture developed in the design phase is called application architecture. Rational Unified
process (RUP) software application methodology is architecture-centric and design of architecture is
done before coding the application [6]. In agile methodologies architecture design is developed
sometimes by first writing a code and by refactoring the code until it meets the business need for
example in extreme programming (XP) [2]. Thus RUP is top-down development and XP is bottom-up
architecture development methodologies.
The application architecture development (AAD) that is part of the software development life cycle
(software development process) is about to describe how the software application should be built. But
in order to build AAD, if the target programming language is object oriented then the best practices is
to use: object oriented principles, object oriented analysis (OOA) [8], and object oriented design
(OOD) [3]Chyba! Nenalezen zdroj odkazů..
For analysis in this paper it is important to describe in short the TOGAF EA life cycle. The TOGAF
EA life cycle has eleven phases; for this article the following phases are important:
[1]
[2]
[3]
[4]
Phase B: Business Architecture,
Phase C: Information Systems Architectures - Application Architecture,
Phase C: Information Systems Architectures - Data Architecture,
Phase D: Technology Architecture,
Furthermore both types of architecture methods use business requirements to achieve their objective.
For describing the business both methods use UML diagrams or UML extension diagrams e.g. process
diagram. This common practice causes confusion without knowing the details of the UML diagrams.
In the other part of both methods use case diagrams are used and not considering the granularity of
the use cases in the diagrams is again confusing. Furthermore there are some similarities to other
diagrams and disciplines e.g. deployment view and infrastructure view that are used in both
architecture development methods.
The data architecture of ADM uses entity relation diagrams that are used also by application
architecture method to identify its data domain (sometimes it is called physical entities)
All the above similarities initiate the idea whether ADM could be used for application architecture
development. The difference between both methods is in what objective both methods achieve, and
whom the outputs of both methods are for.
The table below describes the summary of the process of the development of both types of
architecture. The software application architecture development process implies from object oriented
analysis and design process from the 4+1 view point of view. The EA development process details are
described by TOGAF ADM.
Acta Informatica Pragensia
Enterprise architecture
Application architecture
ADM
Object-oriented design
Business architecture:
Business requirements analysis:
1. Business strategy
1. Business requirement
2. Business process using UML activity
diagram UML extension diagram:
business process diagram
2. Use UML activity diagram and UML
extension diagram: business process
diagram.
3. Organization unit: actors and roles
3. Actors list
Application architecture
Design:
1. Application Communication diagram
1. Component diagram (logical view)
2. Application and User Location diagram
2. Interaction or sequence diagram
(process view)
3. Enterprise Manageability diagram
4. Process/Application Realization
diagram
5. Application Migration diagram
6. Software Distribution diagram
7. Software Engineering diagram
8. Application Use-Case diagram
Data architecture
3. Use case diagram
4. Package diagram, class diagrams
(implementation view)
5. Technology view (framework,
components, libraries)
6. Integration view
7. Component diagram (Deployment view)
Problem domain:
1. Data Management
1. Business domain
2. Data Migration
2. Object domain
3. Data Governance
3. Data domain
Technology architecture
71
Support /infrastructure view
1. Environments and Locations diagram
1. Hardware diagram
2. Platform Decomposition diagram
2. Network diagram
3. Processing diagram
4. Networked Computing/Hardware
diagram
5. Communications Engineering diagram
Table 1: Table describes ADM and object oriented design methods steps to develop
EA and application architecture. [Source: authors]
72
Rais, Pecinovsky
2 ANALYSIS OF DIFFERENCES BETWEEN ADM AND AAD
Some differences could be clear from detailed examples or detailed analysis of both methods. But
describing all the details would be a lot of duplication work that is clear from the documentation and
theory.
2.1 BUSINESS
This chapter will briefly highlight how every method uses the term “business” in the business
architecture and business requirements. In the ADM method business is analyzed to develop business
architecture. What does business architecture means and how is it different from the result of business
analysis in AAD? The difference could be in many places but for this analysis we will concentrate on
what objectives are going to be achieved by the specific principle or step of the method.
The objective of business architecture is how the business goal, and business strategy, technology
strategy and vision architecture of an enterprise is met. The other objective of it is to develop a
roadmap if there is GAP in a vision, a strategy and business architecture. As the strategy and vision
architecture is an important discipline for IT governance and according to COBIT [4] this is
responsibility of executive management of an organization, so the business architecture is target for
executive management of the organization.
The subject of business analysis is to analyze the business process and geographical aspect of
organization from organizational perspective. On other hand the objectives of business analysis in
AAD is to identify details of business and business process that needs to be implemented by a
software application. The objective is to satisfy the stakeholder’s needs and is not an organization,
business, or technology strategy. These business requirements are detailed-level information that
supports the enterprise business needs.
To summarize, the business architecture describes business on enterprise level for strategic needs of
enterprise. The enterprise strategic goals and enterprise architecture are supported by detailed business
processes that are automated and implemented by software application.
2.2 DESIGN
According to the ADM development life cycle, application architecture and data architecture compose
system architecture. The application architecture has to follow the objective of system architecture.
The objective of system architecture is similar to business architecture. In short targeted users of this
architecture are also executive management of an enterprise.
The Application Architecture provides a blueprint for the individual application systems to be
deployed, their interactions, and their relationships to the core business processes of the organization.
[9] As mentioned in the introduction chapter, application architecture is one of the phases of ADM life
cycle. Like every other phase in ADM this phase also has some activities that should be performed in
order to build the application architecture in EA. These activities are: defining objectives, describing
an approach, defining necessary inputs and outputs and steps to take for generation of outputs. For
Acta Informatica Pragensia
73
comparison and analysis of ADM and AAD is enough to analyse the activities inputs, outputs and
steps of application architecture in ADM.
Every aspect of the Application architecture development has many items. Here only some aspects
will be described to make clear the differences between ADM and AAD.
2.2.1
INPUTS
The inputs are draft architecture requirements specification that contains a gap analysis results (from
Business Architecture and Data Architecture, if available) and relevant technical requirements that will
apply to this phase. Another input is business and data architecture components of an Architecture
Roadmap. Besides others, Organizational Model for Enterprise Architecture describes budget
requirements and governance and support strategy, Scope of organizations impacted.
The AAD inputs can be detailed business requirements, business process and their models and list of
actors and stakeholders. Furthermore, to compare the above inputs with one another the application
architecture development method requires low level business details and the Enterprise architecture
high level and strategic requirements. This means that the subject of both architecture is different and
AAD could be seen a subset of ADM.
2.2.2
OUTPUTS
In the ADM one of the outputs of the application architecture process is draft architecture definition
document that includes baseline application architecture, target application architecture. The target
application architecture contains the following models:
1.
2.
3.
4.
Process systems model
Place systems model
Time systems model
People systems model
Other output is an update of draft architecture requirements specification and diagram mentioned in
the table 1.
In the AAD the output of the application architecture development is mostly only one document - that
is, architecture document - that contains the details how to implement each business process, use case
and domain model. This output is used by the developers to know how to implement the software
application. Comparing that result with ADM application architecture is quite different and the output
of ADM would be very difficult for a developer to follow and to know what the application software
to implement and how to implement.
But in the ADM application development output there is good information about what services an
application provides, what business process an application provides without details (e.g. how the
process is implemented). There is only information that makes executive to judge how the strategy is
met and what GAP in the business exist.
74
Rais, Pecinovsky
2.2.3
STEPS
Bellow is the list of steps according to AMD method that need to be taken to produce the output.
1.
2.
3.
4.
5.
6.
7.
8.
9.
Select Reference Models, Viewpoints, and Tools
Develop Baseline Application Architecture Description
Develop Target Application Architecture Description
Perform Gap Analysis
Define Candidate Roadmap Components
Resolve Impacts Across the Architecture Landscape
Conduct Formal Stakeholder Review
Finalize the Application Architecture
Create Architecture Definition Document
In AAD there is a need to identify use cases and use case description. After identifying the use cases
there is need for identification of the logical components and relation between them. The next step is
that the components would be grouped in the packages and it can be determined how to deploy them.
Comparing steps of both methods, we can see that they are too far from each other, but some of the
steps in ADM can be useful like GAP analysis. The GAP analysis is good when there is a need to
build software application on third party solution or packages, in which case it will be required to do a
GAP analysis of the components. But the GAP analysis in ADM is about to find out GAP between
strategy, objective and software application service. In such case even though some step can be used
but the subject and objective of the steps are different.
2.3 DATA
The data architecture process of ADM is similar to the application architecture step of ADM, because
both architectures belong to the same step of the ADM life cycle.
So from the input, output and step perspective the results of comparing data architecture to the
problem domain of AAD would be the same as comparing the application architecture development
process of ADM with the design of application architecture in AAD. Here other aspect of data
architecture and compared with design in AAD would be analyzed.
The key concern of data architecture in ADM is data management, data migration, data governance.
Data management concern is how and where data entities are used, created, transported or reported in
business architecture. How the data could be used by customers and suppliers.
In the data migration, this concern happens only if information system architecture is going to be
changed. The data governance is the concern of the executive of an organization and it is regarded to
resources, skills, structure in the organization. The data governance provides a management system to
manage the data governance aspects.
The concerns of the problem domain in AAD are to identify the business entities of business domain
and to find a proper object model that can meet business domain requirements. Another concern of the
Acta Informatica Pragensia
75
problem domain is to identify physical entities to store and manage business data based on an object
domain and a business domain.
The concerns of AAD are again related only to the problem domain, but data architecture solves and
provides strategies for the problem domain of the whole information system in an organization.
2.4 TECHNOLOGY
Based on the above analysis the objective and concerns of technology architecture in ADM is high
level and it solves and provides a platform picture of whole infrastructure of IT in the organization.
But the application level infrastructure view is only to identify where physically the software
application runs. It does not solve IT infrastructure issues of the organization.
3 CONCLUSION
The conclusion is whether TOGAF ADM can be used to as method developing application
architecture of software. The answer is no, it cannot be used as a method for developing application
architecture of a software. Hence TOGAF ADM cannot be used as a method for software architecture
development in outsourcing software development.
This implies also that EA is architecture for capturing the IT picture on an organizational level and
using any EA framework for developing application software architecture is not suitable, because of
the level of details that are captured by EA. We can conclude that software application architecture
development is one of the pillars of EA.
Besides ADM, The TOGAF framework provides, reference model, capability framework content
framework, ADM Guidelines and Techniques, Enterprise Continuum and Tools. Furthermore, the
content framework of enterprise architecture framework (TOGAF) provides very useful information
that can play crucial role in outsourcing. TOGAF reference model can be used to reference the
application architecture developed with outsourcing.
Agile development methodologies are by nature iterative. Solving strategic issues in outsourcing of
software development project iterations would not be so effective and would delay the software
delivery. That is why all strategic and base line architecture, architecture foundation and common
architecture best practices of TOGAF can help in increasing the quality of the software application
architecture proposed by supplier. Some strategies can be even used as an acceptance criterion and
could be used during QA processes. Thus, TOGAF or any other EA framework is useful in
outsourcing.
4 REFERENCES
[1]
ArchiMate
2.1
[Online].
The
Open
http://www.opengroup.org/subjectareas/enterprise/archimate
[2]
BECK, Kent. Extreme Programming Explained, First Edition, 1999, ISBN: 0201616416.
Group.
available
on:
76
Rais, Pecinovsky
[3]
BOOCH Grady, et al. Object-Oriented Analysis and Design with Applications. Third Edition.
April 2007, Addison-Wesley. ISBN 0-201-89551-X.
[4]
COBIT 4.1. IT Governance Institute, ISBN 1-933284-72-2
[5]
Federation of EA Professional Organizations. Common Perspectives on Enterprise
Architecture. Architecture and Governance Magazine 9 (4), November 2013.
[6]
KRUCHTEN, Philippe. Rational Unified Process: An Introduction, Third Edition, Addison
Wesley, 2003, ISBN: 0-321-19770-4.
[7]
KRUCHTEN, Philippe. Architectural Blueprints—The “4+1” View Model of Software
Architecture. Paper published in IEEE Software 12 (6) November 1995, pp. 42-50
[8]
McLAUGHLIN, Brett, POLLICE Gary, WEST David. Object-Oriented Analysis and Design,
O'Reilly Media, 2006, ISBN: 978-0-596-00867-3.
[9]
Open Group Standard
9789087536794.
[10]
STEHLÍK, Hynek. Vizuální jazyk Archimate pro modelování Enterprise architektury na
příkladu integrace ekosystému tabletu [online]. Acta Informatica Pragensia 2 (1), pp. 57-69.
[2013-12-12]. available on: http://aip.vse.cz/index.php/aip/article/view/29/18
[11]
What is a software architecture? [online]. IBM.
[2013-11-15].
http://www.ibm.com/developerworks/rational/library/feb06/eeles/
TOGAF
Version
9.1,
Document
Number:
G116,
ISBN:
available
on:
Acta Informatica Pragensia
2(2), 2013, 77–96, DOI: 10.18267/j.aip.26
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Mikroprogram pre riadenie procesu spájania
operandov v architektúre DF KPI
Norbert Ádám1
1
Katedra počítačov a informatiky, Fakulta elektrotechniky a informatiky,
Technická univerzita v Košiciach, Letná 9, 040 01 Košice, Slovenská republika
[email protected]
Abstrakt: V článku uvedená architektúra je založená na výpočtovom modeli „data
flow“, v ktorom riadenie výpočtu je založené na spracovaní toku dát. Základným
prvkom DF architektúry je koordinačný procesor (CP), ktorý je zodpovedný za
riadenie a organizáciu vykonávania inštrukcií. Štruktúrna organizácia CP je
navrhnutá ako dynamický multifunkčný systém. Pri vykonávaní operácií môže CP
prechádzať rôznymi stavmi, v dôsledku čoho táto jednotka predstavuje dynamický
prúdový systém. Prechod a poradie prechodu medzi jednotlivými stavmi CP je
podmienený typom spracovaného operátora pri interpretovaní prúdu operandov.
Z možných typov operátorov, článok uvádza mikroprogramové riadenie pre
jednovstupové operátory.
Klíčová slova: data flow model, mikroprogram, spájanie operandov,
spracovanie, zreťazenie
Title: Microprogram for operand matching in DF KPI architecture
Abstract: The architecture described in this article is based on the data-flow
computation model, in which computation is driven by processing a flow of data.
The basic element of the data-flow architecture is the coordinating processor (CP),
responsible for controlling and organizing the execution of instructions. As to its
structure, the CP is designed as a dynamic, multi-functional system. When
executing the operations, the CP may acquire various states, therefore it is a
dynamic pipelining system. The transitions and the order of the states between two
transitions depend on the type of the operator processed at the time of interpreting
the flow of operands. This article details the microprogram control of single-input
operators.
Keywords: Data flow model, Microprogramm, Pipeline, Processing, Operand
matching, Processing unit
78
Ádám
1 ÚVOD
Prudko sa zvyšujúce nároky moderných aplikácií na technické možnosti počítačových systémov,
prenikanie výpočtovej techniky do nových vedných disciplín smerujú výskum a vývoj počítačových
systémov do sfér, kde si už nevystačíme s klasickými informačnými technológiami typu von
Neumann. Vzniká potreba vývoja nových architektúr, na ktoré sa kladú požiadavky s dôrazom na
výkonnosť, spoľahlivosť, efektívnosť a cenovú reláciu. Dosiahnutie týchto cieľov je podmienené
uplatnením nových fyzikálnych princípov (napr. princípov optoelektroniky), použitím modernej
technológie výroby prvkov [4], [6], [7] (vysoká koncentrovanosť prvkov na čipe), nasadenie nových
architektonických riešení [9], [14], [17] a vylepšením riadenia týchto systémov [10], [11]. V rámci
rôznych smerov vývoja počítačov novej generácie s extrémne vysokou výkonnosťou osobitnú triedu
paralelných počítačov tvoria architektúry založené na výpočtovom modeli „data flow“. Výpočtový
model „data flow“ (DF) patrí medzi modely, ktoré reprezentujú paralelnú organizáciu výpočtu typu
„data-driven“. Jeho charakteristickou vlastnosťou je to, že inštrukcie programu DF pasívne čakajú na
príchod určitej kombinácie svojich argumentov, sprístupňovanie ktorých sa organizuje ako údajový
prúd riadenia v zmysle definície „data-driven“. Interval čakania inštrukcie na príchod operandov
reprezentuje jej výberovú fázu, v priebehu ktorej dochádza k alokácii výpočtových prvkov, tzv.
procesných elementov.
Program, pri ktorom sa využíva výpočtový model DF, sa nazýva program DF. Jeho strojovou
reprezentáciou je graf toku dát (Data Flow Graph; DFG). Významnou vlastnosťou programu DF, resp.
výpočtového modelu DF je to, že umožňuje aplikovať princípy paralelného spracovania inštrukcií na
všetkých troch úrovniach (jemnozrnný, strednozrnný, hrubozrnný) paralelizmu. Realizáciu
paralelizmu na zvolenej úrovni umožňujú dva charakteristické princípy výpočtového modelu DF:


Asynchrónnosť – všetky operácie sa vykonávajú vtedy, keď sú dostupné vyžadované
operandy.
Funkcionalita – všetky operácie sú funkcie, tzn., že nezávisia od operandov iných funkcií
(neexistujú vedľajšie účinky), v dôsledku čoho sa môžu vykonávať paralelne.
Ďalšou významnou vlastnosťou modelu DF a jeho realizácie je to, že sa programu DF prispôsobuje
štruktúra technických výpočtových prostriedkov. Výpočtový model DF sa symbolicky zobrazuje vo
forme DFG, v ktorom uzly predstavujú operácie a hrany predstavujú údajové závislosti medzi
operáciami. Kým na abstraktnej úrovni sa výpočtový model interpretuje putovaním dátových tokenov
(Data Token, DT) v grafe, ako výsledku konzumovania (odpálenia) a generovania operandov uzlami
grafu, na realizačnej úrovni sa výpočtový model DF realizuje prenosom a spracovaním údajov vo
funkčných jednotkách príslušnej počítačovej architektúry. Boli vypracované rôzne štúdie zamerané na
„data flow“ výpočtový model [8], [9], [16] a bolo navrhnutých niekoľko počítačových architektúr
riadených tokom dát [1], [2], [3], [5], [9], [14], [15]. Tieto architektúry sa podľa spôsobu spracovania
toku dát delia na statické a dynamické architektúry.
Acta Informatica Pragensia
2 VÝPOČTOVÉ MODELY ARCHITEKTONICKÝCH
PARALELNÝCH POČÍTAČOVÝCH SYSTÉMOV
79
KONCEPCIÍ
Architektonické koncepcie počítačov a princíp ich činnosti sa môže odvíjať od výpočtového modelu,
ktorým je definovaný spôsob riadenia procesu spracovania informácií. Existuje rad výpočtových
modelov, spomedzi ktorých najvýznamnejšie sú:
Výpočtový model „control flow“ (VM CF), pri ktorom sa riadenie výpočtového procesu uskutočňuje
prostredníctvom interpretácie sériového prúdu inštrukcií programu.
Výpočtový model „data flow“ (VM DF), pri ktorom sa riadenie výpočtového procesu uskutočňuje
prostredníctvom prúdu operandov (údajov), definujúcich pripravenosť inštrukcií na vykonanie.
Výpočtový model „demand driven“ (VM DD), pri ktorom sa riadenie výpočtového procesu
uskutočňuje na základe požiadaviek inštrukcií programu na vyslanie operandov. Výpočtové modely
založené na báze organizácie výpočtu typu DD sa nazývajú redukčné modely.
Na základe implementácie týchto výpočtových modelov (VM) sa rozlišujú:



počítače riadené prúdom inštrukcií – založené na VM CF,
počítače riadené prúdom údajov – založené na VM DF,
počítače riadené požiadavkami (redukčné počítače) – založené na VM DD.
Vo všeobecnosti výpočtový model reprezentuje opis realizácie programu. V jednotlivých modeloch
CF, DF a DD sa organizácia výpočtového procesu uskutočňuje:
1. na báze príkazov. Program sa vykoná prostredníctvom adresovateľných inštrukcií
sprístupňovaných nastavením programového počítadla (PC), z ktorých každá, v zmysle von
Neumannovho princípu programového riadenia, špecifikuje (control token):
 operáciu nad operandmi alokovanými s inštrukciami v spoločnej pamäti,
 podmienené alebo nepodmienené riadenie prechodu na vykonanie nasledujúcej
inštrukcie.
Vykonanie inštrukcií môže prebiehať sekvenčne, prúdovo alebo paralelne.
2. na báze údajov. Inštrukcie programu sa vykonajú v okamihu, keď majú sprístupnené operandy
(data token), čo vytvára optimálne podmienky na jeho paralelnú implementáciu. Vykonanie
inštrukcií sa organizuje na rôznej úrovni paralelizmu prúdovo a/alebo paralelne.
3. na báze požiadaviek. Inštrukcie programu sa vykonajú v okamihu, ak výsledok príslušnej
operácie je požadovaný inou inštrukciou programu prostredníctvom osobitnej požiadavky
(demand token). Vykonanie inštrukcií sa organizuje na rôznej úrovni inštrukčného paralelizmu
prúdovo alebo paralelne. Požiadavky VM DD kladú pri návrhu počítačových architektúr príliš
vysoké nároky na hardvér. Efektívne riešenie mechanizmu šírenia požiadaviek rapídne
zvyšuje cenu hardvéru a preto od vývoja redukčných počítačov opustilo. Princípy VM DD sa
uplatňujú v dnešných prekladačoch na softvérovej úrovni pri preklade programov do
strojového jazyka.
Uvedený článok sa zaoberá opisom počítačovej architektúry s VM DF. Charakteristika ako aj hlavné
prednosti a nedostatky VM DF v porovnaní s VM CF sú opísané v nasledujúcej podkapitole.
80
Ádám
2.1 PREDNOSTI A NEDOSTATKY DF ARCHITEKTÚR
Konvenčné von Neumannove počítače, sú založené na princípe VM CF, pri ktorom riadenie
výpočtového procesu sa uskutočňuje prostredníctvom interpretácie sériového prúdu inštrukcií
programu. Sériové vykonávanie inštrukcií na úrovni hardvéru je podporované programovým
počítadlom. Úlohou programového počítadla je určiť nasledujúcu inštrukciu v prúde inštrukcií. Obsah
programového počítadla po vykonaní jednej inštrukcie sa inkrementuje alebo v prípade riadiacich
inštrukcií (GOTO, JUMP a CALL) sa nastaví explicitne. Údaje sa nachádzajú buď v pamäti alebo v
registroch počítača. Dátový prúd je určený odvolávaním sa na tieto pamäťové bunky, čo nemá vplyv
na riadenie vykonávania inštrukcií, t.j. poradie vykonávania inštrukcií je jednoznačne určené prúdom
inštrukcií. Interpretácia výpočtu jednoduchého matematického výrazu v tomto modeli a spôsob
reprezentácie dát je znázornený na Obr. 1.
Obr. 1. Výpočet výrazu R = (A + B) x (B + 1) podľa princípu programového riadenia
Inštrukcie sa nachádzajú v pamäti inštrukcií v takom poradí v akom poradí budú vykonávané.
Operandy (okrem konštánt) sú reprezentované smerníkmi, ktoré ukazujú na pamäťové miesto kde je
operand uložený. Slabá stránka von Neumannovho modelu sa najviac prejavuje pri spracovaní
programových cyklov (for, while, ...). Tento model neumožňuje rozvinutie jednotlivých iterácií
v priestore. Tým pádom aj v prípadoch, keď telo cyklu tvoria v čase od seba nezávislé inštrukcie,
inštrukcie sa vykonávajú sekvenčne za sebou. Výhoda von Neumannovho modelu spočíva v tom, že
ak operandy uložíme do registrov, tak je možné vykonať efektívnu optimalizáciu (preusporiadanie)
dát.
V modeli DF, riadenie výpočtu je jednoznačne určené tokom dát. Poradie inštrukcií v programe nemá
vplyv na poradie vykonávania týchto inštrukcií. Inštrukcia sa vykoná v momente keď sú dostupné
všetky informácie (všetky operandy) na jej vykonanie. Model DF, na rozdiel od VM CF, nedisponuje
spoločnými prepisovateľnými pamäťovými elementami. Údaje sa prenášajú nezávisle medzi
pamäťovými bunkami, a ich dostupnosť určuje okamih vykonania inštrukcie. Dostupnosť údajov pre
Acta Informatica Pragensia
81
viacero inštrukcií naraz umožňuje paralelné vykonanie týchto inštrukcií. Možný paralelizmus v
procese vykonávania inštrukcií je určený pomocou grafu závislosti dát (Data Dependency Graph),
resp. grafu toku dát (DFG). Uzly v grafe reprezentujú inštrukcie programu a hrany medzi uzlami
určujú vzťahy medzi dátami (Obr. 2).
Obr. 2. Graf toku dát pre výpočet výrazu R = (A + B) x (B + 1)
Údaje na hranách sa pohybujú v tvare dátových tokenov (DT), ktoré obsahujú stavové informácie
a číselnú hodnotu údajov. Asynchrónne a paralelné vykonávanie inštrukcií je dané pravidlom
odpálenia tokenu: uzol je pripravený na odpálenie (vykonanie) ak na každom vstupe tohto uzla sa
nachádza token. Počas vykonania uzla, tokeny na vstupe sú konzumované (následne odstránené zo
vstupov), vykoná sa inštrukcia priradená k tomuto uzlu a výsledok vykonania danej inštrukcie sa
objaví na výstupe uzla vo forme tokenu. Výhoda DF modelu spočíva v tom, že uzly DFG sa
vyhodnocujú samostatne na základe pravidla odpálenia tokenov. Na obrázku 3 sa nachádza riešenie
problému z obrázka 2 použitím modelu DF. Z obrázka 3 vyplýva že v tomto modeli neexistuje
samostatná údajová pamäť. Operandy inštrukcií sú súčasťou inštrukčného formátu. Inštrukcia je
pripravená na vykonanie vtedy a len vtedy, keď všetky jej operandy sú dostupné na jej vykonanie.
Dostupnosť operandov je indikovaná prítomnosťou operanda v inštrukčnom formáte.
Obr. 3. Výpočtu výrazu R = (A + B) x (B + 1) podľa princípu riadenia tokom dát
82
Ádám
Miesto uloženia týchto inštrukcií vo viacprocesorových systémoch nemá vplyv na efektívnosť
vykonávania inštrukcií a synchronizáciu inštrukcií je možné vykonať aj bez explicitných
synchronizačných techník ako je napr. semafor. Nevýhoda oproti VM CF spočíva vo veľmi zložitom
mechanizme spájania operandov a v ťažkopádnosti registrovej optimalizácie.
Hlavným prínosom VM DF oproti VM CF (v kontexte viacvláknových architektúr1) je to, že okamih
spracovania inštrukcie programu je podmienený len prítomnosťou požadovaných operandov, t.j.
umiestnenie inštrukcie v pamäti počítača nemá vplyv na poradie vykonávania inštrukcie. Tento fakt
umožňuje zvýšiť koeficient vyťažiteľnosti funkčných jednotiek danej architektúry, čo priaznivo
ovplyvňuje priepustnosť a tým redukuje potrebný čas na dokončenie výpočtu. V DF architektúrach sa
prejavuje len hazard typu RAW (Read-after-Write). Ďalšie dva typy údajového hazardu, WAR (Writeafter-Read) a WAW (Write-after-Write), sú eliminované počas prekladu výpočtového problému do
tvaru DFG. Znalosť informácie o výskyte hazardu RAW, už v čase prekladu do DFG, umožňuje
efektívne synchronizovať činnosť komponentov DF architektúry a tým znižovať oneskorenie
v dôsledku nedostupnosti operandov pre spracovanie inštrukcií. Zároveň platí, že koeficient
vyťažiteľnosti procesného elementu vo viacvláknových architektúrach vyjadrený zápisom:
ܷൌ
ܲ
ܲ
ൌ
ܶ ܲ൅‫ܫ‬൅ܵ
(1)
kde
U
P
T
I
S
- koeficient vyťažiteľnosti procesného elementu počítačovej architektúry;
- čas potrebný na realizáciu výpočtu;
- doba spracovania programu;
- čas čakania na vykonanie V/V operácie, čas prístupu do pamäťového podsystému,
čas v priebehu ktorého procesný element vykonáva inštrukcie iného programu v rámci
multiprogramovania;
- čas potrebný na prepínanie medzi kontextmi vlákien.
v prípade DF architektúr udáva väčšie číslo (hodnotu bližšiu k číslu 1) ako pre viacvláknové
architektúry riadených tokom príkazov [13].
Ďalšou prednosťou VM DF oproti VM CF je viacrozmernosť, viacnásobné prúdové spracovanie
inštrukčného paralelizmu a hardvérový paralelizmus. Základný VM DF vychádza z dvoch
východiskových prístupov vytvárania modelov DF, ktoré reprezentujú statické modely a dynamické
modely, opis ktorých je predmetom nasledujúcej kapitoly.
3 POČÍTAČE RIADENÉ TOKOM DÁT
Implementácia architektúry počítača DF závisí od spôsobu vykonania inštrukcií programu DF, ktorý
prebieha ako proces prijímania, spracovania a vysielania dátových tokenov (Data Token - DT),
reprezentujúcich údaje a príznaky na hranách DFG. V závislosti na spôsobe spracovania DT v DFG,
resp. v závislosti na rozsahu architektonickej podpory jeho vykonávania, sa rozlišujú nasledujúce typy
priamych architektúr DF:
1
Porovnávajú sa paralelné architektúry.
Acta Informatica Pragensia


83
Statické modely (Obr. 4a);
Dynamické modely (Obr. 4b).
Výpočtový model statického DF počítača bol navrhnutý výskumným tímom Dennisa z inštitúcie MIT
[3]. Statický model reprezentovaný orientovaným grafom, pozostáva z operátorov, údajových
(dátových) a riadiacich hrán a údajových (dátových) a riadiacich DT. Z priestorového hľadiska je
prípustné, aby na jednej hrane bolo umiestnených niekoľko DT, v danom časovom okamihu môže byť
však prítomný iba jeden. Operátor je aktivovaný (spustený), ak na jeho výstupných hranách sa
nenachádza žiadny DT [1], [3].
Statický model (Obr. 4a) pozostáva z nasledujúcich funkčných blokov:
Pamäť aktivačných rámcov (Activity Store) obsahuje aktivačné rámce inštrukcií, reprezentujúce uzly
v DFG. Každý aktivačný rámec obsahuje operačný kód, položky pre operandy a cieľovú adresu.
Položka operandov obsahuje kontrolný bit pre určenie dostupnosti operanda.
Aktualizačná jednotka (Update Unit) vykonáva aktualizáciu DT a skontroluje či je inštrukcia
vykonateľná. Ak podmienka vykonateľnosti je splnená, jednotka pošle inštrukciu cez inštrukčnú FIFO
pamäť do výberovej jednotky inštrukcií.
Jednotka výberu inštrukcií (Fetch Unit) sprístupňuje adresy vykonateľných inštrukcií, na základe
ktorých, z príslušných aktivačných rámcov uložených v aktivačnej pamäti, vyberie operačný kód,
príslušné operandy a cieľové adresy výsledku operácie, vytvárajúc tak operačný balík. Tento operačný
balík potom pošle do voľnej operačnej jednotky.
Operačná jednotka (Operation Unit) zrealizuje výpočet a výsledok vykonanej operácie pošle do
aktualizačnej jednotky.
Nakoľko statická DF architektúra nie je schopné efektívne spracovať také programové konštrukcie ako
sú cykly a rekurzie (v tomto modeli je povolený len jeden token na vstupe operátora) bol vyvinutý
dynamický model DF architektúry.
Dynamický DF model bol navrhnutý skupinou s členmi Arvind z MIT [1], Grund a Watson
z University of Manchester [5].
V dynamickom DF modeli operátor spojený s uzlom je vykonateľný vtedy, keď všetky vstupné hrany
obsahujú tokeny, ktorých značky sú identické [1]. V tomto modeli každá hrana môže obsahovať viac
ako jeden značený token. Pri vykonaní uzla k sebe patriace tokeny sú odstránené zo vstupných hrán a
na výstupnej je vygenerovaný token s príslušnou značkou. Dynamický DF model využíva tak
slučkový paralelizmus ako aj rekurzívny paralelizmus, ktoré sa dynamicky objavujú počas behu
programu, preto takáto architektúra musí podporovať proces spájania operandov.
Opis jednotlivých funkčných blokov (Obr. 4b) dynamického modelu počítača riadeného tokom dát je
uvedený nižšie.
Spájacia jednotka (Matching Unit) predstavuje pamäť, ktorá vykonáva spájanie operandov na vstupe
operátora. K spájaniu operandov dochádza len vtedy, ak DT definujúci daný operand je určený pre
84
Ádám
dvojvstupový operátor, na základe čoho sa inicializuje proces spájania operandov. Ak spájanie bolo
úspešné (z frontu tokenov bol sprístupnený token s rovnakou značkou uloženou v jednotke) jednotka
pošle korešpondujúci DT do jednotky výberu inštrukcií. Ak v jednotke sa nenachádza DT
korešpondujúci so vstupujúcim DT, token sa uloží do nej.
Obr. 4. (a) Statická data flow architektúra (b) Dynamická data flow architektúra
Jednotka výberu inštrukcií (Fetch Unit) uskutočňuje výber pripravených inštrukcií z pamäti programu
a generuje vykonateľný balík pre vykonávaciu jednotku.
Pamäť programov (Instruction Store) plní funkciu pamäti inštrukcií programu DF.
Vykonávacia jednotka (Processing Unit) spracuje operácie definované v DF programe a výsledok
postúpi ďalej do spájacej jednotky cez front údajov.
Front údajov (Token Queue) spĺňa funkciu prepojovacieho média medzi vykonávacou a spájacou
jednotkou.
Súčasný vývoj aplikácií princípov DF pri návrhu architektonického riešenia počítačov DF je zameraný
na dynamické DF výpočtové modely. Rad dynamických modelov DF architektúr tvoria:



architektúry s označenými aktivačnými značkami (Tagged Token Model, TT),
architektúry s pamäťou explicitných aktivačných značiek (Explicit Token Store Model),
architektúry s kombinovaným (hybridným) CF/DF modelom (Hybrid Model).
Hlavnou prednosťou TT architektúr pred statickými modelmi je lepšia výkonnosť, pretože pripúšťa
viacnásobné DT na hranách uzla, čo umožňuje rozvinutie väčšieho paralelizmu. Problémom modelov
TT architektúr je dosiahnutie efektívnej implementácie jednotky spájania rovnako označených DT
(spájacej jednotky) na hranách uzlov (operátorov). Pre tento účel bola používaná asociatívna pamäť,
ktorá však pre jej vysoké náklady nepredstavovala optimálne riešenie (aplikácia asociatívnej pamäti na
spájanie DT v TT architektúrach musí mať značnú kapacitu, v dôsledku čoho jej realizácia je príliš
nákladná).
Nevýhodou TT architektúr je nízka účinnosť spájania DT uskutočňovaného pomocou cenovo náročnej
asociatívnej pamäti so zložitou organizáciou vyhľadávania veľkého množstva operandov. Asociatívny
Acta Informatica Pragensia
85
princíp spájania je možné eliminovať zavedením pamäti explicitných aktivačných značiek. Princíp
spájania pomocou pamäti explicitných aktivačných značiek spočíva v alokovaní aktivačných rámcov v
pamäti rámcov (Frame Store, FS) pre každú aktiváciu iterácie cyklu alebo podprogramu pri
vykonávaní programu DF.
Pravé architektúry DF, ktoré vychádzajú z koncepcie prítomnosti jediného DT na hranách DFG
(statické DF) alebo viacerých, označených DT na hranách DFG (dynamické DF), spracúvajú
inštrukčný kód s relatívne nízkou výkonnosťou. Tento nedostatok vyplýva z nasledujúcich
skutočností:



nie sú využité prednosti prúdového spracovania, pretože vykonanie každej inštrukcie
v definovanej postupnosti inštrukcií môže byť prúdovo spracované až po ukončení
predchádzajúcej inštrukcie. Tzn., že v n-fázovom prúdovom DF systéme je jeho výkonnosť nnásobne znížená;
réžia spájania DT znižuje efektívnosť prúdového systému DF, pretože v dôsledku aktivačného
pravidla dyadická operácia môže byť vykonaná až po príchode druhého (partnerského) DT, čo
vytvára podmienky na vznik oneskorení v prúdovom spracovaní reťazca inštrukcií;
v dôsledku prepínania kontextu po vykonaní každej inštrukcie v definovanom zoskupení
inštrukcií jemnozrnného systému DF, nie je možné zvýšiť jeho výkonnosť:
o použitím registrov na optimalizáciu prístupového času k údajom,
o vyhýbaním sa oneskorení pri prúdovom spracovaní dyadických inštrukcií,
o znížením počtu DT pri vykonávaní programu DF.
Uvedené nedostatky je možné eliminovať aplikáciou kombinácie VM CF a VM DF pri návrhu
architektúry DF. Z von Neumannovských princípov v architektúre DF sa uplatňujú tie inštrukcie, ktoré
redukujú réžiu riadenia systému DF prostredníctvom:


zvyšovania granularity DFG,
využitia rôznych mechanizmov riadenia zdrojov známych z von Neumannovských architektúr.
Na základe uplatnenia rôznych techník kombinovania VM CF a VM DF sa rozlišujú nasledujúce
modifikácie architektúr DF:



zreťazené DF (Multithreaded Data Flow),
hrubozrnné DF (Coarse-Grained Data Flow, Macro Data Flow),
RISC DF.
Architektúra opísaná v nasledujúcich kapitolách patrí do triedy hybridných CF/DF architektúr.
Opisovaná architektúra DF-KPI je jedinečná v kontexte dynamických hybridných CF/DF architektúr
nakoľko zavádza N-vstupové (N≥3) operátory a spája prednosti zreťazených a hrubozrnných
hybridných architektúr. Umožňuje vytvárať subgrafy v DF programe pomocou techniky farbenia
grafu, čím vzniká možnosť si zvoliť optimálnu granularitu paralelizmu, aplikovať techniku
maskovaného multi-mapovania subgrafov do pamäte rámcov [] a zároveň umožňuje uplatniť techniku
prúdového spracovania na úrovni subgrafov.
86
Ádám
4 SYSTÉM DF-KPI
Systém DF-KPI [9] vyvíjaný na Katedre počítačov a informatiky Fakulty elektrotechniky
a informatiky Technickej univerzity v Košiciach je navrhovaný ako dynamický systém s priamym
spájaním operandov. Kombinácia lokálneho CF modelu s globálnym DF modelom umožňuje
efektívne organizovať paralelnú implementáciu funkcionálneho programu. Model architektúry
počítača DF-KPI je súčasťou komplexného systému DF, ktorý zahŕňa aj podporné komponenty
výpočtového prostredia DF pre realizáciu definovaného aplikačného určenia.
Štruktúrna organizácia (Obr. 5) modelu architektúry počítača DF-KPI pozostáva z nasledujúcich
funkčných jednotiek.
Obr. 5. Systém DF-KPI
Koordinačný procesor (Coordinating Processor; CP) – je určený na riadenie, koordinovanie
a spracovanie inštrukcií programu DF, na základe prítomnosti ich operandov, ktoré sa na vstupný port
CP.DI koordinačného procesora sprístupňujú buď z jeho výstupného portu CP.DO, resp. z výstupných
portov CP.DO iných CP prostredníctvom prepojovacej siete, alebo z údajového frontu a z pamäti
rámcov. Štruktúrna organizácia CP je navrhnutá ako dynamický multifunkčný systém, ktorý pozostáva
zo segmentov LOAD, FETCH, OPERATE, MATCHING a COPY.
Acta Informatica Pragensia
87
Údajový front (Data Queue Unit; DQU), je jednotka, určená na ukladanie DT, reprezentujúcich
operandy, ktoré čakajú na spájanie v priebehu vykonávania programu.
Inštrukčná pamäť (Instruction Store; IS) je pamäť inštrukcií programu DF v tvare kódu príslušného
DFG.
Pamäť rámcov (Frame Store; FS) je pamäť spájacích (párovacích) vektorov, pomocou ktorých CP
zisťuje prítomnosť DT na vykonanie operácie definovanej operátorom (uzlom) v DFG. Skrátená
definícia formátu položky spájacieho vektora (Matching Vector; MV) v pamäti rámcov je <AF><V>,
kde AF (Affiliation Flag) je príznak prítomnosti operanda a V (Value) je hodnota daného operanda v
DT.
Podporné komponenty systému DF sú potrebné pre vytvorenie reálneho výpočtového prostredia. V
danej architektúre ich tvoria:
Hlavný počítač (HOST) pre zabezpečenie štandardných funkcií počítačového systému výpočtového
procesu DF.
Špecializované jednotky slúžia na vytvorenie špecializovaného aplikačného prostredia (virtuálna
realita, diagnostika, e-learning).
V/V procesory (súčasťou hlavného počítača) pre rýchle priame vstupy/výstupy do modulu DF
(štandardné V/V sa realizujú prostredníctvom hlavného počítača).
4.1 INŠTRUKČNÝ FORMÁT
Inštrukcie zdrojového kódu programu sú uložené v inštrukčnej pamäti. Každá inštrukcia reprezentuje
operátor v DFG. Operátory DFG sa delia na jednovstupové a na N (N≥2) vstupové. V prípade
jednovstupových operátorov, vstup tvorí len jeden DT, ktorého prítomnosť spĺňa podmienku
vykonateľnosti, t.j. nie je potrebné spájanie operandov. Pre N vstupové operátory platí, že operátor,
reprezentujúci inštrukciu DF sa vykoná vtedy a len vtedy, ak sú prítomné všetky vstupujúce DT. Tieto
DT následne sú spájané v spájacom segmente na základe MV. Súbor inštrukcií architektúry DF-KPI
tvoria inštrukcie reprezentované jednovstupovými operátormi (ACCEPT, IF, KILL, OUT, RET, SEL,
UN_OP), dvojvstupovými (BIN_OP, CASE, DEF, GATE, LOAD, SEND, TUP) a M (M≥3)
vstupovými (APPLY, CONSTR). Operátor ACCEPT je vstupným operátorom DF programu
a podprogramu. Operátor IF reprezentuje programové dvojcestné a operátor CASE viaccestné
vetvenie. Na konzumovanie vstupného DT bez odozvy slúži operátor KILL. Jednovstupový operátor
OUT je posledným operátorom a RET návratovým operátorom (pod-)programu DF. Operátor SEL
vyberá dáta z údajovej štruktúry definovanej operátorom CONSTR. Jednovstupový operátor UN_OP
reprezentuje unárnu a dvojvstupový BIN_OP binárnu matematickú operáciu. Operátor DEF slúži na
definovanie programovej konštanty. Na vytváranie kópie z údajovej a adresnej časti vstupného DT
slúži operátor LOAD, kým operátor TUP vytvára kópie len z údajovej časti DT. Spustenie
programu/podprogramu je odštartované operátorom APPLY. Podrobnejší popis týchto operátorov sa
nachádza v [9].
Formát inštrukcie (Data Flow Instruction; DFI) zdrojového kódu je nasledovný:
88
Ádám
DFI ::= OC LI {DST, [IX]}n
kde
OC
LI
DST
IX
- je kód operátora;
- literál (napr. počet kópií výsledku);
- adresa cieľového operátora výsledku operácie;
- index spájania výsledku operácie.
Zápis {DST, [IX]}n definuje možnosť výskytu tejto dvojice 1 až n-krát v DFI, pričom položka [IX]
môže ale nemusí (výskyt 0 alebo 1) byť súčasťou DFI. Inštrukcia je identifikovaná a vykonaná na
základe adresy obsiahnutej v časti DST dátového tokenu. Formát vstupujúceho DT je definovaný
zápisom:
DT ::= P T, V MVB {DST, [IX]}
kde
P
T
V
MVB
DST
- je priorita spracovania DT;
- typ hodnoty údaja;
- hodnota údaja;
- bázová adresa spájacieho vektora;
- cieľová adresa vstupujúceho DT.
Formát cieľovej adresy vstupujúceho DT je nasledujúci:
DST ::= MF IP ADR
kde
MF
IP
ADR
- je spájacia funkcia (Matching Function), s definovaným príznakom z množiny {M,
B}, M – spájanie (Matching) dvoch DT, B – prechod bez spájania (Bypass);
- je vstupný port, s definovanou hodnotou z množiny {L(eft), R(ight)};
- je adresa operátora, ktorý sa aktivuje vstupným DT.
V navrhnutej architektúre sa používa priame spájanie operandov. Je založené na alokovaní spájacieho
vektora podľa definície pamäte rámcov a aktivácie bloku kódu (procedúra, volanie funkcie).
Aktivovaný spájací vektor je reprezentovaný ako aktivačný záznam v pamäti rámcov. Aktuálna
bázová adresa sa označuje ako MVB = BACT. Formát spájacieho vektora v pamäti rámcov je
nasledovný:
FS[BACT + H + IX + 1] ::= RC, MVS BOLD DSTRET D{[BNEW]{D}}
kde
BACT
H
MVS
RC
BOLD
- je ukazovateľ na začiatok aktuálneho záznamu;
- počet slov rezervovaných pre hlavičku záznamu;
- veľkosť spájacieho vektora;
- počítadlo referencií;
- smerník na starý aktivačný záznam;
Acta Informatica Pragensia
89
DSTRET - cieľ návratu;
BNEW - bázová adresa nového aktivačného záznamu;
D
- operand definovaný hodnotou, príznak prítomnosti AF, typ hodnoty T.
K spájaniu DT dochádza pri spracovaní operandov vstupujúcich do N-vstupových operátorov. RC je
nastavené podľa veľkosti spájacieho vektora v čase kompilácie. Po realizácii spájania vstupných DT
sa RC dekrementuje. Ak RC = 0, tak sa spájací vektor v pamäti rámcov uvoľní.
Proces spájania spočíva v uložení hodnoty operanda v alokovanom priestore pamäti rámcov až do
okamihu, kedy sú prítomné všetky vstupné operandy operátora. V takomto prípade sa všetky operandy
načítajú a operátor sa vykoná, pretože je splnená podmienka vykonateľnosti.
4.2 SPÁJANIE OPERANDOV
Nositeľom informácie o stave výpočtu je DT, zobrazovaný na hranách uzlov DFG v tvare plného
krúžku. Jeho umiestnenie na vstupných hranách uzlov (operátorov) vyjadruje prítomnosť operandov a
definuje vykonateľnú inštrukciu. Umiestnenie DT na výstupnej hrane uzla vyjadruje prítomnosť
výsledku operácie definovanej operátorom vykonanej inštrukcie.
Vykonanie DF grafu sa uskutočňuje na základe pravidiel vykonateľnosti (inštrukcia je vykonateľná, ak
všetky jej operandy sú prístupné) a aktivácie (inštrukcia je aktivovaná, keď je vykonateľná a zdroje na
jej aktiváciu sú k dispozícii) inštrukcií programu DF.
Jeden z najvýznamnejších krokov, vychádzajúc z dynamického modelu DF, je priame spájanie
operandov [9]. Koncepcia priameho spájania operandov spočíva v eliminácii výpočtovo (časovo)
náročných procesov spojených s asociatívnym hľadaním operandov. V schéme priameho spájania
operandov v navrhovanej architektúre DF-KPI, položky spájacieho vektora v pamäti rámcov sa
alokujú dynamicky pre každý jeden token generovaný počas vykonania DFG. Aktuálne umiestnenie
spájacieho vektora v pamäti rámcov je určené počas kompilácie programu, kým bázová adresa pamäti
rámcov je určená po spustení programu DF. V schéme priameho spájania operandov, sa dá každý
výpočet popísať pomocou smerníka na inštrukciu (ADR) a smerníka na spájací vektor v pamäti
rámcov (MVB). Dvojica <MVB, ADR> je súčasťou hlavičky DT. Typickou akciou je hľadanie páru
DT v pamäti rámcov. Po príchode operanda do koordinačného procesora, sa podľa indexu spájania
zistí, či už je v pamäti rámcov prítomný spoluvstupujúci operand operátora. V prípade, že tam ešte nie
je, uloží sa operand v pamäti rámcov do spájacieho vektora určeného bázovou adresou operanda do
položky danej indexom IX.
Riadenie procesu spájania operandov na vstupe operátora ovplyvňuje proces spracovania
a generovania výsledku na jeho výstupe. Použitím prekladača programu do DFG s dopredným
prehľadávaním, ktorý umožňuje detegovať a eliminovať redundantné výpočty, zmeniť poradie
spracovania tokenov, riadenie je možné definovať ako prechod DT po hranách DFG (Obr. 6) medzi
operátorom „produkujúcim“ (P – producent) a operátorom „konzumujúcim“ (K - konzument) DT.
Tento proces je definovaný nasledujúcimi kombináciami prechodu DT po hranách medzi operátormi P
a K grafu toku dát, ktoré môžu byť jednovstupové, dvojvstupové, resp. riadiace.
90
Ádám
Obr. 6. Variácie konfigurácie P-operátorov a K-operátorov v procese spájania operandov
Pri spracovaní programu DF nám vznikajú nasledujúce typy spojení operátorov:
PJ/KJ – P jednovstupový, K jednovstupový (Obr. 6a). Je to konfigurácia ktorá nevyžaduje spájanie
operandov. Dátový token produkovaný producentom P je pohltený konzumentom K bez aktivácie
procesu spájania.
PJ/KD – P jednovstupový, K dvojvstupový (Obr.6a). Vyžaduje spájanie operandov v operátori K.
PD/KJ – P dvojvstupový, K jednovstupový (Obr.6b). K spájaniu dôjde v operátori P.
PD/uKJ – P dvojvstupový, u×K jednovstupový (Obr.6c). Po vykonaní inštrukcie definovanej
dvojvstupovým operátorom P, výsledok je distribuovaný medzi u jednostopovými operátormi K. K
spájaniu dôjde len v operátori P.
PD/vKD – P dvojvstupový, v× K dvojvstupový (Obr. 6d). Výsledok realizácie dvojstupového operátora
P, je rozoslaný na v dvojvstupový operátor K. Proces spájania je aktivovaný tak pre operátor P ako aj
pre operátor K.
PD/uKJvKD – P dvojvstupový, u×K jednovstupový, v×K dvojvstupový (Obr. 6e). Výsledok realizácie
dvojstupového operátora P, je rozoslaný na u jednovstupový a na v dvojvstupový operátor K. Proces
spájania je aktivovaný tak pre operátor P ako aj pre dvojvstupové operátory K.
Z uvedených možných kombinácií P a K operátorov proces riadenia spájania operandov bude opísaný
vzhľadom na konfiguráciu z obrázka 6a.
4.3 SPRACOVANIE OPERÁTOROV TYPU PS/CS A PS/CD
Koordinačný procesor (CP) predstavuje dynamický prúdový systém, ktorý umožňuje prechádzať
medzi stavmi (stupňami) prúdovej funkčnej jednotky (L – load, M – matching, C – copy F – fetch, O –
operate) v rôznom poradí. Prechody medzi stavmi na základe riadiaceho mikroprogramu pri riadení
procesu spájania operandov sú znázornené pomocou stavového diagramu (Obr. 7).
Acta Informatica Pragensia
91
Obr. 7. Stavový diagram spracovania dátových tokenov v architektúre DF-KPI
Na obrázku 7 majú vyznačené riadiace signály nasledujúci význam: CP_free – indikuje obsadenosť
alebo prístupnosť CP; GetDT – čítanie tokenu z DQU; PutDT – zápis tokenu do DQU; Init –
inicializácia prúdových stupňov.
CP je v stave LOAD, ak očakáva alebo sprístupňuje operand z DQU prostredníctvom riadiaceho
signálu GetDT alebo sprístupňuje operand z výstupného portu CP.DO koordinačného procesora, alebo
z výstupných portov CP.DO iných CP, prostredníctvom prepojovacej siete (IN). Signál Init slúži ku
počiatočnej inicializácií CP. V stave FETCH CP číta kód operácie definovaný príslušnou inštrukciou
(operátorom), ktorej adresa je súčasťou vstupujúceho DT. Príslušná inštrukcia je adresovaná v IS.
Potom je aktivovaný stupeň OPERATE. V stave OPERATE CP zabezpečí vykonanie inštrukcie podľa
VM CF. Výsledok vykonanej inštrukcie predstavuje vstupný operand inej inštrukcie a preto sa tento
výsledok posiela do spájacieho segmentu v ktorom sa vykonáva hľadanie partnerského operandu. Ak
pre vstupný operand sa nenájde partnerský operand, tak tento stav je zaznamenaný v príslušnom
spájacom vektore (MV) na pozícií, ktorá určuje dostupnosť operandu (Affiliation Flag; AF). V
opačnom prípade, ak partnerský operand je dostupný (jeho pozícia je zaznamenaná v MV a tá určuje
miesto uloženia v pamäti rámcov FS), tak sa načíta a spracujú sa v procesnej elementárnej jednotke
(PEU). Výsledok spracovanej operácie (čo je opäť vyjadrený vo forme DT) je preposlaný na vstup
ďalšieho operátora (, resp. na vstupy ďalších operátorov, pokiaľ bol označený viac ako jeden cieľový
operátor vo formáte vstupujúceho DT), pokiaľ koordinačný procesor CP nie je zaneprázdnený
(CP_free = 1, čo je ekvivalent zápisu isFree(LOAD) = 1) iným výpočtom. Ak je CP zaneprázdnený
(CP_Free = 0), výsledný DT je prostredníctvom prepojovacej siete odoslaný na spracovanie inému
nezaneprázdnenému CP. Ak nastane prípad, že všetky CP sú zaneprázdnené, potom výstupný operand
(výsledný DT) sa ukladá do dátovej fronty (DQU), čo sa aktivuje pomocou kontrolného signálu
PutDT. Ak výsledok párovania je neúspešný, operand je ukladaný do vybranej položky príslušného
spájacieho vektora, na základe kontrolného signálu spájacej funkcie MF=M. Stav OPERATE môže
byť rozložený na niekoľko dielčich krokov, keď výsledok operácie ukončovanej v stupni OPERATE
sa odosiela viac ako jednému nasledujúcemu operátoru. K vykonaniu týchto dielčích krokov sa
využíva stav COPY [9].
Mikroarchitektúra prúdovej funkčnej jednotky určenej na riadenie procesu spájania operandov pre typ
operátorov PJ/KJ a PJ/KD je znázornená na obrázku 8.
92
Ádám
Obr. 8. Prúdová jednotka pre spracovanie operátorov typu PJ/KJ a PJ/KD
Kvôli zvýšeniu priepustnosti a koeficientu vyťažiteľnosti prúdovej funkčnej jednotky medzi jej
jednotlivé stupne boli vložené medzistupňové pamäte typu FIFO s nasledujúcou špecifikáciou:


Medzi stupne L a F → register LFR
Medzi stupne F a O → register FOR
Mikroprogramové riadenie vykonania operátorov jednovýstupových operátorov DFG sa uskutočňuje
prostredníctvom mikrooperácií (Obr. 9) pre jednotlivé stupne multifunkčnej prúdovej jednotky (Obr.8)
koordinačného procesora.
Acta Informatica Pragensia
93
Obr. 9. Mikroprogram pre spracovanie operátorov typu PJ/KJ a PJ/KD
Funkcia isFree(X), testuje príznak obsadenosti segmentu X. Mikrooperácie, ktoré môžu byť paralelne
vykonané, sú uložené do jedného príkazového bloku vývojového diagramu. Inicializácia
koordinačného procesora sa uskutočňuje nastavením príznaku Init := 1 v štartovacej inštrukcii
programu DF. V prípade, že ďalší segment, segment FETCH, je voľný, načíta sa DT do medzipamäte
LFR (load/fetch register), uvoľní sa segment LOAD a aktivuje sa príjem ďalších DT do koordinačného
procesora. Na základe adresy LFR.DST.ADR, sa určí adresa DF operátora, ktorý sa načíta z
inštrukčnej pamäti do medzipamäte FOR (fetch/operate register). V prípade, že segment OPERATE je
94
Ádám
neaktívny (isFree(Operate) = 1), začne sa spracovanie operátora načítaného z FOR. Výsledok
spracovanej operácie (token) je dostupný pre spracovanie operandu v ďalšom operátore, pokiaľ CP nie
je zaneprázdnený iným výpočtom. Ak CP je zaneprázdnený, tak sa operátor pošle pomocou
prepojovacej siete na spracovanie inému nezaneprázdnenému CP. Ak všetky CP sú zaneprázdnené,
token sa ukladá do DQU.
5 ZÁVER
Snaha skonštruovať vysokovýkonné systémy vedie k neustálemu skúmaniu a využívaniu výhod tej
ktorej architektúry alebo k vývoju novej, u ktorej sa dopredu predpokladá zvýšená výkonnosť, aby
uspokojovala a dokonca aj prekračovala súčasné nároky na výkon. Jedným z východísk architektúry
počítača a princípu jeho činnosti je spôsob organizácie a riadenia výpočtového procesu - spracovania
informácií. Výpočtový proces je reprezentovaný postupnosťou stavov, k zmene ktorých dochádza v
dôsledku vykonávania inštrukcií programu, na základe ktorého sa výpočtový proces v počítači
organizuje. Organizácia výpočtového procesu predstavuje popis uskutočňovania týchto zmien
prostredníctvom definovania podmienok pre vykonávanie inštrukcií a ich dôsledkov. Z organizácie
výpočtového procesu vyplýva príslušný riadiaci mechanizmus. V článku uvedená architektúra je
založená na výpočtovom modeli „data flow“, v ktorom riadenie výpočtu je založené na spracovaní
toku dát. Základným prvkom navrhovaného DF-KPI architektúry je koordinačný procesor (CP), ktorý
je zodpovedný za riadenie a organizáciu vykonávania inštrukcií. Štruktúrna organizácia CP je
navrhnutá ako dynamický multifunkčný systém. Pri vykonávaní operácií môže CP prechádzať
rôznymi stavmi, v dôsledku čoho táto jednotka predstavuje dynamický prúdový systém. Opisovaná
architektúra DF-KPI je jedinečná v kontexte dynamických hybridných CF/DF architektúr nakoľko
spája prednosti zreťazených a hrubozrnných hybridných architektúr. Umožňuje vytvárať subgrafy
v DF programe pomocou techniky farbenia grafu, čím vzniká možnosť si zvoliť optimálnu granularitu
paralelizmu a zároveň umožňuje uplatniť techniku prúdového spracovania na úrovni subgrafov.
Uplatnenie princípov prúdového spracovania skomplikuje úlohu spájania operandov na vstupe
operátorov. S cieľom zefektívniť proces spájania operandov sa použila koncepcia priameho spájania
operandov. Priame spájanie operandov je založené na použití pamäti explicitných aktivačných značiek
(dedikovaná časť pamäte CP zvaná aktivačný rámec). Myšlienka zavedenia tejto pamäti vychádza
z poznania, že pri spracovaní subgrafov, ktoré sú súčasťou cyklov, resp. rekurzií, nie je nutné subgrafy
označiť za každým novou farbou. Počas prúdového spracovania prechod a poradie prechodu medzi
jednotlivými stavmi CP je podmienený typom spracovaného operátora pri interpretovaní prúdu
operandov. Z možných typov operátorov, článok uvádza mikroprogramové riadenie pre operátory typu
PJ/KJ a PJ/KD. Navrhnutý algoritmus je optimalizovaný na rýchlosť spracovania týchto operátorov.
Z algoritmu vyplýva, že jeden „inštrukčný cyklus“ spracovania týchto operátorov vyžaduje 8
strojových cyklov. Počet potrebných cyklov zároveň definuje počet fáz pri prúdovom spracovaní.
Z teórie prúdového spracovania vieme, že zrýchlenie spracovania inštrukcií (,resp. programových
entít) je ekvivalentné počtu zreťazených fáz, čo pre architektúru DF-KPI znamená 8-násobné
zrýchlenie voči sekvenčnému spracovaniu. Prezentovaný systém DF-KPI je ešte „len“ v štádiu vývoja,
preto toto číslo podľa môjho očakávania nie je ešte konečné.
Acta Informatica Pragensia
95
POĎAKOVANIE
Táto práca bola podporovaná Agentúrou na podporu výskumu a vývoja na základe
zmluvy č. APVV-0008-10“.
6 SEZNAM POUŽITÝCH ZDROJŮ
[1]
ARVIND – CULLER, D. E. Dataflow Architectures. In Annual Review of Computer Science,
Vol. 1, CA: Annual Reviews Inc. Palo Alto, 1986. pp. 225-253. ISBN 0-8243-3201-6.
[2]
CARLSTRÖM, J. – BODÉN , T. Synchronous Dataflow Architecture for Network Processors.
In Micro IEEE, Volume. 24, Issue 5, 2004. pp. 10-18. ISSN 0272-1732. Dostupné z:
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.229.1244&rep=rep1&type=pdf
[3]
DENNIS, J. B. Data-Flow Supercomputers. In Computer , Volume 13, Issue 11, 1980, pp. 4856.
[4]
FRANKLIN, A. D at al. Sub-10 nm Carbon Nanotube Transistor, In Nano Letters, Volume 12,
Issue 2, 2012. pp. 758-762.
[5]
GURD, J. R. – KIRKHAM, C. C. – WATSON, I. The Manchester Prototype Data-Flow
Computer. In Communication of the ACM, Volume 28, Number 1, 1985. pp. 34-52. Dostupné
z: http://courses.cs.washington.edu/courses/csep548/05sp/gurd-cacm85-prototype.pdf
[6]
GYÖRÖK, GY. – MAKÓ, M. – LAKNER, J. Combinatorics at Electronic Circuit Realization
in FPAA. In Acta Polytechnica Hungarica, Volume 6, No. 1, 2009. pp. 151-160. ISSN 17858860. . Dostupné z: http://www.uni-obuda.hu/journal/Gyorok_Mako_Lakner_17.pdf
[7]
GYÖRÖK, GY. The FPAA realization of analog predictive circuit. In 8th IEEE International
Symposium on Applied Machine Intelligence and Informatics: SAMI 2010, 2010. pp. 105-108.
ISBN 978-1-4244-6424-1.
[8]
JAMIL, T. – DESHMUKH R.G. Design of a Tokenless Architecture for Parallel
Computations Using Associative Dataflow Processor. In Proc. of Conf. on IEEE
SOUTHEASTCON ´96, Briging Together Education, Science and Technology, Tampa, FL,
USA 1996. Pp. 649 - 656. ISBN 0-7803-3088-9.
[9]
JELŠINA, M a kol. Architektonické riešenie počítačového systému data flow KPI. Košice:
Elfa s.r.o., 2004. ISBN 80-89066-86-0.
[10]
KOPJÁK J. – KOVÁCS, J. Event-driven control program models running on embedded
systems. In 6th IEEE International Symposium on Applied Computational Intelligence and
Informatics, Romania, 2011. pp. 323-326. ISBN 978-1-4244-9109-4.
[11]
KOPJÁK J. – KOVÁCS, J. Timed cooperative multitask for tiny real-time embedded systems.
In Proc. of IEEE 10th Jubilee International Symposium on Applied Machine Intelligence and
Informatics, SAMI 2012, Slovakia, 2012. pp. 377-382. ISBN 978-145770197-9.
[12]
MADOŠ B. – BALÁŽ, Data FLow Graph Mapping Techniques of Computer Architecture
with Data Driven Computation Model. In Proc. of IEEE 9th International Symposium on
Applied Machine Intelligence and Informatics, SAMI 2011, Slovakia, 2011. pp. 355-359.
ISBN 978-1-4244-7428-8.
96
Ádám
[13]
SIMA, D. – FONTAIN, T. – KACSUK, P. Korszerű számítógép-architektúrák tervezéstérmegközelítésben. Szak Kiadó Kft., Bicske, 1998. ISBN 963-9131-09-1.
[14]
SWANSON, S. – MICHELSON, K. – SCHWERIN, A. – OSKIN, M.: WaveScalar. In Proc.
of the 36th International Symposium on Microarchitecture, 2003. pp. 291-302, ISBN 0-76952043-X.
[15]
VERDOSCIA, B. – VACARRO, R. ALFA. A Static Data Flow Architecture. In Proceedings
of Fourth Symposium on the Frontiers of Massively Parallel Computation, McLean, VA,
USA, 1992. pp. 318-325. ISBN 0-8186-2772-7.
[16]
VOKOROKOS, L. Princípy architektúr počítačov riadených tokom údajov. Košice:
Copycenter, spol. s.r.o., 2002. ISBN 80-7099-824-5.
[17]
WINTZLAW, D. – GRIFFIN, P. – HOFFMANN, H. at al. On-Chip Interconnection
Architecture of the Tile Processor. In IEEE Micro, vol. 27, no. 5, 2007. pp. 15-31.
Acta Informatica Pragensia
2(2), 2013, 97–111, DOI: 10.18267/j.aip.27
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Inovativní přístup k rozvoji Informačního managementu
magisterského oboru studia na VŠE v Praze
Vlasta Střížová1, Zdeněk Smutný1
1
Katedra systémové analýzy, Fakulta informatiky a statistiky,
Vysoká škola ekonomická v Praze
nám. W. Churchilla 4, 130 67 Praha 3
[email protected]
Abstrakt: Rostoucí globalizace, konkurence, ale i ekonomická situace u nás i ve
světě, silný rozvoj technologií a rychlé změny v organizacích jsou jen malým
výčtem důležitých faktorů, proč se stávají inovativní myšlenky a přístupy stále
důležitější i na univerzitách. Cílem tohoto příspěvku je přispět k inovaci
magisterského oboru studia Informační management na VŠE v Praze. Příspěvek
vychází z teoretických přístupů k pojetí informačního managementu a zároveň
mapuje a porovnává současný stav a přístupy vybraných univerzit k magisterskému
studijnímu oboru Informační management. Doporučení vycházejí zejména z
průzkumu u absolventů oboru Informačního managementu z Fakulty informatiky a
statistiky VŠE v Praze, kteří jsou delší dobu zaměstnaní v praxi.
Klíčová slova: inovace, informační management, magisterský obor studia
Title: An innovative approach to the development of the master study of the
Information management at the University of Economics in Prague
Abstract: Increasing globalization, competition, but also the economic situation in
our country and in the world, a powerful development of technology and rapid
changes in organizations are just a few of the important factors why an innovative
ideas and approaches become increasingly important for the universities. The aim
of this paper is to contribute to the innovation of the master study of the
Information management (field of study) in the University of Economics in Prague.
The presentation is based on the theoretical approaches to the concept of the
information management and at the same time it maps and compares the current
situation and approaches of the selected universities to their master study in the
Information management. Recommendations are primarily based on the survey of
the graduates of the Information management from the Faculty of informatics and
statistics, University of Economics in Prague, who have been employed in practice
for longer time.
Keywords: Innovation, Information management, Master's field of study
98
Střížová, Smutný
1 ÚVOD
Vyjdeme-li z mezinárodních zkušeností, není inovace výhradně výsadou podniků výroby a služeb, ale
je i důležitou součástí práce univerzit. Pohled OECD [13] na inovaci lze aplikovat i na univerzity a to
umožňuje chápat inovaci v širokém slova smyslu jako zavedení zcela nového nebo významně
zlepšeného produktu nebo služby, procesu, marketingu, organizačních postupů, organizace práce a
externích vztahů. Může být založena na jedné významné změně nebo celé řadě malých postupných
změn.
Výzvy, příležitosti, ale i ohrožení, které před univerzitami stojí, jsou dány řadou faktorů. Jedná se
například o rostoucí konkurenci, měnící se požadavky trhu pracovních sil, demografické faktory,
zásahy státu do vzdělávací soustavy, požadavky zaměstnavatelů, možnost vzniku „nových trhů“, tlak
na snižování nákladů – resp. investic ze strany státu do vzdělávání, apod.
S tím koresponduje také aktuální zpráva Ministerstva školství, mládeže a tělovýchovy o stavu
vysokého školství v ČR [12], kde se odráží současný stav včetně existence 74 vysokých (26 veřejných,
2 státní a 46 soukromých). V následujících letech bude také klesat populace věkových ročníků 19–20,
přičemž se bude zvyšovat podíl starších ročníků, které budou nově začínat studium (tzv. odložená
poptávka po studiu). [9] V takto konkurenčním prostředí jsou inovativní přístupy jednotlivých
vysokých škol důležité pro jejich budoucí rozvoj potažmo samotnou existenci.
Vedle takto konkurenčního prostředí je důležitým faktorem ovlivňující úspěšnost či prestiž
jednotlivých oborů také uplatnění jejich absolventů. Platí to i pro absolventy informaticky
orientovaných oborů. Zásadním kritériem při uplatnění absolventů v komerčních firmách jsou jejich
znalosti nabyté při studiu. V oblasti ICT je tento stav v České republice neutěšený, neboť „většina
bakalářů (přibližně 85 %) nemá znalosti potřebné pro vstup do praxe jakožto kvalifikovaného
pracovníka bez nutnosti dalšího finančně náročného tréninku. Na magisterském stupni vzdělání se
jedná přibližně o 40 % absolvent.“ [4] Z těchto důvodů je potřeba kontinuální sebereflexe vysokých
škol v oblasti vzdělávání a následného uplatňování ICT specialistů v praxi. K vytvoření strategicky
zaměřeného programu budování inovační výkonnosti mohou na univerzitách vést následující kroky:
-
Realisticky vyhodnotit současný stav (interní pracovníci, podniky a organizace – „odběratelé“
absolventů, absolventi)
Analyzovat požadavky (vzniklé z vyhodnocení a současných trendů v ČR i v zahraničí)
Plánovat změnu s dostatečným předstihem
Připravit změnu
Předložit změnu ke schválení (vědecká rada fakulty a Akreditační komise vlády ČR)
Zavést změnu.
Z hlediska typu inovací se může jednat podle [1] a [13] o inovace produktové, procesní, marketingové
a organizační. Při jejich užití v inovaci studijního oboru je možné jednotlivé typy inovací
charakterizovat následovně:
Produktová inovace – inovace studijního oboru, tzn. skladby a obsahu předmětů, jejichž
charakteristiky nebo možnosti využití jsou zcela nové nebo výrazně zlepšené.
Acta Informatica Pragensia
99
Procesní inovace – zavedení nové metody výuky nebo distribuce znalostí a dovedností, tedy o změny
postupů, využití technologií, apod.
Marketingová inovace – propagace oboru využitím dosud nevyužitých nových médií nebo techniky s
důrazem na lepší naplnění potřeb „klientů“ - absolventů středních škol doma i v zahraničí a
potenciálních zaměstnavatelů nebo oslovení zahraničních studentů apod.
Organizační inovace – zavedení nové organizační metody do postupů, pracovních míst, vnějších
vztahů – např. nový přístup k získávání znalostí, intenzivní spolupráce na studentských projektech s
jinými (domácími i zahraničními) univerzitami, spolupráce na řešení projektů s konkrétními podniky
apod.
Cílem inovativních přístupů k magisterskému studijnímu oboru Informační management je mimo jiné
zvýšení jeho „image“ a přínosu pro jeho uživatele. Výsledek je ovlivněn jasnou komunikací cílů a
marketingem, pružností ve smyslu rychlé reakce na novinky a změny, zvyšováním produktivity
výstupů např. v těsnějším propojení „teorie a praxe“, využitím nových technologií a sociálních sítí ve
výuce.
Z pohledu členění inovací na přírůstkové, radikální a přelomové [7, str. 24–27] (členění podle novosti
výsledků) se v souvislosti s reakreditací studijního oboru jedná zejména o první typ inovace, tedy
přírůstkovou inovaci, ve které dochází k modifikaci, zdokonalení, zjednodušení, konsolidaci nebo
posílení stávajících předmětů, procesů, či organizačních nebo marketingových metod.
Také zahraniční univerzity se daným tématem intenzivně zabývají. Jako příklad je zvolena
renomovaná škola Harvard Business School, která realizovala výzkum výukových programů a metod.
Výzkum [3] přinesl závěr, že je třeba zaměřit pozornost nejen na výuku v učebnách, ale na získávání
skutečných zkušeností vyžadujících jednání a větší spolupráci. Absolventi budou vedeni k převodu
znalostí do schopnosti „umět udělat“ – tedy aplikovat je. Kromě rekonstrukce vzdělávacích programů
byla zřízena také nová inovační laboratoř, kdy studenti pracují po určitou dobu v různých destinacích
v různých organizacích a následně v týmech řeší projekty nových produktů nebo služeb pro
organizace.
2 POUŽITÉ VÝZKUMNÉ METODY
V tomto příspěvku nejdříve využíváme komparační přístup z mezinárodního hlediska. Právě nutnost
mezinárodní konkurenceschopnosti českého vysokého školství nás přivedla ke komparaci tohoto
oboru se zahraničními univerzitami. Srovnáváme pojetí informačního managementu na VŠE v Praze s
dvěma vybranými univerzitami v USA, kde má tento obor dlouholetou tradici. Univerzity v USA jsme
vybraly z důvodu sledování trendů v této oblasti, neboť lze oprávněně předpokládat, že právě zde se
budou odrážet aktuální globální nároky na absolventy oboru informační management. Myslíme si, že
právě tento srovnávací vhled do této problematiky v současnosti chybí, neboť příspěvky směřované na
nároky firem a uplatnitelnost absolventů ICT oborů v ČR jsou dnes k dispozici (např. zmíněné
příspěvky [4], [5] a [11]).
100
Střížová, Smutný
Při níže uvedené komparaci jsme využili studijní plány jednotlivých oborů včetně doprovodných
textů, abychom získali širší pohled na výsledného absolventa jednotlivých univerzit a mohli zjištěné
rozdíly dále diskutovat. Demonstrujeme zde různé přístupy k naplňování kompetencí absolventů
v USA a EU, což úzce souvisí i se samotným pojetím informačního managementu. Různé přístupy
k němu definujeme ve třetí kapitole. Následuje dotazníkový průzkum mezi absolventy našeho oboru,
kteří ukončili studium v letech 2006–2012. Na základě takto realizovaného kvantitativního výzkumu a
získaných dat jsme provedli jejich vyhodnocení a dále jsme je interpretovali a představili v širších
souvislostech v následné diskuzi směrem k inovativnímu přístupu k danému oboru.
3 POJETÍ A CHARAKTERISTIKY INFORMAČNÍHO MANAGEMENTU
Informační management (nebo také řízení informací), využívá podle Wilsona [18] manažerské
principy k získávání, organizaci, řízení, distribuci a používání informací za účelem efektivního
fungování organizací všech typů.
Podle Vymětala [16] lze informační management definovat jako transdisciplinárně pojatý soubor
poznatků, metod a doporučení systémových přístupů a informatiky, které pomáhají účelně realizovat
informační procesy manažerského myšlení a k dosažení podnikatelských cílů organizace.
Business Dictionary [17] definuje informační management jako aplikaci technik řízení ke sběru
informací, jejich komunikaci uvnitř a vně organizace a jejich zpracování tak, aby manažeři mohli
rychleji a lépe rozhodovat.
Informační management je podle PC Magazínu [19] disciplína, která analyzuje informace jako
organizační zdroj. Pokrývá definování, užití, hodnotu a distribuci dat/ informací v organizaci, ať jsou
zpracovány pomocí počítačů či nikoli. Ohodnocuje druhy dat/informací organizace pro jejich efektivní
fungování a pokrok.
Z výše uvedených charakteristik je patrné, že se v pojetí informačního managementu setkáváme s
nejednoznačností výkladu. Nejednoznačnost výkladu podle Vodáčka a Rosického [15] vyplývá
zejména z nejednoznačností vymezení pojmu management a pojmu informace a permanentně se
vyvíjejícím chápáním pojmu samého. Z tohoto důvodu budeme dále vycházet z aktuálního chápání
informačního managementu dle Doucka [6] a budeme jej dále porovnávat s jeho pojetím na vybraných
univerzitách v USA v následující části.
3.1 POJETÍ INFORMAČNÍHO MANAGEMENTU NA VYBRANÝCH
UNIVERZITÁCH
Katedra systémové analýzy Fakulty informatiky a statistiky VŠE v Praze chápe Informační
management jako obor, který pokrývá všechny aspekty práce s informacemi pro zvýšení účinnosti
(efektivity) organizací v různých zaměstnaneckých sektorech. Informační management v pojetí
katedry systémové analýzy je chápán v nejširším pojetí „kdy systémové přístupy umožňují zkoumat
aspekty řízení podpory hlavních a vedlejších procesů podniků v mnoha souvislostech a s přihlédnutím
k co největšímu počtu jejich vzájemných vazeb a se sledováním dalších vazeb směrem k okolí
Acta Informatica Pragensia
101
podniku. Jedná se tedy o pojetí informačního managementu s vysokou komplexitou zkoumaných
jevů“ [6, str. 16].
Cílem studijního oboru je připravit studenty jako informační profesionály, tzn. vybavit je schopnostmi
potřebnými pro všestranné manažery, schopné práce v různých typech organizací a vybavené
dovednostmi v informačních technologiích se zvláštním zaměřením na podnikové informační systémy.
Obor je proto koncipován tak, aby připravil absolventy pro řadu rolí, zahrnujících řízení podnikových
informací a navazující služby. Za nezbytné znalosti, schopnosti a dovednosti, zúročené
v odpovědnostech informačních manažerů lze dle katedry systémové analýzy Fakulty informatiky a
statistiky VŠE v Praze považovat zejména: informační strategie a formulování politiky, analýza
a design architektury informačního systému, řízení informačních zdrojů, fungování organizace
z manažerského i provozního pohledu, efektivní komunikace, průběh rozhodování a metody přípravy
a hodnocení rozhodnutí, kritické a kreativní myšlení, vedení lidí a týmů, etika, metody a techniky
modelování a analýzy požadavků komplexních systémů a jejich aplikace, projektový management
(včetně zhodnocení plánování, zabezpečení zdroji, monitorování vývoje a sledování pokroku, kvality a
řízení rizik), inovace různých typů, příležitosti a hrozby plynoucí z okolí organizace, řízení změn
v organizaci, techniky pro analýzu informačních potřeb, jejich užití a zajištění, metody rozhodování
a kontroly.
Univerzita v Oregonu [2] chápe studium na oboru Informační management jako propojení čtyř
klíčových komponentů: Informační management (zaměření na informační zdroje, komunikaci
a nástroje řízení), Business management (zaměřuje se na aspekty strategií řízení organizací
a organizační struktury), Informační design (se zaměřením na identifikaci, organizaci a prezentaci
informací), Aplikovaný výzkum (je zacílen na rozvoj psaní a použití výzkumných metod v souvislosti
se závěrečnou diplomovou prací).
Univerzita ve Washingtonu [8] v oboru Informačního managementu formuje vedoucí pracovníky, kteří
budou vědět, jak řídit informace a tvořit informační systémy, aby uspokojili organizační potřeby a byli
schopni měnit informace a technologické zdroje dneška do zdrojů změny, růstu a inovací. Absolventi
mají zásadní analytické a řídící dovednosti nutné zejména pro vedení komplexních informačních
projektů.
Z výše uvedených charakteristik je patrné, že přístup k oboru Informačního managementu je (alespoň
na zkoumaných univerzitách) velmi podobný a zahrnuje jak oblast informací a práci s nimi, tak různé
aspekty řízení a fungování organizací, informačních systémů a projektového řízení. Lze tedy
konstatovat, že pojetí magisterského studijního oboru Informační management na VŠE v Praze je
adekvátní pojetí v zahraničí.
3.2 POROVNÁNÍ SKLADBY PŘEDMĚTŮ VYUČOVANÝCH
NA VYBRANÝCH UNIVERZITÁCH
Vysoká škola ekonomická v Praze, obor Informační management magisterského studia má ve
studijním programu zařazené následující povinné a oborově volitelné předměty, viz Tabulka 1.
Současné studium je určeno převážně pro následující manažerské profese: Manažer informatiky ve
společnosti (CIO), Manažer rizik, Projektový manažer, Obchodní manažer a další cílové profese:
Business analytik, Business konzultant, Auditor informačních systémů.
102
Střížová, Smutný
Povinné předměty
Informační management
Systémová dynamika
Organizace a informace
Systémy pro podporu
rozhodování
Optimalizace
podnikových procesů
Řízení projektů
Diplomový seminář
Oborově volitelné předměty
Audit informačních systémů
Prezentace a komunikace
informací
Informatizace: lidé, technologie
a globalizace
Úvod do teorie systémů
Teorie a techniky procesního modelování
Informace a média
Nová média a sociální sítě
Trendy v informačním managementu II
Trendy v informačním
managementu I
Řízení informačních systémů
(anglicky)
Úvod do řízení projektů
Trendy IS/ICT
Enterprise Computing: servisně orientované
standardy a architektury
Počítačové a informatické právo
Tabulka 1: Povinné a oborově volitelné předměty oboru Informační management na VŠE v Praze
Univerzita ve Washingtonu, vymezuje v magisterském studijním oboru Informační management jako
hlavní části: strategické plánování, design systémů, vedení organizací, informační management,
informační technologie. V Tabulce 2 jsou uvedeny hlavní kurzy spadající do oblasti informační,
oblasti managementu a oblasti propojující znalosti.
Hlavní kurzy „Informační“
potřebné pro analýzu a
organizování informací
Metody designu pro interakci a
systémy
Informační systémy a
modelování pomocí XML
Koncepční design databáze
Hlavní kurzy „Managementu“
základ dovedností v užívání
informací jako nástroje řízení
v organizacích
Politiky, právo a etika
v informačním managementu
Integrační kurzy – propojující
znalosti
Podstata informačního
managementu
Řízení informací v organizacích
Systémy vyhledávání informací
Informace a řízení změny
Terénní výzkum v informačním
managementu (praktické
aplikace konceptů v praxi)
Plánování projektu
Podílníci (stakeholders),
informace a technologie
Tabulka 2: Kurzy hlavních oblastí studijního oboru informační management
na Univerzitě ve Washingtonu.
Univerzita v Oregonu, uvádí pro obor magisterského studia Informační management čtyři klíčové
oblasti. Předměty zařazené v jednotlivých oblastech jsou uvedeny v Tabulce 3.
Klíčová oblast
Informační management
Klíčová oblast
Business Management
Řízení dat a komunikace
Řízení organizací
Klíčová oblast
Informační Design
Informační design a
komunikace
Informační systémy a
management
Manažerské účetnictví
pro rozhodování
Trendy v informačním
designu
Projektový management
Marketing, management
a plánování
Řízení informačních
aktiv
Klíčová oblast
Aplikovaný výzkum
Metody výzkumu
Závěrečná práce –
podpora při výběru a
zpracování
výzkumných témat
závěrečných prací
Acta Informatica Pragensia
103
Volitelné předměty: Podnikové plánování, Modelování dat, Podniková etika, Podnik 2.0 a Social
computing, Informační architektura, Informační technologie a Etika, Význam finančních dat, Řízení
bezpečnosti informačních technologií a informačních systémů, Proces versus praxe (jak věci dělat), Search
marketing, Systémové analýzy, Udržitelný business, Semantický web
Tabulka 3: Kurzy klíčových oblastí magisterského studijního oboru Informační management
na Univerzitě v Oregonu.
Struktura předmětů je na výše uvedených univerzitách obdobná a studijní obor na VŠE v Praze je z
velké části pokrývá, i když pod jinými názvy. Za vhodné možnosti rozšíření nabídky zejména v
oborově volitelných kurzech lze uvažovat např. o manažerském účetnictví pro rozhodování, marketing
management a plánování, význam finančních dat nebo některé „informační“ kurzy Univerzity ve
Washingtonu.
4 VÝZKUM U ABSOLVENTŮ MAGISTERSKÉHO
OBORU INFORMAČNÍ MANAGEMENT NA VŠE
STUDIJNÍHO
Výzkum probíhal v období listopad – prosinec 2012. Osloveno bylo celkem 220 absolventů studijního
oboru Informační management z let 2006–2012. Výzkumu se zúčastnilo 74 z oslovených absolventů,
což činí 33%. Jsme si vědomi možného zkreslení výsledku průzkumu daného vzorkem respondentů,
přesto to pokládáme za hodnotnou sondu mezi absolventy. Cílem výzkumu bylo přispět k inovaci
studijního oboru, která povede k růstu jeho prestiže v domácím i mezinárodním prostředí, k vyšší
kvalitě absolvujících studentů a k růstu poptávky po nich na trhu práce. Zároveň tento výzkum odráží
aktuální potřeby prostředí, ve kterém se absolventi oboru informační management nacházejí. Katedra
systémové analýzy proto oslovila, v souladu s inovačními trendy obecně i na zahraničních
univerzitách, skupinu absolventů oboru pracujících na různých pracovních pozicích v praxi, pro
zjištění jejich názorů na:
-
přínos absolvovaných studijních předmětů pro osobní rozvoj a jejich praktické uplatnění a
možnosti jejich zlepšení/úpravy,
možné směry, kterými by se měl obor podle požadavků praxe dále rozvíjet, aby byl přínosem
nejen pro znalosti a dovednosti absolventů, ale i jejich potenciální zaměstnavatele.
Povinné předměty hodnotili absolventi v první části dotazníku dle přínosnosti pro vlastní osobní
rozvoj. Hodnocení zahrnovalo aspekty rozvoje kritického myšlení, analytického myšleni, celkového
rozhledu, hodnotících schopností, nadhledu nad problematikou, uvědomění si širších souvislostí
zkoumaných jevů, různých přístupů k problematice, práce s informacemi, vyvozování závěrů, apod.
Při hodnocení mohli absolventi zvolit u jednotlivých předmětů na škále 1 (nejméně přínosné) až 10
(nejvíce přínosné). Celkové výsledky jednotlivých předmětů jsou pak průměrem všech hodnocení
daného předmětu. Výsledky jsou shrnuty v prvním grafu.
104
Střížová, Smutný
Graf 1: Hodnocení přínosu povinných předmětů pro osobní rozvoj.
Graf 2: Hodnocení přínosu povinných předmětů pro praxi.
Na stejném základě hodnotili absolventi povinné předměty dle přínosnosti pro uplatnění v praxi, viz
Graf 2. Volitelné předměty, absolvované během studia, hodnotili absolventi, dle jejich přínosnosti pro
osobní rozvoj a uplatnění v praxi, viz Graf 3.
Acta Informatica Pragensia
105
Graf 3: Hodnocení přínosu volitelných předmětů pro osobní rozvoj a praxi.
Souhrn výstupů z ankety k povinným a oborově volitelným předmětům magisterského studijního
oboru Informační management na zařazení předmětů do portfolia povinných předmětů i oborově
volitelných předmětů vychází z návrhů absolventů na základě jejich vlastních zkušeností a požadavků
praxe.
Většina absolventů považuje současný mix předmětů za poměrně vyvážený. Kladně hodnotí spojení
kritického myšlení a nadhledu nad věcí, chápání informací, znalostí a současného světa, dále
organizační pohled z praxe a zaměření na „soft skills“, zkušenosti získávané s vedením týmu a
spolupráci na reálných příkladech v současných podmínkách. K velice přínosným řadí zaměření
předmětů: projektové řízení, optimalizace podnikových procesů a informační management.
Absolventi, kteří v praxi realizují velmi komplexní procesy, považovali hodnocení předmětů za
obtížné. Důvodem bylo, že tito absolventi považovali každý předmět za přínosný, protože si z každého
vybrali to, co je pro ně využitelné – odnesli si např. určitá teoretická východiska, která uplatňují v
praxi, zatímco jiné části pro ně na dané pozici přínos neměly.
Dle zkušeností absolventů patří k nezbytnému penzu znalostí a dovedností informačního manažera:
-
rozvoj kritického, analytického a systémového myšlení,
zkoumání problémů z různých úhlů pohledu,
znalost managementu a fungování organizace, včetně procesů,
odhalování, hodnocení a uspokojování informační potřeby v organizaci i v jejích částech,
týmová práce, vedení týmu a práce v týmech,
týmové projekty k řešení reálných problémů s intenzívnějším propojením s praxí – resp. se
zapojením reálných firemních partnerů,
teorie a praxe informačních systémů a důsledky informatizace.
Doporučení, která považovali absolventi za rozhodující pro rozvoj oboru jako celku:
106
Střížová, Smutný
-
-
-
-
Provázat jednotlivé předměty – logická a praktická návaznost seminářů na teoretické části
předmětu. Zvětšit počet hodin seminářů – více hodin zaměřených na procvičování považují za
přínosnější.
Zaměřit semináře více na praxi a praktické příklady, neboť společnosti chtějí zaměstnávat
absolventa, který má představu o tom, jak podnik funguje ve skutečnosti v praxi, orientuje se v
tom, co je to lidský faktor, jakým způsobem ho řídit, pracovat s ním a vést ho i řešit problémy.
Více předmětů (ať povinných, nebo volitelných), které by byly praktičtěji zaměřené na
propojení informačních technologií a podnikání (ekonomické aspekty, atd.).
Za největší překážku „na trhu práce“ viděli někteří z nich absenci reálné praxe a doporučují
proto rozšířit výuku o praktickou část – stáž ve firmě. Návrh zněl na zařazení
jednosemestrálního programu (např. od září, kdy by firmy mohly studenta zaškolit a v průběhu
semestru by již probíhala praxe), který by umožnil lepší propojení oboru s praxí a studentům
by dal možnost poznat obor i z reálného života (alternativa k nabídkám firem v rámci
zpracování diplomových prací).
Posílit spolupráci se zahraničními vysokými školami (zahraniční výměnné pobyty, společné
projekty i ve výuce).
Doporučení k předmětům se týkala zejména navýšení studia o praktickou součást řešení reálných
(nikoli imaginárních) projektů a doplnění nových trendů a některých metodik.
Byl také navržen nový model pro vedení diplomového semináře – na začátku prvního semestru
prvního ročníku společné 4 hodiny a dále zavést pouze povinnou konzultaci s vedoucím práce s tím,
že do konce semestru student odevzdá min. 40 % diplomové práce.
Absolventi dále doporučili zařadit do magisterského studia i začátečnický kurz anglického jazyka pro
ty, kteří dosud studovali jiný jazyk. Za ideální považují prosadit pokračování studia jazyka i na
magisterském studiu. Dva povinné předměty doporučují studovat v cizím jazyce s tím, že jeden z nich
by měl vyučovat zahraniční lektor.
K udržení v portfoliu předmětů oboru doporučili absolventi na základě vlastních zkušeností a
požadavků praxe zejména předměty: optimalizace podnikových procesů, informační management,
organizace a informace, komunikace a prezentace. K dalším konkrétním návrhům patřilo zařadit nebo
rozšířit předměty o: řízení projektu informačních systémů (jak v praxi používat MS Project), seminář
projektová dokumentace (ucelená dokumentace projektu informačního systému), teorie a techniky
procesního modelování, právo a legislativa v informačních technologiích, dolování z dat a datové
sklady, ochrana informací a znalostí, inovační proces a inovační strategie, podnikovou architekturu.
Návrhy absolventů ke skupině oborově volitelných a případně volitelných předmětů se týkaly zejména
možnosti rozšíření portfolia těchto předmětů, aby si student mohl vybírat dle určitého/skutečného
zájmu o předměty, které dotvoří jeho představu o budoucí profesionální orientaci.
Za vhodné považovali někteří absolventi zařazení následujících předmětů: ekonomika informačních
systémů, analýza trhu informačních a komunikačních technologií, transformace podnikání v éře
software jako služby, podpora byznysu informačních technologií a role manažera informatiky ve
společnosti (CIO), testování softwarových aplikací, systémové myšlení v podnikové praxi,
dokumentace projektu informačního systému, objektově orientovaná analýza a design nebo zavádění
procesního řízení v praxi nebo některé technicky orientované předměty. Za zajímavý návrh lze
Acta Informatica Pragensia
107
považovat návrh na zařazení volitelných jazykových kurzů zaměřených na oborovou terminologii v
cizím jazyce.
4.1 VEDLEJŠÍ SPECIALIZACE
Specifikum VŠE v Praze v českém kontextu jsou vedlejší specializace, kdy si student v navazujícím
magisterském studiu může vybrat na jakékoli fakultě VŠE v Praze další specializaci ke své hlavní
specializaci. Jedná se o nedílnou součást magisterského studia informačního managementu a slouží
k další profilaci absolventa. V současnosti je nabízeno téměř šedesát vedlejších specializací [14].
Vedlejší specializace se zakončuje státní zkouškou z vedlejší specializace, která se skládá po
absolvování příslušných předmětů. Z celkového počtu 120 ECTS kreditů (evropský systém
přenosných kreditů) pro celé navazující studium je pro ni vyčleněno 30 kreditů. Takto strukturované
studium je inspirováno zahraničními univerzitami především v USA, kupříkladu uveďme
Massachusetts Institute of Technology (MIT) nebo University of California (UCLA), které umožňuje
studentovi lepší profilaci vzhledem ke svému současnému či budoucímu zaměstnání včetně
interdisciplinárního rozhledu, což může být považováno jako konkurenční výhoda oproti absolventům
z jiných vysokých škol v České a Slovenské republice. Právě zaměření studia ICT na „soft skills“ je
důležité pro jejich následné uplatnění v praxi [11], přičemž možnost volby vedlejší specializace
Z výsledků výzkumu vyplývá, že většina absolventů vystudovala některou z následujících vedlejších
specializací: Manažerskou sociologii a psychologii, Manažera kvality, Ekonomickou žurnalistiku,
Retail Business nebo Personální management – podrobněji viz Graf 4, přičemž první zmíněná byla
také nejlépe hodnocena z hlediska přínosu pro osobní rozvoj či uplatnění v praxi. Naopak nejhůře byla
z uvedených hodnocena Ekonomická žurnalistika.
108
Střížová, Smutný
Graf 4: Rozložení absolutoria vedlejších specializací.
Absolventi měli možnost při zpětném pohledu doporučit současným studentům vhodnou vedlejší
specializaci, vzhledem k zaměření hlavní specializaci a budoucího uplatnění v praxi. Obecně
doporučovali vedlejší specializace zaměřené na „soft skills“ a pochopení fungování celé organizace, s
tím korespondují také nejčastěji doporučované vedlejší specializace: Manažerská sociologie a
psychologie a Manažer kvality, který poskytuje pohled na organizaci z hlediska standardů ISO 9001,
ISO 14 001 a OHSAS 18 001.
4.2 UPLATNĚNÍ ABSOLVENTŮ Z ROZPĚTÍ LET 2006 AŽ 2012
Mnoho studentů informatiky na VŠE v Praze pracuje již při studiu, což jim dovoluje především
možnost sestavit si plně rozvrh podle svých představ a časových možností. Již během studia tedy
nastupují studenti na junior pozice, případně do administrativy nebo podpory IT.
Acta Informatica Pragensia
109
Graf 5: Současné pracovní pozice absolventů (prosinec 2012).
Když jsme srovnali předchozí pracovní pozice, které absolventi zastávali dříve, s aktuálními
pracovními pozicemi (viz Graf 5) absolventů, tak jsme zjistili, že přibyly následující: Manažer
informatiky (CIO), Manažer rizik, Výkonný ředitel (CEO), Architekt IS. Tedy pozice, u kterých se
očekává již zkušenost v dané oblasti, což je pozitivní posun z hlediska možností osobního růstu
absolventů oboru Informační management.
Z hlediska současných pracovních pozic dominuje Business analytik, Business konzultant a
Projektový manažer, které odpovídají spíše sekundárním cílovým profesím. Primární profese jako
CIO, Manažer rizik a Obchodní manažer jsou již zastoupeny méně. To lze částečně zdůvodnit nutností
delší praxe na tyto pozice, jak bylo zmíněno již výše.
Uplatnění našich absolventů v oblasti jejich vzdělání, lze hodnotit jako velmi dobré, včetně posunu na
odpovědnější pozice s přibývající praxí. Z hlediska budoucího vývoje poptávky po absolventech
informaticky orientovaných oborů je trendem postupný růst, naopak počty absolventů budou v této
oblasti stagnovat a to nejenom v důsledku (pod)financování vysokého školství, ale též nedostatkem
odborných vyučujících, kteří by se podíleli na výuce budoucích generací. [5]
5 ZÁVĚR
Silný informační management je podmínkou nutnou pro fungování každé organizace a nezbytné je,
aby ho vykonávali „informační experti“. To autory vede k závěru, že magisterský studijní obor s tímto
zaměřením je oborem perspektivním. Za jeho významnou přednost lze považovat vedení studentů ke
komplexnosti pohledů na práci s informacemi v organizaci a její řízení. Význam sehrává také
interdisciplinární přístup ke vzdělávání studentů. To jsou také nejčastěji jmenované inovace v oblasti
vzdělávání, které by se měly objevovat v celém školství v důsledku tzv. Globalizace 3.0 po roce 2000
[10].
110
Střížová, Smutný
Vždy je však možné dělat věci lépe. V souladu s touto tezí byl realizován i výzkum, který lze
považovat za vklad k inovaci studijního oboru. Jeho přínos spatřují autoři zejména v naplnění inovace
produktové a organizační. Produktová inovace je zaměřena na skladbu a obsah předmětů, jejichž
charakteristiky nebo možnosti využití jsou zcela nové nebo výrazně zlepšené, organizační inovace
znamená např. nový přístup k získávání znalostí, intenzivní spolupráce na studentských projektech s
jinými (domácími i zahraničními) univerzitami, spolupráce na řešení projektů s konkrétními podniky,
apod. Z pohledu těchto dvou typů inovací se doporučení týkají zejména zajištění provázanosti jinak
logického rámce předmětů, intenzivní přístup k procvičování teoretických přístupů na reálných
praktických příkladech, zařazení semestrálního programu orientovaného na práci v praxi, posílení
spolupráce se zahraničními univerzitami ve výměnných pobytech a společných projektech ve výuce.
Tato doporučení se jeví jako praxí potvrzená (na základě zde představeného výzkumu mezi absolventy
s odstupem až 6-ti let od absolvování) a při snaze o inovativní přístupy k oboru je nutné je vzít v
úvahu. Do této skupiny patří podle názoru autorů doporučení na rozšíření portfolia oborově
volitelných předmětů či předmětů v rámci vedlejší specializace, aby si student mohl vybírat dle
určitého/skutečného zájmu o problematiku, jejímž studiem „dotvoří představu“ o vlastní budoucí
profesionální orientaci.
6 SEZNAM POUŽITÝCH ZDROJŮ
[1]
5 hlavních inovačních typů. CzechInno [online]. 2012 [cit. 2013-07-22]. Dostupné z:
http://www.czechinno.cz/inovace/definice-inovace/5-hlavnich-inovacnich-typu.aspx
[2]
Applied Information management: Core Courses and Curriculum Components. University of
Oregon
[online].
2012
[cit.
2013-09-17].
Dostupné
z:
http://aim.uoregon.edu/prospective/curriculum/core.php
[3]
DENISON, D.C. Modernizing the Harvard MBA program: How the dean of Harvard Business
School transformed an institutional culture in 2 years. The Boston Globe [online]. 2012 [cit.
2013-09-17].
ISSN
0743-1791.
Dostupné
z:
http://www.bostonglobe.com/business/2012/07/14/progressreport/iGhFBrac5y70q58HnxM4KN/story.html
[4]
DOUCEK, Petr, MARYŠKA, Miloš, NOVOTNÝ, Ota. Analýza souladu obsahu ICT
studijních oborů s požadavky praxe v České republiky. E+M. Ekonomie a Management, 2013,
roč. XVI, č. 3, s. 148–161. ISSN 1212-3609.
[5]
DOUCEK, Petr. Human Capital in ICT – Competitiveness and Innovation Potential in ICT. In:
DOUCEK, P, Gerhard CHROUST a Václav OŠKRDAL. IDIMT-2011: interdisciplinarity in
complex systems. Linz: Trauner, 2011, s. 11-22. Schriftenreihe Informatik. ISBN 978-385499-873-0.
[6]
DOUCEK, Petr, ed. Informační management. 1. vyd. Praha: Professional Publishing, 2010,
251 s. ISBN 978-80-7431-010-2.
[7]
GAYNOR, Gerard H. Innovation by design: what it takes to keep your company on the cutting
edge. New York: AMACOM, 2002, 302 s. ISBN 08-144-0696-3.
[8]
Information Management. University of Washington [online]. 2012 [cit. 2013-07-17].
Dostupné z: http://www.washington.edu/uwit/im/
Acta Informatica Pragensia
111
[9]
KOUCKÝ, Jan a Aleš BARTUŠEK. Demografický vývoj a projekce výkonů vysokých škol.
Praha: Univerzita Karlova, Pedagogická fakulta, 2011, CD-ROM. ISBN 978-80-7290-524-9.
[10]
LARKLEY, Jasmine a Viola MAYNHARD. Innovation in education. New York: Nova
Science Publishers, 2008, 235 s. ISBN 16-045-6275-7.
[11]
MARYŠKA, Miloš, DOUCEK, Petr. SMEs Requirements on „Non-ICT” Skills by ICT
Managers – The Innovative. In: Liberec Economic Forum. Liberec, 16.09.2013 – 17.09.2013.
Liberec : Technická univerzita v Liberci, 2013, s. 372–380. ISBN 978-80-7372-953-0.
[12]
MINISTERSTVO ŠKOLSTVÍ, MLÁDEŽE A TĚLOVÝCHOVY. Výroční zpráva o stavu
vysokého školství za rok 2011 [online]. 2013 [cit. 2013-07-17]. Dostupné z:
http://www.msmt.cz/vzdelavani/vyrocni-zprava-o-stavu-vysokeho-skolstvi-za-rok-2011
[13]
OECD & EUROSTAT, LUXEMBOURG. Oslo manual: guidelines for collecting and
interpreting technological innovation data. 3rd ed. Paris: Organisation for Economic Cooperation and Development, 2005. ISBN 978-926-4013-100.
[14]
Přehled vedlejších specializací 2011/2012. Vysoká škola ekonomická [online]. 2012 [cit.
2013-07-17]. Dostupné z: http://www.vse.cz/download/?ID=344
[15]
VODÁČEK, Leo, ROSICKÝ, Antonín. Informační management: pojetí, poslání a aplikace.
Vyd. 1. Praha: Management Press, 1997, 146 s. ISBN 80-859-4335-2.
[16]
VYMĚTAL, Jan, Anna DIAČIKOVÁ a Miriam VÁCHOVÁ. Informační a znalostní
management v praxi. Vyd. 1. Praha: LexisNexis CZ, 2005, 399 s. ISBN 80-869-2001-1.
[17]
WEBFINANCE, USA. Information management. In: BusinessDictionary.com [online]. [cit.
2013-07-20].
Dostupné z: http://www.businessdictionary.com/definition/informationmanagement.html
[18]
WILSON, T. D. Information management. In: FEATHER, John a R STURGES. International
encyclopedia of information and library science. 2nd ed. New York: Routledge, 2003. ISBN
9780415259019.
[19]
ZIFF DAVIS CORPORATE, USA. Information management. In: PCMag.com [online]. [cit.
2013-07-17].
Dostupné
z:
http://www.pcmag.com/encyclopedia_term/0,1237,t=information+management&i=44948,00.a
sp
Acta Informatica Pragensia
2(2), 2013, 112–121, DOI: 10.18267/j.aip.28
Online: aip.vse.cz
Sekce / Section:
Recenzované stati / Peer-reviewed papers
Systémová dynamika: disciplína pro zkoumání
komplexních měkkých systémů
Stanislava Mildeová1
1
Katedra systémové analýzy, Fakulta informatiky a statistiky,
Vysoká škola ekonomická v Praze
nám. W. Churchilla 4, 130 67 Praha 3
[email protected]
Abstrakt: Cílem příspěvku je představit systémovou dynamiku, která pomáhá při
řešení složitých problémů, a je pomůckou pro lepší pochopení okolních systémů.
Systémová dynamika je zvláště užitečná pro analýzu systémů s vysokým stupněm
detailní a dynamické komplexity, jako jsou komplexní sociální systémy.
Ekonomický systém je typickým příkladem komplexního sociálního systému.
Autor, s důrazem na povahu ekonomicko-sociálních systémů, ilustruje základní
logiku systémové dynamiky a její vztah k aplikované informatice.
Klíčová slova: systémová dynamika, informatika, systém, model, simulace,
informační management
Title: System dynamics: discipline for studying complex soft systems
Abstract: The objective of the paper is to introduce system dynamics that helps in
solving complex problems, and aids our better understanding of surrounding
systems. System dynamics is especially useful for analysing systems with a high
amount of detail and dynamic complexity, such as any complex social systems. An
economic system is a typical example of a complex social system. The author, with
an emphasis on the characteristics of economic-social systems, illustrates the basic
logic of system dynamics and its relation to informatics.
Keywords: System Dynamics,
Information management
Informatics,
System,
Model,
Simulation,
Acta Informatica Pragensia
113
1 ÚVOD
Zastavme se úvodem u kontrastu vývoje v oblasti technologií, a zvláště pak technologií spjatých s
výpočetní technikou, a relativně nedostatečného pokroku v chápání sociálních systémů, jež lze v
průběhu minulého století zaznamenat. Proč tomu tak je? Proč je výzkum a vývoj technologií tak
rychlý, když sociální systémy zůstávají stejně záhadné jako dříve?
Sociální systémy se chovají v rozporu s očekáváním. Neumíme si představit efekt nelinearity a efekt
zpětné vazby zásahu ve složitých systémech; většinou dramaticky podceňujeme setrvačnost systému,
která vede k nesprávné závěrečné politice. Zobecňujeme lineárně, ale chování je většinou více než
složité vlivem závislostí mezi proměnnými a smyčkou zpětné vazby, kde výstup systémové
komponenty má podstatný vliv jako vstup v budoucnosti. Dodatečná složitost je představována
existencí akumulací a zpoždění.
V této souvislosti autor přichází s návrhem alternativního zkoumání sociálních systémů a získání
kompetence pro úspěšné řešení problémů komplexních systémů v prostředí informační společnosti,
kde dominantním znakem je informatizace všech oborů a oblastí. Vychází z toho, že chceme-li chápat
a analyzovat problémy systémově, je nezbytné změnit paradigma vnímání systému. Komplexita
systému neumožňuje zabývat se zkoumáním jednotlivých částí systému, ale je potřeba zaujmout
holistický přístup vnímání systému. Holistický přístup poskytuje základní rámec pro zkoumání
struktury komplexních systémů.
Hlavní důraz na roli struktury a jejího vztahu s dynamickým chováním systému, modelovaném
pomocí sítě zpětnovazebních smyček, klade systémová dynamika. Cílem článku je seznámit se
systémovou dynamikou jakožto disciplínou, která napomáhá kvalitnějšímu poznávání komplexních
měkkých systémů. Autor s akcentem na charakteristiku ekonomicko-sociálních systémů objasňuje
základní logiku systémové dynamiky a tvorby jejích modelů. Následně článek graduje analýzou
vztahu systémové dynamiky a informatiky – je zkoumán potenciál systémové dynamiky pro rozvoj
IS/ICT a z druhé strany je zkoumáno, jak rozvoj informatiky posunuje možnosti systémové dynamiky
a tvorby jejích modelů. Systémové poznání a rozvoj, ke kterému článek směřuje, může být impulsem k
rozvoji širokého pojetí aplikované informatiky v hospodářské praxi a managementu organizací.
2 ZKOUMANÉ ASPEKTY KOMPLEXNÍCH MĚKKÝCH SYSTÉMŮ
2.1 SYSTÉMY A JEJICH KATEGORIZACE
Na ekonomicko-sociální systémy se lze dívat z mnoha pohledů. Vymezme si proto úhel náhledu a jeho
pojmový aparát, který je základem pro naše zkoumání. Nejprve je potřeba vysvětlit, jak bude chápán
pojem systém, už z toho důvodu, že tento termín je používán čím dál tím více a často zní až frázovitě a
také, že systém lze definovat mnoha způsoby. Systémy jsou všude kolem nás a pojem systém je
možné aplikovat na jakoukoliv činnost či oblast světa.
V pojetí systému vycházíme ze systémové teorie dle [2] [3] [5] [8] [13] a systém je v článku chápán
jakožto komplex prvků, nacházejících se ve vzájemné interakci, kdy je třeba zdůraznit účelovost
systému, tj. plnění předem stanovené funkce. Na interakce mezi jednotlivými prvky celku se díváme
114
Mildeová
jako na spojnice, tradičně je nazýváme vazbami. Mimo to mohou existovat vazby, které systém
propojují s okolím, toto okolí je pak také systémem. Vymezení systému vůči jeho okolí vede k
rozlišení systémů na uzavřené a otevřené. Uzavřené systémy nemají žádné spojení se svým okolím, a
tedy nepřijímají žádné vstupy z okolí ani nevydávají výstupy do okolí. Ekonomické systémy jsou
otevřené systémy, nemohou bez svého okolí existovat, neboť s ním provádí důležité hmotné,
energetické, resp. informační výměny.
Systémová hierarchie uvažuje sledovaný systém jako součást systému širšího a naopak každou část
systému za autonomní systém. Každý systém je součástí systému vyšší úrovně. Při zkoumání celku a
jeho složení se musíme snažit správně definovat vrstvu, na které složení zkoumáme. Při zkoumání
ekonomického systému jako celku a jeho složení je třeba respektovat holistický princip, tj. vyjít z
celostního pojetí systému, kdy jeho výslednou kvalitu nelze odvodit z vlastností jednotlivých prvků
systému, ale pouze z celého systému.
Používáme-li dále termín tvrdé systémy, jde ve velké většině o synonym pro umělé technické
systémy, jež vytvořil člověk, nebo technickým systémem vytvořené jiné technické systémy. Systémy
tohoto typu nejsou předmětem našeho zkoumání. Upozorněme jen v konsekvenci námi zkoumané
problematiky, že chování těchto systémů lze dobře modelovat. Porozumět tvrdým systémům je méně
složité než porozumění sociálním a ekonomickým systémům.
Ekonomické systémy jsou systémy měkké. Měkké systémy jsou zpravidla adaptabilní vzhledem k
měnícím se vlastnostem okolí a jejich prvky a vazby nebývají neměnné, významný prvek či prvky
systému je člověk, resp. lidé. Jde tedy současně o systémy sociální. Modelování měkkých systémů je
oproti tvrdým systémům složitější. Zároveň platí, že ekonomické systémy nejsou ve vakuu – jsou
ovlivňovány prostředím a svou historií, tzv. hysterezí. Prostředí, závislost současného stavu na
předchozích stavech a kontext hrají důležitou roli v chování komplexních systémů a proto nemohou
být ignorovány. [8]
Pojem, který je v současnosti často zmiňován, je komplexita. Komplexita (složitost) systému je určena
počtem prvků a vazeb v něm identifikovatelných. Ekonomické systémy jsou systémy komplexní s
vysokou mírou komplexity. Problém zkoumání komplexních systémů spočívá v nutnosti redukovat
zkoumané vlastnosti na ty entity a atributy, které jsou podstatné. Ze složitosti nelineárních a
nedeterministických systémů vychází teorie komplexity. [11] Podstata této teorie není jen ve snaze o
redukci komplexity neboli míry složitosti nějakého komplexního systému. Teorie komplexity popisuje
chování komplexních systémů a zároveň nabízí aparát pro jejich uchopení.
2.1.1
UDRŽITELNOST SYSTÉMŮ
Operujeme-li s pojmem udržitelný rozvoj, je nezbytné jej specifikovat. V poslední době je tento termín
chápán v podstatně širším smyslu, než je konsekvence přijatelného stavu životního prostředí, jde o
udržitelnost systému jako celku.
V problematice udržitelnosti systémů se lze setkat s teorií samoorganizace. V roce 1977 získal Ilya
Prigogine Nobelovu cenu za tuto teorii. Objevil, že po průchodu kritickým bodem se zprvu nahodilé
chování systému významně mění a stále více se orientuje do určitého vzorce – systém se počíná
chovat vysoce organizovaně. V dalším výzkumu pak dokázal, že když jsou systémy daleko od
Acta Informatica Pragensia
115
rovnováhy, dochází k samovolnému přeuspořádání komponent a k nastolení nového řádu, tedy tvorbě
nových struktur, jež nelze přesně předvídat. [9] Z dalších teorií se musíme opět zmínit o nových
způsobech zkoumání založených na teorii komplexity a termínech jako je co-evoluční udržitelnost,
která umožňuje systému měnit se s měnícím se prostředím.
3 ZKOUMÁNÍ VZTAHŮ V EKONOMICKO-SOCIÁLNÍCH
SYSTÉMECH
3.1 DISKUZE K METODĚ ZKOUMÁNÍ
V době řešení současné ekonomické krize probíhá významný redesign světové ekonomiky. Otázkou
je, zda probíhá s odpovídajícím zvážením systémových důsledků. Autor, v návaznosti na [3] se
domnívá, že ačkoli sociální systémy jsou oproti technickým systémům mnohem složitější, v rámci
sociálních systémů se používají metody jednodušší než jsou používané metody systémového
inženýrství pro návrh technických systémů. Jsme svědky toho, že manažeři, rozhodovatelé a politici se
omezí pouze na svoji intuici, připraví a mění své návrhy bez použití novodobých metodologií, metod a
metodik.
Je zřejmé, že pro zkoumání vztahů v ekonomicko-sociálních systémech musí být odlišný přístup než u
věd přírodních. Metodologie ekonomie má jiný charakter než metoda zkoumání u věd přírodních.
Sociální systémy převyšují svou komplexitou systémy fyzikální. Jelikož se v nich potýkáme
s mnohem větší komplexitou než v případě fyzikálních nebo biologických jevů, jsou obtížně
uchopitelné. Vzájemná závislost mezi prvky v systému je základním stavebním kamenem celkové
komplexity systému. Čím více jsou prvky na sobě navzájem závislé, tzn. že se ovlivňují, tím méně je
možné pochopit chování systému pouze na základě pochopení jednotlivých prvků. [7].
Z komplexní povahy ekonomických procesů vychází i podhled na dynamiku. Dynamika právě z těchto
příčin vyplývá. Některé přístupy v ekonomii, stejně jako systémová dynamika, jež je předmětem
našeho zájmu, uvažují dynamické souvislosti tržních procesů. Základem je potýkání se s nejistotou
budoucnosti a nutnost přizpůsobování se neustálým změnám.
3.2 SYSTÉMOVÁ STRUKTURA
Ekonomické systémy mají strukturu prvků a vazeb mezi nimi, které determinují chování těchto
systémů. Jestliže nejvýznamnější komponenty této struktury poznáme, a to včetně pochopení
dynamických konsekvencí, pak máme šanci nalézt postupy, které povedou ke stanovenému cíli, ať už
jím je ekonomická stabilita nebo dosažení udržitelného vývoje.
Základem sociálních resp. ekonomických systémů je vazba mezi jeho prvky, individuální chování
jednotlivce je korigováno zpětnou vazbou celého systému. Všechny komplexní sociální systémy
obsahují zpětnovazební procesy. [9] Jedna akce nevyvolá jednu reakci, jejíž výstup bychom očekávali.
Žijeme v prostředí, které je velmi turbulentní a každá akce vyvolá náhodné množství jiných reakcí.
Tyto reakce ovlivňují současné podmínky systému, je to nekončící proces. Výše uvedené způsobuje
zpětná vazba měnící chování všech prvků. Lidé reagují na výstup svého předchozího jednání i jednání
116
Mildeová
ostatních lidí. Princip zpětné vazby přitom není omezen jen na systémy sociální, pro biologické a
technické systémy je typický. Jde o velmi univerzální princip.
Dynamické vnímání struktury systému je reprezentováno dvěma typy zpětnovazebních procesů posilování trendu, kterým se systém ubírá a směřování systému do rovnovážného stavu. [13].
Pozitivní zpětná vazba představuje první z těchto dvou typů zpětnovazebních procesů, kdy trend
sledované veličiny může buďto narůstat a nebo klesat. Pokud se cyklus neustále opakuje, sledovaná
veličina může narůstat/klesat exponenciálně. Čistý exponenciální růst je pak zajímavý tím, že čas
zdvojení je konstantní. Příkladem toho, jak stupňování zpětné vazby může urychlit pokles, je růst
prodejů akcií v důsledku poklesu důvěry a následný pokles cen akcií, což vede k dalšímu poklesu
důvěry.
Ovšem urychlený růst nebo pokles je zřídkakdy bez překážek, protože procesy se stupňovaným
působením málokdy probíhají izolovaně. Dříve či později narazí na překážky, které mohou růst
zpomalit, zastavit či dokonce ho i obrátit. Tato omezení jsou jednou formou vyvažující zpětné vazby.
Vyvažující negativní zpětná vazba je druhým typem zpětnovazebních procesů. Navrací systém do
rovnovážného stavu, vede k nějakému chtěnému cílovému stavu. Klíčem pro rozpoznání negativní
zpětné vazby je, že působí proti směru trendu změny. Pro příklad negativní zpětné vazby uveďme
třeba nárůst pracovní síly na trhu, který povede ke snížení počtu pracovních příležitostí.
Vyrovnávající zpětné vazby je obtížnější rozpoznat než posilující, protože za normálních okolností
jejich působení není vidět. Nerozpoznání implicitních vyrovnávacích zpětných vazeb vede často k
překvapivému chování systému, když je do jeho chodu zasahováno. Současně platí, že každý systém
má svůj vlastní rytmus a tempo dosahování potřebných úrovní. Mnohé zpětnovazební procesy mají
určité zpoždění (poruchy v působení vlivu), které zapříčiňují, že důsledky jednání se dostavují
postupně.
3.2.1
NELINEARITA, NEJISTOTA
Závažnou charakteristikou většiny systémů je to, že se dynamicky vyvíjí, tedy přecházejí z
jednoho stavu do druhého. Pozitivní a negativní zpětné vazby ve svých vzájemných kombinacích
způsobují v komplexních sociálních systémech velmi rozmanité chování, typicky značně nelineární.
Protože fungují negativní zpětné vazby, které se snaží o navrácení systému do bezpečných hodnot jeho
hranic a předcházet kolapsu, systém se obvykle chová jinak v oblastech, které se blíží hraničním
hodnotám, než v oblastech, které jsou z tohoto hlediska a vzhledem ke struktuře systému žádoucí a
tzv. normální.
Nelinearita, chování neodpovídající přímé úměře, je charakteristickou vlastností komplexních
sociálních systémů. A nejen nelinearita. V komplexních sociálních systémech se také objevují faktory,
se kterými se lze vypořádat pouze velmi obtížně – nejistota a neurčitost.
Acta Informatica Pragensia
117
4 DISCIPLÍNA SYSTÉMOVÁ DYNAMIKA
4.1 PODSTATA DISCIPLÍNY
Vztahy spojení mezi různými fyzikálními, sociálními, ekonomickými a ekologickými subsystémy,
které utvářejí svět, jsou provázány dosti složitě. Pochopení vazeb v těchto systémech je náročné.
Následkem může být, že problémy, kterým čelíme a snažíme se je řešit, jsou proti našim zásahům
imunní. Rozpoznání dopadů různých politik, ať už ekonomických či environmentálních, je náročné,
nicméně existují prostředky k možnému zjištění dopadů rozhodnutí dříve než jsou provedena.
Systémová dynamika přináší pohled a nástroje, které umožňují se s komplexností lépe vypořádat,
poskytuje základní rámec při zkoumání těchto procesů. Kombinuje teorie, metody a filozofii pro
analýzu chování systémů, a to především komplexních sociálních systémů jako jedněch
z nejsložitějších měkkých systémů.
Disciplína systémová dynamika, jejíž základy byly položeny již počátkem 60 let, původně vznikla z
důvodu vyhledávání lepších způsobů řízení. Její logika je poplatná tomu, že Jay Wright Forrester,
zakladatel systémové dynamiky a autor řady publikací o ní, získal vzdělání na Massachusetts Institute
of Technology a byl průkopník v oblasti kybernetiky a počítačů [3].
4.1.1
MODEL SYSTÉMOVÉ DYNAMIKY
Systémová dynamika staví na konceptu zpětné vazby, kterou znázorňuje pomocí počítačových
modelů. Tvorba modelů je jádrem systémové dynamiky. [13] [6] Stoupenci systémové dynamiky
pojímají modelování jako poloformální, holistický proces. Počítač za pomocí specializovaných
softwarových prostředků, ve kterých se systémově dynamické modely tvoří, simuluje chování
reálného systému.
Pomocí simulačních modelů systémové dynamiky lze porozumět systémům a jejich složitým vazbám.
Počítačovou simulací lze měnit způsoby rozhodování v jednotlivých prvcích systému a zkoumat,
jakým způsobem se projeví u ostatních prvků. Model a výsledky modelování znázorňují důsledky
chování systému v různých situacích. Model jako kopie systému, přenesená do počítače, umožňuje
zkoumání jednotlivých interakcí v chování prvků. Reálné systémy jsou příliš komplexní na to,
abychom u nich byli schopní identifikovat problémová místa, ale při zjednodušení a abstrakci systému
do počítačového modelu získáváme cenný zdroj pro zjištění problémů, které daný systém zažívá. (Je
ale třeba si uvědomit, že námi vytvářené modely, jakkoliv sofistikované, jsou pouze odrazem reality,
nikoliv realitou samou a neměly by s ní být v žádném případě zaměňovány).
Současné modely jsou vytvářeny na základě srozumitelných přístupů, zejména pomocí tzv. příčinných
smyčkových diagramů („causal-loop diagrams“) a diagramů stavů a toků („stock-and-flow diagrams“).
Tím se zvýšil stupeň obecnosti a robustnosti ve srovnání s původními diferenciálními rovnicemi, které
byly pro tvorbu modelů používány. Zobrazení dynamických systémů pomocí příčinných smyčkových
diagramů a pomocí diagramů stavů a toků (viz. Obr.1) je obecná forma, která je adekvátní pro
obrovské spektrum potenciálních aplikací. [13]
I když je systémová dynamika především spojována s explicitními simulačními modely, není tento
způsob zkoumání jedinou formou aplikace její logiky. Ve formě tzv. konceptuálních modelů lze
118
Mildeová
využít výhody vizualizace systému pomocí příčinných smyčkových diagramů k pochopení struktury
systému. [10]
Obr. 1. Příčinný smyčkový diagram (vlevo) a diagramů stavů a toků (vpravo)
4.1.2
APLIKACE SYSTÉMOVÉ DYNAMIKY
Při zkoumání ekonomických systémů byla v rámci systémové dynamiky dosažena překvapivá zjištění,
například, že problémy vznikají uvnitř systémů, ačkoliv tendence je hledat příčiny z vnějšku systému;
že činnosti jedinců mohou být pro systém degradující, ačkoliv oni samotní se domnívají o jejich
prospěšném charakteru; že složitost zpětné vazby a její struktura může způsobit neefektivní a
kontraproduktivní jednání.
Systémová dynamika se rozvíjí po celém světě, i v ČR [14], a její význam má v současných
ekonomických systémech stále větší váhu. Využívá se pro získání systémového pohledu na systém, je
moderním analytickým přístupem k získávání informací o vazbách v systémech, slouží pro zjištění
problémových míst dnešních systémů.
4.2 SYSTÉMOVÉ TEORIE
Systémová dynamika je jednou z rozličných druhů systémových teorií a metodologií, jež se časem
vyvinuly. V rámci dalších systémových teorií jmenujme alespoň matematickou teorii systémů.
V tomto kontextu se také používá pojem již zmiňované teorie komplexity.
Ač je spektrum systémových teorií a metodologií rozmanité, všechny mají silný společný jmenovatel:
staví na představě, že systém je organizovaný celek a systém je vždy víc, než součet jeho částí.
Společným jmenovatelem je také zaměřenost na komplexní systémy, na jejich popisování,
vysvětlování, navrhování nebo jejich ovlivňování. Proto většina systémových přístupů nenabízí pouze
teorii, ale také způsob myšlení a metodologii na řešení systémových otázek nebo problémů. [5]
Systémová dynamika je součástí systémových přístupů. Dokonce lze říci, a vývoj disciplíny systémová
dynamika ve světové komunitě aplikující systémovou dynamiku to dokazuje, že se jedná o
„systémový přístup“ jako obecně platný pořádací princip sám o sobě. I když je nezbytné vzít v úvahu
varietu systémových teorií a metodologií (z nichž mnohé systémovou dynamiku doplňují), je zřejmé,
že z komunity systémové dynamiky se stala nejsilnější „škola“ systémového přístupu s mnoha členy
v akademickém prostředí i reálné praxi prezentující se tisíci úspěšných aplikací po celém světě. [4]
Acta Informatica Pragensia
119
5 SYSTÉMOVÁ DYNAMIKA A APLIKOVANÁ INFORMATIKA
Článek vychází z přesvědčení autora, že systémová dynamika je multidisciplinárním přístupem pro
poznávání, zkoumání a modelování komplexních měkkých systémů. Je také přístupem, který je velmi
zajímavý z pohledu aplikované informatiky. Vztah systémové dynamiky a informatiky lze
charakterizovat jako obousměrný – z jedné strany lze zkoumat jaký je potenciál systémové dynamiky
pro rozvoj IS/ICT, z druhé strany rozvoj informatiky posunuje možnosti systémové dynamiky a tvorby
jejích modelů.
5.1 POTENCIÁL SYSTÉMOVÉ DYNAMIKY PRO ROZVOJ IS/ICT
Pojďme se především zastavit u potenciálu systémové dynamiky pro rozvoj IS/ICT. V první řadě si
položme otázku, zda mohou být aplikace informatiky v měkkých systémech skutečně úspěšné, jestliže
tyto systémy známe nedokonale. Asi nikoliv. Pravděpodobně i toto může být jedním z důvodů, proč
selhává tolik IT projektů1. Chceme-li chápat chování systémů, je nezbytné změnit svoje nazírání na
systém, např. organizaci2. Musíme se posunout od zkoumání samostatných událostí a jejich příčin a
vidět systém jako organismus vzájemně propojených částí.
Modely systémové dynamiky mohou najít uplatnění při simulování reálných ekonomických
procesů, spojených s potřebou zajištění adekvátních informací. Lze je považovat za nástroj
moderního znalostního managementu. Posunují tacitní znalosti do explicitní reprezentace,
která může být standardizována a sdílena.
Za druhé v nové situaci síťové a znalostní ekonomiky vzniká nezbytnost změn manažerského myšlení.
Zaměřme se na samotný informační management. Řízení informatiky má svou dynamiku, která se
stále mění. Moderní ICT přispívají k podstatnému zrychlení veškerých materiálních i informačních
toků, což vyžaduje i zrychlení rozhodovacích procesu. [1] Rozpoznání dopadů různých informačních
strategií a politik v synergii s byznys strategiemi je složité. Model systémové dynamiky může být
prostředek ke zjištění dopadů rozhodnutí dříve, než jsou provedena, pomáhat v řešení reálných
rozhodovacích situací, objasnit principy, jimiž se řídí racionální rozhodování, zpětně analyzovat
rozhodnutí a izolovat příčiny úspěchu či neúspěchu, podpořit tvůrčí přístup k řízení informatiky a
moderní manažerské práci vůbec.
Model systémové dynamiky se tak stává součástí celkové informační strategie. Současně může být
model systémové dynamiky pro informačního manažera nástrojem posunu uvažování směrem k
systémovému myšlení. To je podstatné pro pochopení skrytých a nezjevných příčin, které za těmito
událostmi stojí. Systémové myšlení je klíčové pro proces učení se. [12] Informační systémy, které
poskytují zpětnou vazbu, se mohou měnit tím, jak se učíme.
V neposlední řadě je třeba uvést, že snad neexistuje problém v ICT (který není čistě technického rázu)
či v oblasti ICT podnikání a softwarového byznysu, kde by nebyla snaha ho pomocí nástrojového
aparátu systémové dynamiky řešit. Nezapomeňme, že vznik systémové dynamiky je spojen s MIT a že
zdejší System Dynamics Group na MIT Sloan School of Management je (společně s americkou System
1
O překročení limitů klasického projektového řízení se systémová dynamika snaží ve formě tzv. Project
Dynamics.
2
Aplikace principů systémové dynamiky na hospodářskou organizaci bývá označována Business Dynamics.
120
Mildeová
Dynamics Society) tahounem celosvětového vývoje disciplíny. Problematika jednotlivých aplikací na
řešení informatických problémů si zaslouží samostatný článek a bude předmětem dalšího výzkumu
autora.
5.2 VLIV INFORMATIKY NA ROZVOJ SYSTÉMOVÉ DYNAMIKY
Na druhé straně rozvoj informatiky posunuje možnosti systémové dynamiky a tvorby jejích
modelů. Dnešní moderní software jako jsou Powersim, Vensim, Insight Maker a další, s
uživatelsky přívětivým prostředím a grafickými objekty pro tvorbu modelů systémové
dynamiky, poskytují úplně jiné možnosti než byly první simulace se software SIMPLE
(Simulation of Industrial Management Problems with Lots of Equations), což byl první
kompilátor zpracovávající diferenciální rovnice, kterými byly prvotní modely systémové
dynamiky popsány.
6 ZÁVĚR
Lidé často spojují systémy do jednoho pojmu, neodlišují jejich rozdíly. Sociální systémy jsou oproti
těm tvrdým mnohem složitější, vysoce provázané, nelineární a obsahují zpětnou vazbu, zde stejně tak
jako tvrdé systémy. Procesy zpětné vazby řídí veškerý růst, kolísání i úpadek a jsou základem pro
veškeré změny. Zpětnovazební koncepty, na kterých je založena logika disciplíny systémová
dynamika, se mohou - po inženýrství - stát také organizačním konceptem pro ekonomické systémy.
Zpětná vazba odhaluje nové pohledy na ekonomické systémy, které by popisné a statistické analýze
mohly uniknout. Tradiční kvantitativní metody neberou v potaz zpětnovazební struktury. Systémová
dynamika umožňuje jít nad rámec popisných teorií, přináší rigorózní rámec pro organizování silné
politiky a získání nových strukturálních znalostí. V této souvislosti je v textu článku zvýrazněna
disproporce mezi znalostmi o chování měkkých sociálních systémů oproti znalostem o tvrdých,
technických systémech.
Systémová dynamika - jedna z větví systémových věd, byla autorem zařazena mezi moderní
systémové přístupy. Jde o prakticky orientovanou disciplínu pro studium chování komplexních
sociálních, ekonomicko-sociálních a socio - technických systémů; disciplínu, která napomáhá
kvalitnějšímu poznávání okolních systémů, zejména těch, ve kterých se vyskytuje vysoká míra detailní
a dynamické komplexity. Konkrétní metodologie systémové dynamiky spočívá v reprezentaci
problémů nebo systémů, jimiž se zabýváme, jako sítí uzavřených smyček zpětných vazeb,
vytvořených z tzv. hladin a toků, probíhajících v čase a podléhajících zpožděním. Systémová
dynamika spoléhá na modelování. Zpětnovazební smyčky a zpoždění jsou pomocí hladin a toků
vizualizovány a formalizovány.
Vztah systémové dynamiky a informatiky byl charakterizován jako obousměrný – z jedné strany má
systémové dynamiky potenciál pro rozvoj IS/ICT, z druhé strany rozvoj informatiky posunuje
možnosti systémové dynamiky a tvorby jejích modelů. Modely systémové dynamiky - zkombinované
s výpočetní technikou, která už není hranicí, ale ustoupila do struktury každodenní činnosti - umožňují
efektivní simulaci komplexních systémů. Systémová dynamika muže být jednou z cest, jak pomocí
ICT nejen o systémovosti a systémovém myšlení hovořit či jej používat jako propagační slogan, ale
jak jej reálně v praxi řízení používat – při současném respektování faktu, že ani nejdokonalejší
Acta Informatica Pragensia
121
informační technologie sama o sobě nemůže zabezpečit efektivní fungování komplexního měkkého
systému.
I když doporučení autora vede jednoznačně k popularizaci disciplíny systémová dynamika, autor si je
vědom, že jde jen o jeden z možných způsobů systémového zkoumání. Kromě tradičních metod i
takové silnější metodologie jako je teorie komplexity a další, které nyní vznikají, by mohly být také
významněji v české vědě diskutovány.
7 SEZNAM POUŽITÝCH ZDROJŮ
[1]
BÉBR, R., DOUCEK, P. Informační systémy pro podporu manažerské práce. 1. vyd. Praha:
Professional Publishing, 2005. ISBN 80-864-1979-7.
[2]
BERTALANFFY, L. von. General System theory: Foundations, Development, Applications.
Revised edition, New York : George Braziller, 1969. ISBN: 978-0807604533.
[3]
FORRESTER, J. W. Industrial Dynamics. 1st ed. Productivity Press, Portland, 1961. ISBN13: 9780915299881, ISBN: 0915299887
[4]
FORRESTER, J. W. System Dynamics – A Personal View of the First Fifty Years. System
Dynamics Review, 23(2-3), Autumn, 2007, pp. 345-358. ISSN 0883-7066.
[5]
KLÍR, G. Facets of Systems Science. IFSR International Series on Science and Engineering.
Second edition, Springer, 2001. ISBN 0306466236, 9780306466236.
[6]
MILDEOVÁ, S. Systémová dynamika: tvorba modelu. 1. vyd. Praha : Oeconomica, 2012.
ISBN 978-80-245-1842-8.
[7]
MILDEOVÁ, S. System Dynamics Supporting Complexity Management: Case Studies from a
Small Economy within an Economic Integration Environment. In Complexity and Knowledge
Management: Understanding the Role of Knowledge in the Management of Social Networks,
Tait, A., Richardson, K. A. (eds). Charlotte: IAP - Information Age Publishing, 2010. pp. 267–
283, ISBN: 978-1607523550.
[8]
MITLETON-KELLY. The Emergence of Final Cause. In: Aaltonen, M. (ed.). The Third Lens.
Multi-Ontology Sense-Making and Strategic Decision-making, 1st ed., Ashgate Publishing
Ltd, Aldershot, 2007. ISBN 0754647986.
[9]
PRIGOGINE, I., STENGERS, I. Order out of chaos: man’s new dialogue with nature, 1st ed.,
Flamingo, 1985. ISBN 0-00-654115-1.
[10]
RICHARDSON, G. P. Feedback though in social science snd systems theory. 1st ed., Pegasus
Communications, Waltham, Massachusetts, 1991. ISBN 1-883823-46-3.
[11]
RICHARDSON, K. A. To Be or Not to Be? That is [NOT] the Question: Complexity Theory
and the Need for Critical Thinking, in RICHARDSON, K. A. (ed.). Managing organizational
complexity: Philosophy, theory, and application, 1. vyd. Greenwich, CT: Information Age
Publishing, 2005. ISBN 1593113188.
[12]
SENGE, P. The Fifth Discipline. 1st ed. Currency Doubleday, New York. 1990. ISBN 0-38526095-4.
[13]
STERMAN, J. D. Business Dynamics. Systems Thinking and Modeling for a Complex World.
1st ed. USA: McGraw-Hill Higher Education. 2000. ISBN: 978-0072389159.
[14]
ŠUSTA, M. O systémové dynamice a systémovém myšlení. [online]. Praha : Proverbs,
Dostupný z: http://proverbs.cz/default.asp?id=4&mnu=4 [cit. 2013-12-01].
Acta Informatica Pragensia
2(2), 2013, 122–124, DOI: 10.18267/j.aip.29
Online: aip.vse.cz
Sekce / Section:
Knižní recenze / Book reviews
Dynamika sociálně-ekonomických procesů
Ingeborg Němcová1
1
Katedra světové ekonomiky, Fakulta mezinárodních vztahů,
Vysoká škola ekonomická v Praze
nám. W. Churchilla 4, 130 67 Praha 3
[email protected]
Abstrakt: Článek je recenzí knihy Ignáce Prna: „Dynamika sociálnoekonomických procesov: simulovanie dynamiky v sociálno-ekonomických
systémech“, kterou vydalo v roce 2012 vydavatelství SAV v Bratislavě. Kniha
předkládá systematicky uspořádané poznatky a nástroje, které mohou být přínosné
pro pracovníky managementu, a také pro všechny, kteří se zajímají o modelování
dynamických měkkých systémů. Tím, že je doplněna CD s vhodným softwarem
umožňuje interaktivní způsob osvojení předkládaných poznatků.
Klíčová slova: recenze, simulace, dynamika, sociálně ekonomické systémy,
systémová dynamika, systémový přístup
Title: Dynamics of socio-economic processes
Abstract: A review of a monograph by Ignác Prno: “Dynamika sociálnoekonomických procesov: simulovanie dynamiky v sociálno-ekonomických
systémech“ (Dynamics of social and economic processes: simulations of dynamics
in social and economic systems) which was published by Slovak Academy of
Science in Bratislava in 2012. The book presents a in a systematically organized
comprehensive knowledge and tools to managers and to everybody with an interest
in modelling of dynamic soft systems. The CD with software which is
accompanying the book allows readers to get the knowledge in an interactive way.
Keywords: Review, Simulation, Dynamics, Socio-economic systems, System
dynamics, System approach
Acta Informatica Pragensia
123
RECENZE KNIHY
PRNO, Ignác. Dynamika sociálno-ekonomických procesov: simulovanie dynamiky
v sociálno-ekonomických systémoch. Bratislava: Veda, 2012. 306 s. + příloha na CD.
ISBN 978-80-224-1250-6.
Sociálně ekonomické procesy představují pro ekonomický výzkum, ale i hospodářskou praxi výzvu
k jejich uchopení. Jsou výzvou pro svou dynamičnost i pro svou komplexitu. Proto je možné
považovat monografii, kterou v loňském roce vydalo vydavatelství Slovenské akademie věd, za
potřebnou a aktuální.
Vlastní monografie je rozčleněna do třinácti kapitol. První dvě kapitoly představují de facto obecný
teoretický a metodologický úvod do problematiky, rekapitulují zde východiska a hlavní principy
tvorby modelů. Třetí kapitola je věnována struktuře modelu dynamického systému a způsobu
zachycení časových zpoždění. Ve čtvrté až osmé kapitole se pak autor věnuje dalším aspektům
struktury modelů a výpočetnímu aparátu v modelech. Devátá kapitola se pak zabývá otázkami
hodnocení vhodnosti modelů.
Desátá kapitola přehledně uvádí jedenáct systémových archetypů. Archetypy představují opakovaná
chování sociálně ekonomických systémů. Upozorňují, že problémy, se kterými se konkrétní systém
potýká, nemusejí být nutně nové, ale už dříve popsané. Má-li pak systém řešit své problémy, je třeba
pochopit možnou patologii archetypu a následně vést „k praktickému uplatňovaniu systémového
prístupu v riadení (a viesť k „samoučiacej sa organizácii“)“. [1, str. 59].
Jedenáctá kapitola se detailněji věnuje vybraným modulům systémů, které se v diagramech modelů
složitých dynamických systémů zachycují jako opakující se stavební bloky opakovaní lidského
chování.
Následující dvanáctá kapitola tvoří těžiště knihy – příklady a simulace. To dokládá i svým rozsahem.
Šíře aplikací je značná: od modelu firmy (růstu jejího trhu) a výrobně-odbytového systému, modelu
výroby součástek a pohybu (zde je uvedena řada simulací), přes modely řízení realizace projektů,
modely chování trhu, modely růstu městské populace až k modelování ekonomických cyklů a
modelování ekonomického chaosu.
Poslední třináctá kapitola pak přináší autorův pohled na perspektivy používání modelů a popsaných
přístupů.
Publikace je doplněna CD, a to je nutně velmi pozitivně ohodnotit. Umožňuje s pomocí softwaru
Powersim uživatelům provádět laboratorní simulační experimenty a interaktivně formalizovat
představy o parametrickém chování objektu v dynamických souvislostech.
124
Němcová
Monografie je napsána čtivým, srozumitelným odborným jazykem a rozsah tří set stran je úměrný cíli,
který si autor předsevzal: předložit „ucelenú metodiku analýzy a syntézy sociálno-ekonomických
systémov“. [1, str. 8] Metodiku, která je založena na systémovém přístupu a je blízká reálné řídící
praxi.
Publikace je určena manažerům, kteří hledají ve své činnosti způsoby, jak více respektovat
dynamičnost a komplexitu procesů a organizací, které řídí. A je také určena vysokoškolským
studentům jako učebnice. Knihu je ale možné doporučit všem, kteří se zajímají o systémový přístup.
SEZNAM POUŽITÝCH ZDROJŮ
[1]
PRNO, I. Dynamika sociálno-ekonomických procesov : simulovanie dynamiky v sociálnoekonomických systémoch. Bratislava: Veda, 2012. ISBN 978-80-224-1250-6
Acta Informatica Pragensia
2(2), 2013, 125–142, DOI: 10.18267/j.aip.30
Online: aip.vse.cz
Sekce / Section:
Zamyšlení / Reflections
(In)formování sociálních systémů
Miloš Vítek1
1
Filozofická fakulta, Univerzita Hradec Králové,
Rokitanského 62, 500 03 Hradec Králové
[email protected]
Abstrakt: Původní orientace systémového inženýrství na tvrdé technologické
systémy dosud převládá. Je ale nutná pokročilá pozornost k navrhování sociálně
kulturních systémů. Pojem sociálního systému je dobře znám z 20. století z prací
Parsonse, Luhmanna, Habermase, Bourdieu, Foucaulta aj. Příspěvek vybírá několik
základních myšlenek o sociálních systémech podle filosofie a sociologie
modernity. Záměrem je aktualizovat systémové inženýrství a více je zapojit do
systémových studií v České republice. Jedná se o teze k 45. ročníku konference
Systémové inženýrství (SYSIN 2014).
Klíčová slova: filosofie; sociologie; systémový přístup; systémové inženýrství;
sociální systémy; informatika.
Title: (In)formation of social systems
Abstract: The original orientation of Systems Engineering on hard technological
systems is still prevailing. But an advanced respect to a design and redesign of
sociocultural systems is necessary. The notion of the social system is well known
since the 20th century from excellent works of Parsons, Luhmann, Habermas,
Bourdieu, Foucault, etc. The contribution selects some fundamental ideas on social
systems from philosophy and sociology of modernity for the purposes of an
up-to-date Systems Engineering and it shows their incorporation in significant
system studies on design of sociocultural systems in the Czech Republic. This is
thesis of the 45th Conference on Systems Engineering (SYSIN 2014).
Keywords: Philosophy, Sociology, Systems Approach, Systems Engineering,
Social Systems, Design, Information
126
Vítek
ZAMYŠLENÍ
„Je užitečné tvrdě pracovat, aby měl člověk dostatek,
avšak je hloupé pracovat tvrdě, aby měl člověk více než dostatek.“
Herman Daly, emeritní profesor Fakulty veřejné politiky, University of Maryland
„Když přestaneš cestovat, dorazil jsi k cíli.“
japonské přísloví
„Já jsem především zklamán z toho,
že ta většina, která rozhoduje u voleb, má mentalitu čtenářů bulváru.
Ta úroveň se dá zlepšit jen neustálým pomalým vzděláváním.“
Zdeněk Svěrák
1 ÚVOD
Podle psychologů dostatek informací nestačí k lidskému jednání, protože neověřitelnost informací
umožňuje manipulaci („překrucování faktů ve prospěch původců informací“). Ani systematické
informace ještě nedovolují svobodné a správné rozhodování a jednání, spíše nás od něho vzdalují.
V příspěvku se snažím prohloubit chápání CELISTVÉ INFORMAČNÍ PRÁCE až za obvyklé
představy. Vychází mi závěrem, že kromě technologické a psychologické praxe potřebujeme ještě
sociologii a filosofii.
Připomenutá psychologie (jmenovitě Carl Gustav Jung) nás vybízí, abychom nezůstávali dětmi - ve
smyslu, že potkáváme jen lidi nedospělé, že děti mají děti, děti učí děti atd., nýbrž abychom směřovali
k probuzení, dospělosti a bdělosti, která se anglicky nazývá awareness (též: „citlivost k podmínkám,
okolí a vývoji“). Ve skutečnosti se nám probudit nechce, jsme zamilovaní do svých iluzí, nechceme
radikální změnu, ale jen krátkodobou úlevu, jsme lstiví a vychytralí, hrajeme divadlo. Učme se však
vidět pravou hodnotu věcí a pochopit ji. Jde spíše o snahu naslouchat než o pohodlnost přejímat už
hotové myšlenky. Žádná myšlenka nemůže totiž adekvátně popsat skutečnost, pravda se zjevuje až na
konci nesnadného procesu. V něm musíme přezkoumat všechno a kriticky přistoupit ke všemu, čemu
věříme. Než začneme věci napravovat, pokusme se je pochopit. Tedy nikoli věci komentovat,
posuzovat, zasahovat do nich, jen jim porozumět, radí obvykle na úvod psychologové.
Nevědomý život je mechanický, naprogramovaný1, manipulovaný. Někteří lidé se celý život nemění,
vy víte, co vám odpoví. Posloucháte je, ale důležitější je poslouchat sám sebe. Vaše bdělost je lampa,
osvětlující celý prostor, jste otevřeni všemu (angl. self-reference značí sebevztažnost, autoreferenci).
Např. dobrý řidič auta je otevřen vůči čemukoli. Skutečnost je celistvá, zatímco slova a pojmy dělí
skutečnost na kousky. Myšlenky tříští vidění, tušení a prožívání skutečnosti jako celku. Abyste poznali
1
Setkáváme se s lidmi, kteří jsou naprogramováni na zahálku (zpravidla u televize), ale naopak také s lidmi,
naprogramovanými na hyperaktivitu. Ti únavu z práce překonávají zvýšeným nasazením, péči o zdraví přehánějí
v nesmyslných dietách, náboženství stupňují až k nesnášenlivosti s katolíky, nevěřícími a posléze se všemi lidmi.
Tak či onak, většina lidí je naprogramovaných jako stroje, se kterými lze zvnějšku manipulovat jako s věcmi, při
čemž ztrácejí soukromí a intimitu. Ve veřejné sféře (politice, správě) pak jsou většinovými vykonavateli totality.
Acta Informatica Pragensia
127
skutečnost, musíte poznat, co je za věděním. Někdy musíme projít neštěstím, abychom uvěřili, i když
toho víme příliš mnoho. Lidé celý život bojují, ačkoli mají mnohem víc, než je k životu třeba. „Sám
Ježíš Kristus nemohl pro mnohé své posluchače nic udělat“ (svatý Augustin). Jak zrušit své
naprogramování na peníze, úspěch, přátelství? Plně si uvědomte, že jste naprogramováni jako stroje!
Mezi věděním a chápáním, mezi informací a bdělostí je velký rozdíl. Nemůžeme spáchat nic špatného
v bdělosti, ale můžeme něco napáchat, přestože máme informace o tom, co je špatné. Nejsme si
vědomi co činíme, zapletli jsme se do znalostí a informací. Zaslepujeme sami sebe, vidíme něco jako
dobré, přestože víme, že je to špatné. Jsme vyzýváni k bdělosti, zvykněme si proto na drnčící telefon,
unavené nervy, volant v ruce – to je skutečnost, kterou prožíváme na vlastní kůži. Ve skutečnosti není
už kam jít, protože už tam jsme. Jsme dávno ve spojení se vším, co je, co právě probíhá, co probouzí
naši zvědavost (srov. Rob Dietz & Dan O´Neill, Enough is Enough, San Francisco: Berrett-Koehler
Publ., 2013, 240 stran).
Psychologie „pro pokročilé“ nabízí, co udělat pro změnu sebe sama. V prvé řadě je to vhled, který nás
zaměřuje na to, co právě je. „Systém je právě tak dobrý či špatný, jako ti lidé, kteří ho používají“
(Arrupe). Není třeba vyvíjet úsilí, potřebujeme vhled, pochopení a bdělost. Neustále svádíme nějaký
boj – a skoro nic nechápeme. Probuzená osoba netančí tak, jak píská společnost, nýbrž tančí na hudbu,
která vychází z ní samé. Naučte se vychutnávat stravu, kterou nabízí život: dobré jídlo, dobré víno,
dobrou vodu. Nehoňte se za umělými dráždidly. Zpomalte, ochutnejte, přivoňte, zaposlouchejte se, ať
se vaše smysly probudí. Existuje rozdíl mezi analýzou a bdělostí, mezi informací a vhledem.
Informace není vhled a analýza neprobouzí uvědomění. Vědomosti nevedou k uvědomění, tedy
k bdělosti. Máme informace, ale nejsme bdělí. I když máme všechny informace, které potřebujeme,
nejde o informace, jde o to, být si vědom skutečnosti. Pravdu postupně ochutnáváme a osaháváme, až
ji ucítíme, změníme se, dokud ji ale máme jen ve své hlavě, nezměníme se.
Vhled (angl. insight, též: „vnitřní či mentální vidění, náhlý vjem celého řešení, proniknutí až
k porozumění“), nikoli analýza. Vhled nepředpokládá nutně analýzu. Zážitek „aha“ - o ten hlavně jde,
to je vhled. Navíc platí charisma, jehož nositelé nedělají jen určitou práci, ale jsou pro takovou práci
stvořeni. Poslouchat jejich slova působí jako zjevení, jsou to svatá slova. Své studenty můžeme zkazit
tím, že naděláme specialisty z lidí šťastných, milujících, jednoduchých a bezelstných. Nechme raději
žáky, aby sami formulovali svého hodnoty a věřme, že budou dobré a sociální. Buďte spolu se žáky ve
spojení s přírodou, se zajímavou prací, v rozhovorech o věcech vám blízkých. Nezůstávejte u
prázdného a bezduchého života, který se živí popularitou, uznáním a chválou, začněte se živit něčím
jiným a mnohem výživnějším, krátce řečeno: duchovním. „Moudrý se spokojuje dosažením výsledku“
(Lao-c´). Nenechte své duše zemřít. To je program na celý život (srov. Anthony de Mello, Bdělost,
Brno: Cesta, 2004, 223 strany).
Předložený text exponuje problematiku výroční 45. vědecké konference o systémovém inženýrství.
S pravidelným vydáváním edice SI začala Ústřední skupina systémového inženýrství (vedl ji doc. Ing.
Zdeněk Dráb, CSc., autor patřil k jejím členům) na Komitétu aplikované kybernetiky (KAK)
Československé vědecko-technické společnosti (ČSVTS) v Praze od roku 1969. Po roce 1989 převzala
vydávání VŠCHT, později Univerzita Pardubice (v té době jsem tu byl děkanem FÚS [5 a 6]). Dále
navazuji na tituly Budoucnost systémového vědění (2010), Systémové konflikty (2011), Systémy složité
a zjednodušené (2012) a Systémové inženýrství a informatika (2013), připravené Ústavem
128
Vítek
systémového inženýrství a informatiky na Fakultě ekonomicko-správní Univerzity Pardubice,
Studentská 84, 532 10 Pardubice.
V systémovém inženýrství dospíváme po padesáti letech k pojetí sociálně kulturních systémů
(sociocultural systems) [3]. Ty vycházejí ze systémů sociálních, o nichž pojednávala teorie systémů,
ale i filosofie a sociologie modernity ve XX. století [4], [7]. Pokládáme za užitečné zopakovat výběr
ze spektra mezinárodní literatury o sociálních systémech z hlediska jejich formování, aniž bychom
základní informace považovali mezi studenty a učiteli již za notoricky známé – spíše ze zkušenosti
soudíme, že také tu je potřebné „neustálé pomalé vzdělávání“. Praktickou potíž spatřuji v tom, že
„většinový“ volič, čtenář a student je spokojen s tím, co ví a jak myslí, a jen velmi malá menšina jich
skutečně touží po vyšší kvalitě jednání. Prostě: většina vystačí s neuspořádaností a chaosem levného a
rychlého internetu. A nadále si s Plavci-Rangers prozpěvuje „jsem rád, že jsem zůstal, jaký jsem“.
2 FORMULACE PROBLÉMU
Podíváme-li pozorně na jednotlivé články ve vědeckých časopisech a sbornících nejen v České
republice, zjišťujeme, že autoři téměř bez výjimky postrádají ucelený pohled na svět, v němž právě
zkoumají chemické sloučeniny, skupiny lidí, malé firmy apod. A přece historické, kulturní a
civilizační prostředí bude mít zásadní význam pro užití jejich zjištění, pro pozitivní přínos jejich
specializované vědecké práce. Abychom si ujasnili kvality celostného, či také holistického, respektive
syntetického pohledu na dnešní svět [5], shrneme si krátce myšlenky příkladu - dnes celosvětově
diskutované knihy o globalizaci Západu [2]. U nás setrváme spíše u liberálně demokratického
stanoviska Hayeka, Friedmana aj. (viz např. Ježek T. (ed.) Liberální ekonomie. Kořeny euroamerické
civilizace. Praha: Prostor, 1993).2
2
Připomeňme si: „Pojetí demokracie, které zastávali otcové zakladatelé [Jefferson, Franklin, Madison, Adams a
Washington], bylo utkáno ze čtyř myšlenek: 1/ politická demokracie záleží v široké účasti na společenském
rozhodovacím procesu… 2/ myšlenka osobních a občanských svobod … 3/ myšlenka rovnosti příležitosti … 4/
lidé by měli mít stejnou odměnu. Ústřední myšlenka americké revoluce byla velmi odlišná od hesla „svoboda,
rovnost, bratrství“, tvůrci americké ústavy byli mužové velmi pragmatičtí, na politickou demokracii se dívali
jako na prostředek k zajištění své osobní svobody. Jedním ze způsobů, jak se takového úkolu zhostit, je vytvořit
dogma o Novém člověku, který bude vaším stavebním materiálem… Demokracie je systém omezování moci,
včetně moci většin… tím, že se zabraňuje jakékoliv koncentraci moci, i v rukou většiny“ (Herbert A. Simon
(*1916), op.cit. 1983, Ježek str. 197-214).
„Intelektuálové jsou obchodníci použitými myšlenkami. Není to ani funkce původního myslitele, ani učence nebo
znalce. Typický intelektuál nemusí mít speciální znalost něčeho zvláštního, nemusí být dokonce ani zvláště
inteligentní, aby svou roli zprostředkovatele šíření myšlenek vykonával. Tato třída sestává z novinářů, učitelů,
ministrů, přednášejících, publicistů, rozhlasových komentátorů, spisovatelů a umělců, zpravidla jsou však
amatéry, pokud jde o podstatu toho, co se tlumočí. Jsou to intelektuálové v tom smyslu, že rozhodují, které
názory se k nám mají dostat… Učenec, který se stává rektorem univerzity, vědec, který dostává na starost ústav
přestávají být učenci nebo experty a posuzují všechny problémy pouze ve světle jistých módních obecných idejí.
Profesor Schumpeter zdůrazňoval, že je to nepřítomnost přímé odpovědnosti za praktické záležitosti... To, co
nám chybí, je liberální Utopie…dokud neuděláme z filosofických základů svobodné společnosti živý intelektuální
problém, jenž provokuje důmysl a imaginaci“ (Friedrich A. von Hayek (*1899), op. cit. 1949, str. 217-237).
Acta Informatica Pragensia
129
Celostnost pohledu autorů [2] pochází již z toho, že Hervé Juvin je především ekonom a Gilles
Lipovetsky filosof a sociolog. Jejich názory se logicky neshodují, mnohdy bývají až protikladné: u
Juvina spíše pesimistické, u Lipovetského spíše optimistické. Podívejme se ale podrobněji na jejich
v knize krystalizující světový názor (Weltanschauung). Podstatné mi připadá rozlišit zjednodušené a
složité v tomto světovém názoru. Zpravidla se soudí, že složité pochopíme prostřednictvím
zjednodušeného, přičemž jednoduché vystupuje jako přesvědčivý závěr [3]. Co ale předkládá
Lipovetsky, je zjednodušený výklad kultury, který dále překáží výkladu složitému, o nějž se snaží
Juvin. Nezískáme pak ani jednoduchý závěr jako výsledek.
Začněme zjednodušeným výkladem problematiky. Jsme svědky druhé globalizace (první proběhla od
šedesátých do začátku devadesátých let), kterou lze chápat jako kulturu nového typu, hyperkulturu či
podle Lipovetského [2, str. 17-112] světokulturu (culture-monde). Ta znamená revoluci ve sféře
informačních a komunikačních technologií, expanzi kulturního průmyslu (filmy, hudba, seriály,
sportovní utkání) sledujícího rentabilitu, marketing a komercializaci, sestup ducha do kulturního
kapitalismu s ekonomikou kreativních oborů výroby (značkové zboží, móda, turistika). Světokultura
posvěcuje dvě kosmopolitní ideologie – ekologii a ochranu lidských práv. Připouští modely jiné než
západní (multiple modernities), které se nakonec ubírají stejnými cestami variant modernosti.
Kultura byznysu všude vítězí, úspěch znamená totéž co peněžní zisk, komerčního umělce či vědce
charakterizují okamžité uznání, mediální proslulost a komerční úspěch. V umění je trh jednotlivých
států nahrazen globálním trhem, jehož ohnisky jsou dražební síně Christie´s a Sotheby´s s díly
Warhola, Rothka, Koonse, Bacona apod. Ke komercializaci kultury přispívají pobočky slavných
muzeí, např. v Abú Zabí pobočka Louvru. Divoké konzumerství šíří hypermarkety a obchodní centra
se širokou nabídkou. Konzumujeme stále více služeb a konzumujeme je všude, spotřebitelský
blahobyt je vytouženým snem pro téměř všechny lidi na zemi. Konzum přináší pouze celosvětovou
uniformitu, podobnost a stereotyp, tedy pseudouniverzalitu. Nekupujeme pouhé výrobky, jsme
spotřebiteli celebrit, které jsou pro hyperkonzumenty pevnými záchytnými body.
Hnací silou světokultury je věda a technika, tzn. „systém techniky“ (Jacques Ellul), s ničím
neomezovanou efektivitou. Ta připouští rozmanitost životních stylů a kult odlišnosti skupin a
jednotlivců. „Hodnota ducha“ (Paul Valéry) je však deklasována, slovo intelektuál má pejorativní
nádech, prodej knih z humanitních věd klesá, filosofičtí učitelé se skoro nevyskytují. Hodnotu ducha
nahradila zábava, sport, média, cestování a rychlé informace, je žádána kultura obrazu, těla a spotřeby.
Vysoká kultura sice není sesazena z trůnu, avšak publikum k ní zaujímá stejně uvolněný postoj jako ke
konzumaci toho nejobvyklejšího zboží. Tak se vysoká kultura proměňuje v intelektuální hrátky bez
reálného dosahu a hlubších emocí. Hypermoderní jedinec běhá po parku s ipodem v uších a cvičí jógu.
Světokultura se kryje s nástupem informační a komunikační společnosti pod nadvládou USA, její
sdělení jsou však v různých zemích přijímána různě. K největšímu počtu konfliktů nedochází mezi
civilizacemi, nýbrž uvnitř jedné civilizace (např. v arabském světě). Dochází ke kulturní odvetě
nadměrně konzumního světa, který už lidem nedokáže poskytnout žádný smysl života. Hypermoderní
doba spěje k deregulaci, rozkladu institucí a ztrátě záchytných bodů. Lipovetsky vidí východisko v
„kultuře dějin“, která nám pomůže lépe chápat svět, v němž žijeme. „Lidstvo musí zmobilizovat
aktivní schopnosti každého jedince a dát tvůrčím talentům možnost uplatnění… Z toho hlediska
musíme kulturu chápat jako oblast, která má lidem otevírat nové horizonty, podněcovat v nich silné
130
Vítek
emoce a nést je za hranice pouhého konzumního životního stylu. Takový by měl být i hlavní humanitně
sociální úkol školství. Hlavním posláním školy a kultury je člověku poskytovat návody, jak překonat
sám sebe, kultivovat v něm bohaté a činorodé emoce a probudit tvůrčí představivost“ [2, str. 99].
Vcelku to znamená proces moderní racionalizace všech národů, celosvětové kosmopolitizace a
rozšíření univerzalistických tendencí, které vyšly ze západní civilizace.
Vidíme, že zjednodušené pojetí dnešního světa a jeho kultury se nakonec rozplývá do neurčitých, byť
ušlechtilých, rad a doporučení, o jejichž naplnění musíme vážně pochybovat. Nezbytné je proto
poohlédnout se po složitém pojetí, jehož nejbližším příkladem je výklad Hervé Juvina na následujících
stránkách [2, str. 113-115]: „Kultura se potí, vrhá stín a rezaví omývána kultem bratrství, solidarity,
usmířeného lidství. Kultura je to, co vrže a skřípe v precizním soukolí továrny na spokojenost, výrobu
veřejného mínění, souhlas a rezignaci… Co znamená kultura oproštěná od náboženství? Co je to za
kulturu, která opomíjí sakralitu? Čím je krásno, které už nepromlouvá o nebesích?… pozorujme
rostoucí konformitu životů, ovládaných technickými vymoženostmi, slavnými značkami a předem
dohodnutými odlišnostmi. Podřizování kultury právu, pravidlům a diktátu užitečnosti je projevem
situace, v níž se má kultura stát nástrojem čehosi jiného, co stojí pod ní nebo co je přímo nekulturní…
Světokultura je jiné jméno pro ekonomizaci, která volá muže a ženy, aby vydali svůj užitek. Vládne
lest, úskok a záliba v novém a neslýchaném. Pochválíme mobilitu, kosmopolitismus se promění
v mravní princip, osobní zájem posvětíme individuálními právy a trik je hotov. Kultura dnes stojí na
roveň věcem, které se vyrábějí, a věcem, které se prodávají, protože patří mezi věci, které se počítají.“
Tak je světokultura kulturou zmatení, kdy mluvíme o univerzalitě, ačkoli míníme pouhou uniformitu
jako redukci kultur na ekonomii. Světokultura je (neo)liberálním projektem, zbaveným dědictví
dřívějších kultur a prosazujícím se třemi způsoby: 1/ míříme k jednotě (horečně se snažíme dojet
někam jinam, kde už ale žádné jinde není); 2/ jsme svědky překonání kolektivních struktur ve jménu
lidských práv (tzn. práv absolutního individua); 3/ na řadu přichází tvrdá revize skutečnosti (hudba,
malířství, film, literatura, filosofie i teologie žijí nebo přežívají jen jako způsoby trávení volného
času). „Neboť světokultura je jen výkladní skříň, špatně zastírající ničení světa. Je fikcí, která se zatím
drží při životě, představuje scénu, již brzy rozmetají její neskončené tirády … přichází období po
světokultuře“ [2, str. 167]. Kultura a globalizace tak jsou ostré protiklady: kultura je pojmenováním
něčeho singulárního, světokultura vzývá uniformitu - a ze všeho nejvíc připomíná podvod, díky němuž
obchodník může obchodovat s kulturou stejně jako s otroky, ženami, lidskými orgány nebo dětmi
k adopci. „Pod zástěrkou dominantního kosmopolitismu se prosazuje implicitně totalitní projekt:
individuum zbavené všeho, co z něj činilo osobu, je podrobeno kontrole liberální ideologie“ [2,
str.192]. Tak jako v celých dějinách lidstva se náprava neobejde bez individuální vzpoury proti
manipulaci („překrucování“).
H. Juvin očekává, že lidstvo se od liberálního modelu obrátí k tzv. politice života, která má tyto znaky:
1/ dochází k překonání tradiční ekonomie (opírala se o mezinárodní srovnání a kritéria rozvoje,
tématem se stanou nedostatek, přežití a základní bezpečnost); 2/ přichází renesance územní
svrchovanosti (politika přežití bude výlučně politikou obce a územní správy – srov. též [6]); 3/
dospíváme k úpadku samotné víry v ekonomii (v důsledku mravní a existenční úzkosti); 4/ nastává
zápas o moc (vzpoura vykořeněných a izolovaných jednotlivců a národů); 5/ návrat nedostatku
světokulturu nakonec smete (naše nové barbarství přineslo přizpůsobivost, normy, práva, ignoranci a
Acta Informatica Pragensia
131
lhostejnost, proti tomu „plnou silou se vrátí smrt, utrpení, násilí, vášeň, poezie a zodpovědnost“ [2, str.
173-175]).
Zaměřme se ještě na pojetí sociálních systémů u některých významných sociologů XX. století.
Výchozí pojmy lze nalézt u Maxe Webera (1864-1920), Émile Durkheima (1858-1917) a Talcotta
Parsonse (1902-1979), i když jejich názory prošly dlouhodobou kritikou, opravami a rozšířením. Tak
Émile Durkheim ukázal, že modernita definuje komplexní společnost, složenou z různých skupin, a
navodil problematiku sociální diferenciace a integrace (Společenská dělba práce, Brno: CDK, 2004;
orig. 1893). Patologické sociální diferenciace shrnul pod názvem anomie, tu charakterizoval též jako
„nemoc z nesmírnosti“. Nesoulad mezi individuálními potřebami a sociálními možnostmi může lidi
dohánět až k sebevraždě. Sociální integraci podle něho podporují individuální a společné normy, které
prosazují zejména výchova a náboženství. Předpokládal určitý soubor společně uznávaných hodnot,
které se zapojují do vytyčování vlastních cílů. Tento kulturní rámec nikdy zcela nenařizuje, jak se
chovat. Hodnoty jako normy a role působí pouze jako omezení výběru.
Rostoucí sociální diferenciací, integrací a koordinací mezilidských interakcí se zabýval Talcott
Parsons tak, že mu vyšla koncepce jednoty moderní společnosti jako sociálního systému, směny
v rámci systémů a socializace jako postupného zapojování jedince do systémů sociální interakce.
V systému jednání jsou prvky: aktér, cíle, situace a zvláštní vztahy mezi těmito prvky. „Sociálno jako
strukturovaný systém je dáno dřív než jakákoli forma jednání“ (The Structure of Social Action,
Glencoe/Illinois: The Free Press, 1949, str. 44). Smysl situace a jednání přesahují vždy individuálního
aktéra a vyžadují koordinační mechanismy. Podstatné je, že sociální řád nemůže být jen nahodilým
výsledkem preferencí konatelů, ani nemůže být stabilní bez jistých normativních prvků. Vcelku se
Parsons staví proti analytickým přístupům utilitarismu a positivismu. Problém řádu spatřuje ve spojení
psychologizující teorie motivace a teorie strukturálního chování sociálních systémů. K tomu rozvíjí
teorii čtyř funkcí (AGIL – Adaptation, Goal attainment, Integration, Latence), teorii médií směny
(peníze, moc, vliv a působení hodnot) a teorii socializace jako předpokladu integrace společnosti
(matka a dítě, otec a rodinný systém, škola a párová skupina). Při systémové koordinaci společnosti
pojímá modernizaci jako kybernetické schéma ve službách skutečného kulturního determinismu.
Modernizace postupuje přes narůstající rozdělování aktivit, až nakonec každý prvek plní novým
způsobem specializovanou funkci v novém, komplexnějším a hierarchizovanějším systému
(Společnosti, Praha: Mladá fronta, 1971).
O společnostech málo a vysoce diferencovaných pojednal Pierre Bourdieu (1930-2002). Přispěl
k vytvoření modelů transhistorické analýzy jako způsobu relačního myšlení, které lze aplikovat
strukturálně na různé společnosti a různá období a to s cílem odhalit transhistorické konstanty vztahů.
„Evoluce společnosti směřuje k tomu, že se objevují univerza (která nazývám pole), jež mají vlastní
zákony a jsou autonomní … vše, o co v nich jde, posuzují podle kritérií, která nemohou být překonána
pravidly jiných světů“ (Raisons practiques, Paris: Seuil, 1994, str. 159). Do středu své sociální vize
staví model souvislosti mezi sociálními pozicemi a individuálními dispozicemi. Zde zvyk (habitus)
uchovává ontologickou spoluúčast, neuvědomělou znalost, nezáměrnou intencionalitu a praktické
zvládání regulérností světa. Habitus je definován systémem trvalých a transponovatelných dispozic,
předurčených k činnosti jako struktury strukturující. Habitus je přijatou sociální strukturou, která
obsahuje veškeré dějiny pole, je systémem trvalých dispozic. Ideálem je představa domova, v němž
jsou všechny dispozice v souladu s pozicemi. Zatímco v tradičních společnostech převažuje
132
Vítek
symbolický kapitál a stát se odpradávna jeví jako zásoba symbolického kapitálu, podle něhož jsou
strukturovány populace i myšlení, v moderních společnostech ekonomický kapitál převažuje nad
kapitálem symbolickým, sociálním a dokonce i nad kapitálem kulturním. Kodifikace je zásadní,
protože zabezpečuje minimální komunikaci. V poli moci vystupuje pojetí sociální dominance jako
neviditelná struktura, která organizuje chování aktérů a je téměř mechanicky prováděna v řádu věcí.
Na Parsonse tvořivě navázal Niklas Luhmann (1927-1998) popisem integrace moderní společnosti,
která zůstává silně nahodilou a nikdy ne zcela stabilizovanou. Diferenciace vede k nárůstu schopností
vlastních každému (pod)systému a možností koordinace mezi různými systémy. Nahodilost sociálního
života znamená, že individuální možnosti i interakce se mohou odehrávat pokaždé jinak, tj. vždycky
existují ještě jiné možnosti. Komunikace se zakládá na rozlišení Ego a Alterego, což nemusí být různé
osoby: každý systém dělá, co chce ten druhý, pokud ten dělá, co chce ten první. Schopnost zacházet
s informacemi umožňuje pozorovat druhého jako systém v prostředí, uchopit jeho autoreferenční
formu na základě vlastního pozorování. To, co se pozoruje, je vznikající řád, totiž sociální systém,
přičemž nahodilost se stává zcela sociální. „Sociální řád vzniká ze vzájemného pozorování
uskutečňovaného autoreferenčními systémy“ (Soziale Systeme: Grundrisss einer allgemeinen Theorie,
Frankfurt: Suhrkamp, 1984; česky Sociální systémy, Brno: CDK, 2006, str. 123). Luhmann zachytil
posun systémového paradigmatu od uzavřených systémů k systémům otevřeným a dále k systémům
autopoietickým, které si uchovávají svou identitu navzdory transformacím díky tomu, že si definují
vlastní informaci. Rozlišil autoreferenční systémy žijící (buňky, mozek, organismy), psychické a
sociální. Nesmírná komplexita prostředí dnes vyžaduje, aby se systém soustředil pouze na určité
případy. Prvotní funkcí systému je redukce komplexity jeho okolí. Uzavřenost autoreferenčního
systému má v sobě možnost otevřít se čili každý systém si autonomním způsobem upravuje vztah
závislosti či nezávislosti na okolí. Na operační úrovni pak není žádný kontakt s okolím.
Vzhledem k autopoietickému /“sebe-tvořivému“/ charakteru autoreferenčních /“sebe-vztažných“/
systémů je komunikace velice nejistá a vždy nahodilá. Utváření (formation) systému v sobě zahrnuje
komunikaci a vylučuje vše ostatní: každý systém vytváří to, co si vybral za svou informaci.
Horizontem všech možných komunikací je společnost ve své úplnosti. Jsou tu tři typy komunikačních
médií: jazyk, distribuční média a komunikační média. Evoluce sociálních systémů je umožňována
diferenciací okolí od systému, přičemž každá změna v systému způsobuje změny v okolí. Narůstající
komplexitě společnosti odpovídá nárůst diferenciace systémů, systém se opakuje a zjednodušuje
v rozmanitosti rozdílů systém-okolí. Moderní společnost je diferencována především funkcionálně. Ve
vysoce složité společnosti už není možné centrální řízení, neboť nemá schopnost synchronizovat
množství různých procesů. Přesto je moderní společnost hyperintegrovaná, když autopoiesis umožňuje
každému dílčímu systému zajistit si vlastní řízení. Narůstající diferenciace se může projevovat
nárůstem počtu nepravděpodobných situací. „Komplexita v daném smyslu znamená selekční tlak,
selekční tlak znamená kontingenci /omezení/ a kontingence znamená riziko“ (op.cit., česky str. 39).
Koncept rizika v moderní společnosti není pozorováním prvního řádu, ale spočívá na rekonstrukci
fenoménu ze všech hledisek nahodilosti (Soziologie des Risikos, Berlin-New York: de Gruyter, 1991).
Složitost modernity vyžaduje od jedinců, aby rozvíjeli novou formu důvěry v systém, se kterou souvisí
jistý nezájem o přísnou kontrolu výsledků a posílení sebekontroly. Sociální integrace přestává být
normativní a založená na nějaké institucionalizaci, více spočívá na kognitivních schopnostech členů.
Po opuštění teorie společnosti založené na socializaci se do společnosti dostává nahodilost, kdy
pozorování uskutečňujeme pokaždé z jiné perspektivy. V podmínkách této nahodilosti sociálního
Acta Informatica Pragensia
133
života může být integračním principem trh, ovšem nikoli v neoliberálním pojetí absolutizovaných
jednotlivců, nýbrž v původním sociálním pojetí Herberta Spencera [4, str. 150].
Při studiu politického systému zůstává aktuálním vklad Maxe Webera, třeba tím, že sice nešetřil
chválou německé byrokracie, ale vnímal vážné nebezpečí z nedostatku skutečného politického vedení.
V této situaci přisuzoval zvláštní úlohu parlamentnímu systému, aby chránil individuální svobody
proti narůstající byrokratizaci a také proto, aby podpořil rozvoj politické třídy, z níž vyjdou opravdoví
vůdci. Důležité je rozlišení úředníka a politika: „Úředník myslí na svou kariéru, na svůj plat a
postavení, na profesní legitimitu svých schopností přesně aplikovat nařízení, bez ohledu na to, jaká
jsou a co si o nich myslí. Politik se naopak žene za mocí a zodpovědnou funkcí, chce uplatnit své
myšlenky svým osobním bojem. Jeho život je založen na získávání spojenců k tomu, aby mohl provádět
svou politiku … Je tedy schopen odpovědně a s nasazením čelit nevyhnutelným konfliktům“ [4, str.
179]. Tato slova si můžeme domyslet pro vztah administrátora vědy a vědce jako realizátora
odpovědné a realistické vědní politiky. Na Maxe Webera dnes navazuje jmenovitě Anthony Giddens
(*1938). V knihách Politics, Sociology and Social Theory, Stanford University Press, 1995; Důsledky
modernity, Praha: SLON, 2003 (orig. 1990); Modernity and Self-Identity, Cambridge: Polity Press,
1991 aj. ukazuje na nesmírné možnosti, které modernita skýtá.
3 METODA
K problematice složitosti (complexity) máme nyní k dispozici české vydání významného díla filosofů
Gillese Deleuze (1925-1995) a Félixe Guattariho [1], když originál z roku 1980 z francouzštiny
přeložil Miroslav Petříček (autor Úvodu do současné filosofie, Praha 1997). Do myšlení o složitosti
zavádějí některé nové, resp. obnovené pojmy: plošina, rhizom, stratum, konzistence, abstraktní stroj
aj. Pokusíme se naznačit chápání těchto pojmů, např. jak státní správa v technologickém věku nabývá
charakteru abstraktního stroje. Také naším výkladem se bude prolínat nadtitul [1], totiž Kapitalismus a
schizofrénie, neboli rozpolcenost veškerého nazírání. „Neexistuje žádný univerzální kapitalismus o
sobě, kapitalismus stojí na křižovatce všech možných formací, jde v podstatě o neokapitalismus –
vymýšlí si svou východní i západní tvář, své přetvoření obou – směrem k nejhoršímu“ [1, str. 29].
Knihu [1] napsali její autoři jako rhizom a sestavili ji z plošin (viz Úvod str. 32). Slovo „plošina“
zavedl systémový vědec Gregory Bateson k označení „souvislé, v sobě samé vibrující oblasti intenzit,
jejíž rozvoj se vyhýbá jakékoli orientaci k nějakému bodu kulminace nebo vnějšímu cíli“ (str. 31).
Autoři „plošinou“ nazývají každou multiplicitu, která může být s ostatními spojena vnějšími
podzemními stonky, až vzniká „rhizom“ a může se rozšiřovat. Shrnují: „RHIZOMATIKA =
SCHIZOANALÝZA = STRATOANALÝZA = PRAGMATIKA = MIKROPOLITIKA“, což vysvětlují (str.
32) tak, že věci nevnímají od kořene, ale zprostředka, neshlížejí k nim ani nevzhlížejí, nevnímají je
zleva doprava ani naopak. „Tvořte rhizom, a ne kořen, nikdy nesázejte! Nesejte, pěstujte odnože!
Nebuďte jedním, ani mnohým, buďte multiplicitami! Kreslete linii, a nikdy ne bod! Buďte rychlí, i když
stojíte na místě! Linie štěstí, linie boků, linie úniku! Tvořte mapy, a ne fotografie! … Rhizom nezačíná
ani nekončí, je vždy ve středu, mezi věcmi, mezičlánek, intermezzo. Strom, to je příbuzenství, ale
rhizom je spojenectví: vycházet ze středu, procházet středem, přicházet a odcházet, spíše než začínat a
končit … proud bez začátku i konce, podemílající oba břehy a nabírající rychlost uprostřed“.
134
Vítek
„Strata“ jsou fenomény zhuštění na těle země, zároveň molekulární (vnitřně obsahované) a molární
(zvnějšku vytvořené): nakupeniny, sraženiny, usazeniny. Tradičně rozlišujeme tři velká strata:
fyzikálně chemické, organické a antropomorfické (neboli aloplastické). Stratum je artikulací z
(formovaných) substancí a (kódovaných) prostředí – formy, substance, kódy a prostředí jsou
abstraktními složkami každé artikulace. Seznam strat není nikdy vyčerpán, jsou pohyblivá a lze je
mísit. „Stratifikace je tvoření světa z chaosu, kontinuální, obnovované tvoření. Klasický umělec je jako
Bůh, který tvoří svět tím, že uspořádává formy a substance, kódy a prostředí, rytmy“ [1, str. 574].
Artikulace je uchopením obsahu a výrazu, mimo strata nemáme obsah, ani výraz, ani vývoj.
Destratifikace vede do chaosu, destrukce a prázdnoty.
Ve stratech tvoříme „uspořádání“ tak, že z prostředí vybíráme teritorium. Teritoriální uspořádání je
pro člověka domovem s jeho charakteristickými vlastnostmi. Teritorium přitom překračuje prostředí,
organismus i prosté chování. V uspořádání se výraz stává sémiotickým systémem (režimem znaků) a
obsah pragmatickým systémem (činnostmi a trpnostmi). Každé uspořádání se dělí na strojové
uspořádání (co se dělá?) a na uspořádání vypovídání (co se říká?). Uspořádání se dělí taktéž podle linií
deteritorializace, které teritoriální uspořádání otevírají a vedou do jiných uspořádání, případně zavádějí
uspořádání do abstraktních strojů. Vcelku je tedy uspořádání tetravalenční: obsah a výraz; teritorialita
a deteritorializace, což platí mimochodem i pro uspořádání v dílech Franze Kafky, předního znalce
byrokracie. Pro jiné umělce je důležité, že nejen strata, ale i uspořádání jsou soubory linií, kde linie je
podřízena bodu, linie tvoří obrys a rýhovaný prostor (v případě rhizomu jde však o hladký prostor
s multiplicitami stávání se a transformací). Máme též linie úniku, které se mohou zvrátit v linie smrti a
destrukce (fašismus). Brutalita končí bez vítěze.
Protikladem roviny uspořádání a vývoje je rovina „konzistence“ či složení, která nezná substanci a
formu, ale spočívá abstraktně ve vztazích rychlosti a pomalosti mezi nezformovanými prvky.
Konzistence vlastně provádí konsolidaci, když jedná uprostřed, skrze střed a proti finalitě, unifikaci a
totalizaci (viz díla Spinozy, Kleista, Hörderlina, Nietzscheho).
Plošiny tu připomínají těla bez orgánů, produkující intenzity, stávání se a hladký prostor. Tuto linii
sleduje nomádské umění a putující kovodělnictví. „Je ponecháno, zachováno a tudíž tvořeno a jako
jediné zůstává to, co zvyšuje počet spojení“ [1, str. 579].
Vrátíme se k pojmu „deteritorializace“ jako pohybu, jímž se opouští teritorium po linii úniku, která
může končit až ve všeobecné černé díře (katastrofou). Může být kompenzována reteritorializací, která
zatarasí linii úniku a nahrazuje ztracené teritorium. „Například není správné říkat, že státní aparát je
teritoriální: ve skutečnosti provádí deteritorializaci, která je okamžitě překryta reteritorializacemi na
vlastnictví, práci a penězích (vlastnictví půdy pochopitelně není teritoriální, ale reteritorializující) …
můžeme deteritorializaci nazvat tvůrkyní země – nové země, světa, a nikoli pouze reteritorializace“
[1, str. 580].
Na ostří dekódování (např. individuace) a deteritorializace (např. dewesternizace) působí “abstraktní
stroje“, které otevírají teritoriální uspořádání vůči uspořádání molekulárnímu, kosmickému, a utvářejí
stávání se. Neznají formy a substance, v tom spočívá nejen abstraktnost, ale i přesný smysl stroje:
„Abstraktní stroje se skládají z nezformovaných látek a neformálních funkcí … na technologické
rovině ukazující jenom diferenciální rovnice nebo obecněji tenzory“ [1, str. 582]. Uspořádáním a
konzistencí se zabývá schizoanalýza, která není pouze kvalitativní analýzou abstraktních strojů
Acta Informatica Pragensia
135
vzhledem k uspořádáním, ale také kvantitativní analýzou uspořádání ve vztahu k domněle čistému
abstraktnímu stroji. Jako typy abstraktních strojů se rozlišují abstraktní stroje konzistence, stratifikace,
překódování a axiomatické, např. stroj na zotročení překódovává nebo axiomatizuje zemi.
Samotný abstraktní stroj není fyzický, není ani sémiotický. Je diagramatický, tj. funguje na základě
látky, nikoli substance, prostřednictvím funkce, nikoli formy. Abstraktní stroj je čistá Látka-Funkcediagram nezávislý na formách a substancích, výrazech a obsazích. Diagram si tu uchovává
nejdeteritorializovanější obsah a výraz. Funkcí diagramatického stroje je tvořit reálno budoucnosti,
nový typ reality. Když konstituuje body tvoření nebo potenciality, není mimo historii, ale spíše před
historií. Prostřednictvím abstraktního stroje vše uniká a vše se tvoří. Abstraktní stroje mají svá jména a
data, deteritorializace hlasu a nástroje je vyznačena abstraktním strojem-Wagnerem, abstraktním
strojem-Webernem atd. V matematice a fyzice se mluví o abstraktním stroji-Riemannovi, o
abstraktním stroji-Galoisovi atd. Diagram zná pouze rysy a body, jež ještě patří k obsahu, výraz
konstituuje indexy, ikony a symboly. Specielně, axiomatika „místo aby rýsovala tvořivé linie úniku a
spojovala rysy pozitivní deteritorializace, všechny linie blokuje, podřizuje je bodovému systému a
zastavuje algebraické a geometrické zápisy, aby se rozbíhaly do všech stran. To se stalo v případě
indeterminismu ve fyzice: byl znovunastolen řád, došlo ke smíření s fyzikálním determinismem
(Hilbert, Broglie). Věda tak jako všechno ostatní má v sobě šílenství stejně jako nastolování a
znovunastolování řádu. Tentýž vědec může svým šílenstvím a pořádkem participovat na obou
aspektech. Vědecká politika označuje tyto proudy uvnitř vědy, vedoucí k atomovým bombám,
kosmickým programům atd. Je v ní odhodlání zastavit, nahradit diagram usazením se na úrovni
strnulé abstrakce… Všechny metody trancendentalizace jazyka, Russellovou logikou počínaje a
Chomského gramatikou konče, upadají do té nejhorší abstrakce. Proto pragmatika není doplňkem
logiky, syntaktiky a sémantiky, ale naopak základním prvkem, na němž závisí vše ostatní“ [1, str. 165170]. Jinak dochází k aroganci a izolaci vědce, filosofa i umělce.
Zvláštní pozornost zasluhují válečný stroj a státní stroj, které se rozvíjely paralelně s tím, že „násilí
válečného stroje se může jevit mírnější a jemnější než násilí státního aparátu … Mýtus přízraku,
živého mrtvého, je mýtem práce, nikoli války. Státní aparát potřebuje mít na vrcholu a ve svém
základu předem handicapované, preexistující zmrzačené nebo mrtvě narozené, vrozeně postižené,
jednooké a jednoruké“ [1, str. 486]. Buď stát válečný stroj nemá (má policisty a žalářníky spíše než
vojáky) nebo nemá válečný stroj ve formě vojenské instituce nebo veřejné funkce. Stejně jako
soukromé vlastnictví přepokládá veřejné vlastnictví státu či předpokladem měny je daň. Stát je vždy
předpokladem, už nejstarších společností, kde se rodí dospělý a povstává náhle, již za neolitu, nikoli
evolucí, nýbrž jako nepodmíněný Urstaat (již Aristoteles v Politice upozorňoval, že celek existuje dřív
než části). Prastát se projevuje jako systém „strojového zotročení“ neboli první megastroj (Lewis
Mumford).
„Společenská uspořádání definujeme strojovými procesy, a nikoli způsoby výroby“ [1, str. 498].
Mezinárodní jednotící organizace neroste z jediného centra, nýbrž rozrůstá se jako rhizom. Tvoří
prostředí prostředníka mezi různými koexistujícími řády – ekonomickými, komerčními,
náboženskými, uměleckými atd. Proto mj. neexistuje ekonomická teorie mezinárodních vztahů,
protože ty spočívají na heterogenních útvarech. Stát má jako aparát zajetí přivlastňovací sílu,
podřizující si jiné procesy. K nim patří procesy městské. „Město je korelátem cesty. Existuje jen
v závislosti na dopravě a okruzích. Definují ho vstupy a výstupy, je nutné, aby do něho něco
136
Vítek
vstupovalo a něco vystupovalo. Je to síť, protože je fundamentálně ve vztahu s jinými městy. Městská
moc vymýšlí ideu úřadu, velmi odlišnou od státní byrokracie. Ale kdo dokáže říci, kde je větší
občanské násilí?“ [1, str. 495]. Proti městské moci, založené na komunitě občanů tvořících pravou
polis, je centrální moc hierarchická a konstituuje byrokracii, kde moc je nahoře a dolů postupuje
podřízenost. Každý stát je globální (nikoli lokální) integrací. Lokální integrace měst tvoří síť měst,
která se nekryje s mozaikou států, například komunita hanzovních měst existovala bez byrokratů, bez
armády a bez legálního statutu. Jak řekl Braudel, „jsou tu pokaždé dva běžci, stát a město, a stát
obyčejně vítězí“ [1, str. 497], když násilně a s instinktivní náruživostí města zkrotil.
Stát nás drží v zajetí, dovozují Deleuze a Gauttari, a to prostřednictvím tří mechanismů: renty, zisku a
daně. Renta diferenční a absolutní se vztahuje k půdě a jejímu vlastníkovi, zisk plyne z práce a
nadpráce, připadá podnikateli. Daně pocházejí ze srovnání zboží a monopolistického přivlastňování
peněz jako prostředku srovnání. Jinak řečeno: práce vždy předpokládá nadpráci, diferenční renta rentu
absolutní, obchodní peníze daň. Model aparátu státního zajetí popisuje operace srovnání a přivlastnění.
„Státní násilí má zvláštní charakter: je obtížné je určit, protože se vždy prezentuje jak dané“ [1, str.
512], tak je současné vlastnictví dáno původní akumulací. Navíc tu je jakási ritualizace násilí: „státní
policie nebo právní násilí spočívá v tom, zmocnit se a zároveň vytvořit právo zmocnit se“ [1, str. 513].
V právním státě (Rechtstaat) právní násilí přispívá k vytvoření toho, proti čemu se obrací, tj. zlodějů
nebo zvrhlíků. Mafián ztělesňuje syntézu ducha či vítězné image doby (R. Saviano).
Od strojového zotročení, kdy lidé jsou součástí stroje, odlišujeme „sociální podřízení“, kdy je člověk
podřízen státnímu aparátu jako dělník, uživatel apod. „Technickým strojem nejsme zotročeni, ale jsme
mu podřízeni. S rozvojem technologií moderní stát nahradil strojové zotročení čím dál silnějším
sociálním podřízením. Režim mzdového systému může tudíž dovést podřízení lidí až k neslýchanému
bodu zvláštní krutosti… Moderní moc je neredukovatelná na klasickou alternativu „represe nebo
ideologie“, ale zahrnuje procesy normalizace, modelování, informace, jazyka, vnímání, touhy, pohybu
atd. Např. jsme podřízeni televizi tím, že ji užíváme a konzumujeme, ale televizí jsme zotročeni jako
lidský stroj, pokud diváci jsou vnitřními komponentami, vstupy a výstupy, zpětnými vazbami, patřícími
ke stroji3“ [1, str. 525]. Následně autoři uvažují o „hladkém“ prostoru, v němž se vyvíjel válečný stroj
(zejména u kočovníků), a o „rýhovaném“ prostoru ustaveném státním aparátem. Ve fraktální geometrii
má rýhovaný (metrický) prostor celočíselný počet dimenzí, hladký (nemetrický) prostor linie
zlomkové dimenze větší než 1 a prostor povrchu zlomkové dimenze větší než 2. Autoři dospívají
k závěru, že dnes hladký prostor světového kapitalismu vytvářejí zejména nadnárodní firmy (hladký
kapitál „překračuje teritoria a státy, dokonce i různé typy států“ [1, str. 562]).
3
V posledních třiceti letech se na tři miliardy lidí připojily na internet, technologii historicky dosud nejvíce
unifikující a kolonizující obyvatelstvo Země. Využité chytré stroje jsou po výtce asociální a individualistické.
Nás si přizpůsobují, vnucují nám svoji mechaničnost a nedokonalost. Lidé bez internetu, dokonce už bez mobilu,
se ze společnosti vylučují. Žáci, učitelé, obchodníci, lékaři i politici jsou státní správou nuceni se připojovat
(např. datovými schránkami). Sociální sítě natrvalo připoutávají jednotlivce k lákavým nabídkám a stále méně
připouštějí, aby šel osobní cestou. Pod systémovou kontrolou nezvládáme sami sebe, nemáme ani vlastní výběr.
Acta Informatica Pragensia
137
4 VÝSLEDKY A DISKUSE
Není zde místo pro vyčerpávající přehled výsledků systémového inženýrství (SI), které se
v Československu rozvíjelo od šedesátých let minulého století. První vědecká konference o
systémovém inženýrství se konala v Mariánských Lázních v říjnu 1969, zatím poslední - již čtyřicátá
čtvrtá - v Pardubicích v květnu 2013 [3]. Aplikace SI v územní správě jsme shrnuli v monografii [6] v kapitole 1 tu byl formulován synergetický model města a jeho okolí jako matematické východisko
demokratické územní správy, aplikace v občanské výchově pro novou společnost jsou v monografii
[7]. Za tři svíce pro budoucnost (jak říká též Václav Cílek) v našich pracích pokládáme filosofii,
sociologii a praxi. Diskusi dosavadních výsledků teď spojíme s připomenutím sociologických autorů a
knih, které nám byly praktickým vodítkem – dobrý přehled přinesl Danilo Martuccelli [4]. Diskuse se
netýká jen vlastních výsledků, ale všímá si i toho, jak oponenti v nejširším smyslu uvažují.
Filosofická metoda, kterou jsme popsali shora, je ze sociologického hlediska příkladem zvláštní formy
racionalizace, která Západu umožňuje rozšiřující se ovládání světa. Z tohoto pohledu se život stává
téměř výhradně předmětem intelektuální rozvahy. „Moderní svět je charakterizován expanzí
racionality do všech sfér sociálního života. Výsledkem je vytvoření neustále vzájemně nezávislejších
oblastí jednání, které jedince omezují. V tomto smyslu je racionalizace definována narůstáním role
formální racionality, jednání zaměřených na přiměřenost prostředků a cílů, a oslabováním
substantivní racionality, jednání řízených hodnotovými postuláty. Sekularizace obrazů světa vede zase
ke ztrátě smyslu“ [4, str. 153]. Podrobněji se racionalizace zaměřuje na sociální vědy jako nástroj
racionalizace, na ideál dokonale řízené společnosti, na expanzi humanitních věd (včetně psychologie)
a na hledání nových cest racionality (např. komunikativní racionality podle Jürgena Habermase).
Nejnověji si uvědomujeme závažnost dlouhodobého procesu odkouzlení, odcizení a subjektivizace a
s tím rostoucí roli nepředvídatelnosti, neusměrnitelnosti a omylu.
Ve weberovské tradici uvažoval mj. Michel Foucault (1926-1984), na jehož dílo jsme v našem
systémovém inženýrství častěji odkazovali (např. Systémová bezpečnost, HK: Gaudeamus, 2008, str.
105 a násl.). Foucault přímo považuje Rozum za původce šíření budoucí dominance a studuje
„základní vztah mezi humanitními vědami a praktikami vedoucími cestou dohledu k izolaci“ [4, str.
241). Pro Foucaulta je nejdůležitější sociální dohled, který nad subjektem vykonávají humanitní vědy.
Jejich působení shrnuje dvojicí moc-vědění (pouvoir-savoir). Pravdu vykládá nejprve jako plod
konvergence určitého vědění s jinými věděními (kniha Slova a věci, 1966, česky Brno: Computer
Press, 2007). Přitom diskurz si podmaňuje nediskurzivní praktiky. Od sedmdesátých let se odklání od
prvenství diskurzu ve prospěch praxe. Nejde už tolik o soubor formujících pravidel, ani o kolektivní
významový horizont (épistemé), nýbrž o soubor organizovaných a strukturujících praktik v oblasti
kontroly a normalizace, hlavně se jedná o soubory pravidel pro transformaci jednotlivých předmětů.
Moc a dominance se podle něho uplatňují hlavně v institucionálních praktických strategiích. „Pod
dohledem humanitních věd se subjekt stává sledovanou formou věcí v moci jazyka… zkrátka a dobře
objektem. Výsledné propojení mezi typem nazírání, který vzešel z humanitních věd, a jeho
institucionalizací v podobě útulků pro choromyslné, nemocnic, věznic, škol či továren“ [4, str. 244]
ukazuje na souvislost mezi získáváním důvěrných informací a rostoucí mocí odborníků, kteří těchto
informací využívají. I pravda je pak spjata s ustavičným dohledem a posuzováním, vědění obsahuje
zárodky moci.
138
Vítek
K osvícenství patřil sen o pečlivě seřízeném a podřízeném soukolí, jemuž slouží ustavičné
donucování, stále tvrdší výcvik a automatická poslušnost, také vojenský sen o normalizující
společnosti. Z pohledu Foucaulta moderní dějiny jsou naplněním osvícenství, které tím, že objevilo
svobodu, vynalezlo i disciplinu (kniha Dohlížet a trestat, 1975, česky Praha: Dauphin, 2000). S tím,
jak roste role vědění v praxi sociální kontroly a normalizace jedince, je diskurz nahrazován mocí,
založenou na představě uzavřených a sebevytvářejících se systémů. Moc přestává být vlastností, stává
se pouhou strategií dominance. V Dějinách sexuality 1. Vůle k vědění, 1976, česky Praha: Herrmann a
synové, 1999, soudí, že předním úkolem moci již není zabíjet, ale po všech stránkách angažovat život
zbavený intimity. Ještě dále než moc však jde odpor proti ní a Foucault postuluje možnost emancipace
jako útěku, snahy najít estetické bytí tam, kde se hroutí politický a mravní řád. Jestliže u myšlenkově
blízkého Deleuze platily tři stupně „vědění, moc, já /soi/“, začíná teď platit „pravda, moc, etika“
(Dějiny sexuality 3. Péče o sebe, 1984, česky Praha: Herrmann a synové 2003). Podle obou autorů je
působnost na sebe sebou samým pravou podstatou subjektivace (viz též Deleuze G. Foucault, Paříž:
Minuit, 1986). Jedinou možností je pak „subjektivistický solipsismus (romantický, energetický či
estetizující)“ [4, str. 264], obrácený k technikám péče o sebe.
Poněkud jinak postupuje filosof a sociolog Jürgen Habermas (*1929), když rozlišil dvě koncepce
racionalizace: systém a žitý svět (Theorie des kommunikativen Handelns, Frankfurt: Suhrkamp,
1981). Na jedné straně narůstají systémy sociální kontroly, na druhé straně postupuje diferenciace
žitého světa (kultura, společnost, osobnost). Autor navrhuje kategorie komunikativního jednání,
zakořeněné v žitém světě a zároveň vyslovené v systémové teorii. Přitom „žitý svět zůstává
subsystémem, který určuje stav sociálního systému jako celku“ [4, str. 277]. Habermas upravuje
původní Parsonsovy závěry o významu peněz a moci jako médií, a zdůrazňuje zobecněné formy
komunikace jako jsou dobrá pověst, profesní význam či důvěra. K hlavním zdrojům nerovnováhy
mezi teleologickou racionalitou a komunikativní racionalitou a odtud i ke zdrojům patologie
modernity patří jednostranná snaha ve prospěch mechanismů systémové integrace. Hrozí pak krize
čtyř typů: hospodářská, racionality, legitimity a motivace, které v souhrnu vedou k narůstající kontrole
života jedinců. Již v Teorii komunikativního jednání ukázal, že „nové konflikty nevznikají z problémů
přerozdělování, ale z otázek, které se týkají gramatiky životních vzorců“ [4, str. 283]. V knize Etika a
diskuze (1991) navíc vyvozuje, že demokracii je možno založit na principu diskuze, propojeném
s právním vzorcem. Habermasovy myšlenky jsme diskutovali mj. v kolektivní publikaci Systémová
komunikace, HK: Gaudeamus, 2006.
V předchozí monografii Systémy složité a zjednodušené, Vydavatelství Univerzity Pardubice, 2013,
zápolíme s těmito habermasovskými názory: „Poznání musí v modernitě nejenom dostatečně vyplnit
prostor vyprázdněný odchodem církve, ale ještě také normativně vytvořit principy, o které se
demokratická společnost bude, nebo by se měla opírat. Sociální integrace prováděná na politické
úrovni musí projít filtrem diskuze. Podstatou deliberativní politiky je v podstatě síť diskuzí a
vyjednávání, jejichž cílem je přinést řešení pragmatických, morálních a etických otázek, či spíše
problémů, které se nahromadily během funkcionální, morální či etické integrace. V postmetafyzickém
kontextu je jediným zdrojem zákonnosti demokratický postup, kterým se projevuje právo. Svobodné
uvedení témat a příspěvků, informací a zdůvodnění zaručuje tvorbě politické vůle její charakter
diskuze. Právo je takto spojujícím článkem mezi systémem a žitým světem. Je jeho součástí jakožto
legitimní řád, který se stal reflexívním řádem. Solidarita, skutečný zdroj sociální integrace, se může
přijatelně rozvíjet díky otevřeným nezávislým veřejným prostorům a díky postupům,
Acta Informatica Pragensia
139
institucionalizovaným právním státem. V modernitě hraje zásadní roli demokracie jako konsenzus
svobodné volby. V procedurálním konceptu demokracie myšlenka konsenzu nabývá formy právní
společnosti, která se organizuje sama“ [4, str. 288-294].
Z diskusí k naší monografii pro ilustraci vybereme pracovní názor JUDr. Jana Pinze, PhD.
z 8.10.2013: „V rámci násilné europeisace se objevil byrokratický fenomén pod názvem Rejstřík
informací o výsledcích výzkumu a vývoje (RIV), který podle vzoru protektora z EU z byrokratického
centra v Bruselu poslušně přijala Rada pro výzkum, vývoj a inovace při Úřadu vlády. Jde o
neuvěřitelně nesmyslnou, těžkopádnou a zcela samoúčelnou soustavu hodnocení těchto činností, jak to
také posuzují jednotlivé zbylé (ještě nezrušené) akademické ústavy. Podle této spirály „hodnocení“ se
rozdělují zmíněné výsledky do řady kategorií s množstvím formálních požadavků na publikace, které
dělí na čtyři druhy A, B, C, D … Přičemž podle této eurokonstrukce není odbornou knihou sborník
z vědecké konference, protože ten obsahuje souhrn autorských děl, tedy děl samostatně myslících
osobností neodpovídajících diktátu názorového die Gleichschaltung … Nejslušnějším řešením zůstává
akademickým věkem prověřená varianta vědeckého sborníku.“ Srovnej též Polemiky a spory v právní
vědě, Bubelová K., Frýdek M. (eds.), Sborník příspěvků z jednání sekce teorie práva a právních dějin
v rámci konference Olomoucké právnické dny 2010, 27.-28.5.2010, vydala Univerzita Palackého
v Olomouci, Právnická fakulta, 2010, ISBN 979-80-244-2665-5.
5 ZÁVĚR
Metoda systémového inženýrství uplatňuje nesmírnou sílu holistického myšlení, které zesiluje jeho
odolnost (angl. robustness = tělesná či mentální síla a pevnost, u výpočtu nezávislost výsledku na
určitých aspektech vstupů) vůči tlakům, nedokonalostem a deformacím, zejména mocenským.
Celostný přístup je zároveň uměním jak zjednodušit složitost. Dovoluje vidět řád skrze chaos, užívat
vzájemnou závislost a zvládat výběr. Pokud svému světu lépe porozumíme, nebude nám připadat tak
složitý a chaotický. Systémová metodologie může být aplikována např. na architekturu systémů
v průmyslu, zdravotnictví, školství, státní správě aj. Zpravidla se doporučuje modulární struktura, pro
niž nejprve navrhujeme systém jako celek v jeho vitálních funkcích, hlavních prvcích a kritických
procesech. Potom stanovíme specializované moduly, kterým umožníme jednat jako samostatné
systémy s odpovědností, sebekontrolou a schopností vyhovět požadavkům celku. Modulární
projektování a programování také usnadní budoucí změny [3, str. 88].
V naznačeném smyslu je padesátiletá historie českého systémového inženýrství složitě prostoupena jako rhizom - stonky filosofie, sociologie a praxe v širokém smyslu. „Lidé si myslí, že matematika je
složitá, ale to nesedí. Matematika spočívá na logice, což pro skutečný život neplatí. Ten je složitější
než matematika“ (Cédric Villani, LN 5.10.2013, str. 23). Podobně jako známý francouzský
matematik se vyjádřil velký sociolog Norbert Elias (Vratislav 1897-1990): „Současnou situaci
lidských společností charakterizuje skutečnost, že způsobilost ovládat komplexy mimohumánních jevů
roste rychleji než schopnost zvládat sociální vztahy“ [4, str. 210]; též: Vítek M. Systémové myšlení.
HK: Gaudeamus, 2000.
V příspěvku se podrobněji nezabývám systémy asociálními, resp. antisociálními, tedy
protispolečenskými, o nichž přibývá informací též v denním tisku. Třeba o tom, že praní špinavých
peněz doma i v zahraničí bylo hlavní profesí trestně stíhaných manažerů v kauze Mostecké uhelné
140
Vítek
(Neue Zürcher Zeitung), stejnou metodou se však v 90. letech systematicky privatizovaly desítky
socialistických podniků. „Ano, bylo jich víc, ale ne z doby, kdy jsem byl ministrem“, přiznává Tomáš
Ježek. „Komunistický ředitel předložil privatizační projekt, úvěr získal od spřáteleného
komunistického šéfa místní banky a splácel jej ze zisku podniku… Ve většině případů se privatizace
minula účinkem. Skončila Poldina huť, automobilka LIAZ, řada skláren“ (LN, 11.10.2013, str. 14).
Systémový přístup k těmto a dalším negativním jevům se musí zaměřit na: dravé proudy současného
úpadku všeobecné kulturnosti (zejména na módu amerikanismu), odmítnutí nadvlády negramotů
v českém i evropském měřítku (euroidiotismu jako posluhování byrokratickému monstru EU), obranu
práv svobodné lidské bytosti (včetně práva na svobodný tvůrčí projev), nesoulad legálního řádu se
řádem legitimním (občanským reflexívním řádem) a prosazení nezfalšovatelné demokracie (tou bývala
volba losem). Srovnej Systémové konflikty, Vydavatelství Univerzity Pardubice, 2011: „Volit menší
zlo je také zlo.“
Nedostižným vzorem uceleného kritického přístupu se nám stali TGM [7], František Xaver Šalda
(Liberec 1867-1937)4 a Václav Černý (Česká Čermná u Náchoda 1905-1987), pro kterého český národ
zůstává „jednou z nejvýraznějších, nejčestnějších a eticky nejsilnějších forem lidskosti“ a své svobody
dosáhne cestou kultury a vzdělanosti. Přitom ve třetím díle Pamětí 1945-1972 přesně definoval a
zvěčnil komunismus (stejně i fašismus!) jako zvrhlý5 systém, nápravu jsme po roce 1989 nezvládli a
uspokojujeme se zahálčivým a levným konzumem. „Však také tzv. krize inteligence v současné době
neleží podle Šaldy v ničem jiném než v ztrátě víry v Ducha tvořivého, v jeho sílu světové dění
společenské řídit: věří se „v odvozené činitele mechanické a materiálové“, v literu, cifru, statistiku, co
lze ohmatat a spočítat. Profesor již není confessor, tj. vyznavač: je malověrný, bázlivý, služebný
kastrát. Osobnost podle Šaldy musí být nad stranná; tj. musí proti stranickosti účinně bojovat, nikoliv
jí mlčky nedbat. Osobnost jest povýtce schopností boje, nepřetržité adaptace k změněným podmínkám
života osobního i kolektivního. Je vždy schopna obohacení, je vždy rozšiřitelna, je realitou otevřenou.
Což znamená, že osobnost tíhne přirozeně k univerzalitě, je myslitelna jen humanitně a humanisticky.
Evropanství je ve skutečnosti program nabídnutý lidstvu vůbec… Co pokládám za nejkrásnější na
Šaldově evropanství, jeho otevřenost do hodnot vyšších a zvláště do budoucna, jeho slibuplnost,
4
Šalda „dává pozůstávat evropské podstatě z šesti členitých a bohatých duchovních komplexů, proudů, a sil,
které se v průběhu více než dvoutisíciletém navzájem posilují, rozšiřují, podchycují, v každém dalším stadiu
metaformozně navždy trvají, až – vtěleny v dnešního Evropana – prožívají v něm v tomto dvacátém století svou,
tj. naši současnou krizi: jsou to antická kultura helénská; římsko-latinská civitas, pojem práv „civis Romani“;
k nim Šalda, a tu je velmi svůj, připojuje obrodné působení génia židovského; je to, za čtvrté, křesťanská caritas,
poselství lásky k bližnímu, k božímu synu mně rovnému a jejž tedy pro Boha a v Bohu miluji jako sebe samého; je
to, renesancí počínajíc, moderní věda racionální a konečně mocné hnutí duchovní a mravní sebeanalýzy člověka
v novém subjektivismu. Sklad a řád těchto šesti sil a vznětů, případně i jejich potýkání a boj, to je duše Evropy“
(Václav Černý. Tvorba a osobnost I. Praha: Odeon, 1992, str. 169).
5
„Zásadně vzato, nečistý mezi čistými vůbec nemá právo na život … zlaté doly na Kolymě, Gulag, Jáchymov,
Příbram. Nestačí protivníka potlačit, jeho odporu musíš i využít a zneužít, přinutit ho, aby pracoval pro tebe,
proti sobě a své naději; musíš ho uzoufat … zničit a s ním zahladit i jeho rod, proměnit ženu i děti v otroky. A
všechno ostatní – právo na lest vůči protivníkovi, na lež a podvod, na spílání a pomluvu, na vyzvídání a
špinavost, na udavačství a nasazovaní špiclů, na vynucování přiznání mučením – to už je pak jen důsledek
rozdělování lidí na čisté a nečisté, neboť vůči nečistým účel světí prostředky … člověk se zde prostě vysmívá
vlastní lidskosti“ (Černý V. Paměti 1945-1972. Poprvé Toronto: Sixty-Eight Publishers, 1983; Brno: Atlantis, 2.
vydání 1992, str. 567). Heslo „nepatříš k nám čistým“ přežívá dodnes ve stranictví, sektářství a rasismu.
Acta Informatica Pragensia
141
futurálnost. Že nám činí z Evropy skutečnost stále příští, tedy i stále ohroženou, ale zároveň i velikou
naději“ (Černý V. Šaldovo evropanství (1947), in: Václav Černý. Tvorba a osobnost I, Praha: Odeon,
1992, str. 173-176).
Krizi sociálních systémů tedy dlužno nahlížet v první řadě jako krizi moderní osobnosti, jak ji přinesly
za nezměrných útrap první a druhá světová válka, dále pak jako krizi národa a odtud krizi evropskou,
v jejímž středu se viditelně dnes nacházíme, nakonec jako krizi lidstva, k níž spějeme, když nám hrozí
ztráta absolutních a v plném smyslu božských hodnot. S tím souvisí i tzv. „zrada intelektuálů“, o níž
zásadně pojednal ve dvacátých letech Julien Benda a která se v současnosti naplňuje: odklonem od
praktických, naléhavých a nutně lokálních úkolů („think globally, act locally“), samoúčelným a
sobeckým elitářstvím („web of science“) a zotročující globalizací („go west if you gonna be the best“).
Jednou z aktuálních výzev k obrodě osobností na úkor ideologie liberální demokracie, podle níž je
každému vše – také zvrhlost („degeneration“) a zničení („annihilation“) – dovoleno („anything
goes“), byly sněmovní volby 20136. Z množiny výroků kolem voleb ocitujme kritické srovnání
ekonoma a politologa Petra Robejška: „Německo ke svému fungování vlastně politické strany
nepotřebuje. Je svou povahou stabilní. A k tomu ještě přibudou i zakořeněné charakteristiky, jako je
chování zaměřené na konsenzus. A pak – i těm nejchudším se vede pořád velice slušně… My naši
politiku nezlepšíme tím, že budeme spotřebovávat stále nové strany. Zlepšíme ji jedině tím, když se
občané budou opravdu aktivně angažovat. Lidé musí přestat čekat na Ježíška“ (LN, 26.10. 2013, str.
11).
6 SEZNAM POUŽITÝCH ZDROJŮ
[1]
DELEUZE G., GUATTARI F. Tisíc plošin. Praha: Herrmann a synové, 2010, ISBN 978-8087054-25-3, orig. Paris: Minuit, 1980.
[2]
JUVIN H., LIPOVETSKY G. Globalizovaný Západ. Polemika o planetární kultuře. Praha:
Prostor, 2012, ISBN 978-80-7260-265-0, orig. Paris: Grasset, 2010.
[3]
KŘUPKA J., VÍTEK M. et al. Systémové inženýrství a informatika. Vydavatelství Univerzity
Pardubice, 2013, ISBN 978-80-7395-572-4.
6
Jinou výzvou k obrodě osobnosti je varování před hybristickým syndromem (viz Britské listy, 27.9.2013).
Již staří Řekové znali hybris jako přehnanou sebedůvěru, pýchu mocných a némesis jako tvrdou odplatu osudu.
Po roce 2009 psychiatr a politik David Owen i další upozornili, že každý držitel moci - v jakékoliv společenské
sféře! - je ohrožen přílišnou sebedůvěrou, bezohledností a opovrhováním druhými, což může postupně přerůstat
až do psychopatologické podoby (navíc při nadužívání antidepresiv). Vychýlení se tedy netýkalo jen M.
Thatcherové, T. Blaira či G.W. Bushe, rovněž obklopených zdmi, zrcadly a lháři. Na ochranu se radí: nemyslete
si, že máte vždy pravdu; zapojte širší výbor; vstupte do kontaktu s odpůrci; snažte se artikulovat svou morálku.
Zásadnější řešení nabízejí koncepce odzápadnění /dewesternization/, které prezentuje mj. singapurský profesor
Kišór Mahbúbání (*1948). Přirovnává západní lidskoprávní aktivisty ke středověkým křížákům a doporučuje
pragmatický postup, přijatý také čínským vůdcem Teng Siao-pchingem. Ten nedopustil rozpad státních institucí,
kolaps hospodářství a zhoršení životní úrovně, k čemuž dochází při pokusech o reformu politického systému.
Mezi Tengovy zásady patří: střízlivě pozoruj; drž své pozice; skrývej své přednosti; chovej se nenápadně; nestav
se do čela; jednej v jistých mezích. Čína a Indie se stávají otevřenějšími a úspěšnějšími než USA či EU: USA
opustily původní pragmatismus a převzaly šíření absolutní pravdy po celém světě od německých filosofů.
142
Vítek
[4]
MARTUCCELLI, D. Sociologie modernity. Itinerář 20. století. Brno: CDK, 2008, ISBN 97880-735-145-1, orig. Paris: Gallimard, 1999.
[5]
VÍTEK M. et al. Systémové inženýrství. Pardubice: VŠCHT, 1990, ISBN 80-85113-18-X.
[6]
VÍTEK M. et al. Základy územní správy. Pardubice:VŠCHT, 1991, ISBN 80-85113-33-3.
[7]
VÍTEK M. (ed.) Studijní texty k sociální filosofii. Ústav filosofie a společenských věd UHK,
Hradec Králové: Gaudeamus, 2005, ISBN 80-7041-655-6.
Poznámka autora:
Jde o velmi komplikovaný text, kde bylo nutné pročíst množství zdrojů – v seznamu literatury jsou
jenom díla, ze kterých text opravdu vychází a nikoli sousedící myšlenkové prostředí. Jedná se o teze k
45. ročníku konference Systémové inženýrství (SYSIN 2014) – Předpoklady informačních systémů.
Acta Informatica Pragensia
Recenzovaný vědecký časopis / Peer-reviewed scientific journal
ISSN: 1805-4951
Články v časopise podléhají licenci Creative Commons Uveďte autora 3.0
This work is licensed under a Creative Commons Attribution 3.0 License

Podobné dokumenty

Katalog PDF - E

Katalog PDF - E Informační oboustranné tabule pro rozdělení prostoru s možností kombinace panelů s různými povrchy a s různými rozměry v počtu 3, 2 nebo 1 celkový panel. Šířka tabulí vždy 120 cm, výška stojanů můž...

Více

1. Realtime / online simulace offline simulace

1. Realtime / online simulace offline simulace  iniciativní – postupné a stálé úpravy plánu - modifikace plánu vychází z předpovědi problému v blízké budoucnosti školení - offline simulace - trenažéry - vizuální interaktivní simulace  lze se ...

Více

Recenzovaný vědecký časopis / Peer

Recenzovaný vědecký časopis / Peer Vysoká škola ekonomická v Praze / University of Economics Prague nám. W. Churchilla 4 130 67 Praha 3 Czech Republic (The European Union) IČ / ID: 61384399 Web: http://aip.vse.cz

Více

12/2012 - Kulturní noviny

12/2012 - Kulturní noviny mimilionového úplatku. Ten měl být – zdá se z  novinových zpráv  – odměnou za manipula‑ ci výběrového řízení na rekonstrukci zámku ve vesnici Buštěhrad (nedaleko světoznámých Lidic). David Rath se ...

Více

Bibliografie vědeckých a odborných prací

Bibliografie vědeckých a odborných prací 10) HRBATA, Zdeněk. ´Škrtič labutí´ Villiersa de l´Isle-Adam a groteskní monstrum A. Jarryho. Časopis pro moderní filologii, 1986, roč. 68, s. 1-9. 11) HRBATA, Zdeněk. Konkrétnost i symbolika roman...

Více

Vyrocni zprava-2004.vp

Vyrocni zprava-2004.vp České republiky, jedno z vrcholných center vzdělanosti, nezávislého poznání a tvůrčí činnosti, hrající klíčovou úlohu ve vědeckém, kulturním, sociálním a ekonomickém rozvoji společnosti. Výroční zp...

Více