diplomka

Transkript

diplomka
Filozofická fakulta Masarykovy Univerzity v Brnû
Psychologick˘ ústav
Studijní rok 2004/2005
DIPLOMOVÁ PRÁCE
ZPÒSOBY SIMULACE INTELIGENCE
Michal Vavreãka
Vedoucí diplomové práce: Mgr. Helena Klimusová
Brno 2004
Prohla‰uji, Ïe jsem tuto diplomovou práci vypracoval samostatnû a uvedl v ní
ve‰kerou literaturu a jiné prameny, které jsem pouÏil
V Brnû 30.11. 2001
……………………………………...Podpis
Motto:
Ví, Ïe snadn˘ znamená - neuskuteãniteln˘,
Ïe je dvojramenná, fieka a smûry v ní.
Ví, Ïe lidsk˘ znamená – nenapodobiteln˘,
fieka je nemûnná, jen voda plyne v ní.
UÏ jsme doma, ¤eka
Podûkování
za korektury: Petra Balabánová, Jana Dvofiáãková, Markéta Dvofiáãková, Karel Gregor, Pavel Kroupa, Filip Rozsíval, Hikmet Salihová, Tereza ·armanová,
Danka Urbancová, Zuzana Vavreãková
za
za
za
za
za
grafiku a textové úpravy: Libor Alexa, Jirka Mudrák
sazbu a zlom: Ondra Kroupa
poãítaã: TomበJifiík
trpûlivost pfii ãtení: Mgr.Helena Klimusová, PhDr. TomበUrbánek PhD.
v‰echno: rodiãÛm
OBSAH
Úvod
1 Inteligence
1.1
Pojem inteligence
1.2
Modely inteligence
1.3
Statistické a biologické mûfiení inteligence
2 Inteligentní systém
2.1
Filosofie mysli
2.1.1
2.2
Teorie mysli (TOM)
Psychologie
2.2.1
Horká a studená metodologie
2.2.2
Kognitivní Architektury - modely
2.2.3
Kognice
2.3
2.2.3.1
Kategorizace – tvorba konceptu
2.2.3.2
Vnímání
2.2.3.3
My‰lení
Biologie
2.3.1
2.4
Biologické versus umûlé systémy
Umûlá inteligence
2.4.1
Metody UI
2.5
Informace
2.6
Nejmen‰í jednotky
2.7
Paralelní versus sériové zpracování
3 Klasick˘ pfiístup
3.1. Pfiedpoklady
3.1.1
Logika
3.1.2
Gödel
3.1.3
Formální a mentální logika
3.1.4
Monotonie
3.1.5
Komputace
3.2
Architektura
3.2.1
Charles Babbage
3.2.2
Von neumannovská architektura
3.2.3
TuringÛv stroj
3.2.4
Finite state automaty
3.3
Aplikace
3.3.1
Symbolické systémy
3.3.1.1
3.3.2
Fyzick˘ Symbolick˘ systém
Simon-Newell
3.3.2.1
Logic Theorist
3.3.2.2
General Problem Solver
3.3.3
Expertní systémy
3.3.3.1
Problem Solving (¤e‰ení problémÛ)
3.3.3.2
Genetické algoritmy
3.3.4
SHRDLU
3.3.5
Hry jako model i nástroj
4 Konekcionismus
4.1
Neuronové sítû
4.1.1 ZpÛsoby uãení
4.1.2 PamûÈ neuronov˘ch sítí
4.2 Typy neuronov˘ch sítí
4.2.1 Hopfieldovy sítû
4.2.2 Kohonenovy sítû
4.2.2.1 Hebbovské uãení
4.3 Redundance
4.4 Robustnost
5 Klasick˘ pfiístup versus neuronové sítû
6 Paralelismus
7 Pfiístup zaloÏen˘ na agentech
7.1 Vtûlená kognitivní vûda
7.2 Principy tvorby autonomních agentÛ
7.3 Emergence
7.4 V˘hody a nev˘hody agentÛ
7.5 Reaktivní agenti
7.5.1 Subsumpce
7.6 Multiagentní pfiístup
8 PamûÈové systémy a reprezentace znalostí
8.1 CAM
8.2 Memory surface
8.3 Mentální reprezentace
8.4 Rámce
8.5 Bayesianské sítû
9 Tvorba v˘znamu
9.1 Jazyk
9.2 Ukotvení symbolÛ
9.3 Kontext
Závûr = Sémantika
ÚVOD
DÛvodÛ k napsání této práce je nûkolik. Daly by zde vyjmenovat samostatnû, ale to
by z nich ãinilo oddûlenû stojící témata, coÏ mÛÏe b˘t úãelné pro získání pfiehledu a
vytvofiení struktury, ale také vytváfiet dojem izolovanosti. Pokud bychom v‰ak hledali
slovo, které by zastfie‰ovalo témata, objevující se v této práci, asi nejv˘stiÏnûji znûjí
v˘razy jako hledání vazeb a propojení.
A nejedná se pouze o propojení psychologie s ostatními obory, které se vyjadfiují
k problematice lidské mysli, ale také o propojení jednotliv˘ch oborÛ mezi sebou a
hledání spoleãn˘ch „pfiekrytÛ" a moÏností vysvûtlení jednûch druh˘mi. Pfiesné
vymezení hranic mezi obory ztrácí smysl, pokud teoretické, metodologické ãi technické moÏnosti neumoÏÀují jednomu z nich plnohodnotné pochopení zkoumaného
jevu, kter˘m není nic men‰ího, neÏ lidská mysl, potaÏmo schopnost existovat
v prostfiedí „úãeln˘m" zpÛsobem – inteligence.
Odvûtví, které si za svÛj cíl tuto oblast vytyãilo, má jiÏ své konkrétní jméno. MÛÏeme
jej naz˘vat kognitivní vûda ãi kognitivní vûdy. Vûdní obor integrující v sobû poznatky
z mnoha oblastí bádání a v˘zkumu, snaÏící se vytvofiit jednotnou teorii (popfiípadû její
aplikaci v praxi), umoÏÀující pochopení zmínûné problematiky v celé její ‰ífii.
Obr.1 Vûdní obory konstituující pfiedmût kognitivních vûd.
Psychologie je oborem, kter˘ mÛÏe k dané problematice mnohé fiíci. A jelikoÏ je psychologie m˘m studijním oborem, pokusil jsem se své téma zpracovat s ohledem
na psychologii, ale v kontextu oborÛ, které mohou poskytnout cenné informace pfii
snaze o vystiÏení zkoumaného jevu. V˘chozím bodem byly poznatky, které jsem
studiem ve ‰kole nezískal. Lépe fieãeno, hledání poznatkÛ doplÀujících mezery pro
nalezení ‰ir‰í souvislosti pfii tvorbû své práce. Propojení znalostí do jednoho celku.
Takov˘ styl práce se setkává s obtíÏemi. KaÏd˘ z oborÛ má svou vlastní terminologii
a také specifickou formu vyjadfiování, coÏ mÛÏe nûkdy pÛsobit dojmem jisté svébytnosti a samostatnosti. Také mnoÏství poznatkÛ a informací získan˘ch jednotliv˘mi
obory bûhem jejich historie ãiní moÏnosti dostateãného pochopení jednotliv˘ch oblastí
obtíÏn˘mi. I pfiesto mi pfiipadá takov˘ styl práce zajímav˘ a potfiebn˘.
Samotná práce si klade za cíl bliωí orientaci v oblastech, které se zab˘vají problematikou napodobování inteligentního chování, popfiípadû moÏnostmi tvorby
umûl˘ch inteligentních systémÛ. První ãást je vûnována vymezování inteligentního systému z hlediska poznatkÛ rÛzn˘ch oborÛ. Jedná se o základní pfiehled, jelikoÏ rozsah
této práce neumoÏÀuje pfiesnûj‰í rozbor konkrétních problému. Následující kapitoly se
vûnují popisu jednotliv˘ch pfiístupÛ pfii simulaci inteligence a jejich omezení plynoucích z pouÏité architektury, ãi zpÛsobÛ jejího vyuÏití v konkrétních aplikacích.
Závûreãná kapitola je vûnována tvorbû v˘znamÛ, která se ukazuje jako nejslab‰í místo
souãasn˘ch systému pokou‰ejících se o napodobování inteligence. Samotn˘ závûr pak
tvofií pomyslná otevfiená vrátka pro moÏnost dal‰í práce s vyuÏitím poznatkÛ,
získan˘ch pfii tvorbû této diplomové práce.
1
INTELIGENCE
Je obtíÏné zaãínat první kapitolu práce termínem, kter˘ je jejím cílem a
shrnutím.VyÏaduje znalost kapitol následujících. Pfiesto je nutné zmínit pojem
inteligence hned na poãátku. V této práci se jím budeme zab˘vat v ‰ir‰ím kontextu,
neÏ jak jej chápe psychologie. Inteligence není studována pouze jako lidská schopnost
adaptivnû se chovat a proÏívat, ale jako obecná schopnost libovolného organismu jak
Ïivého, tak umûlého.
Pokusy o definici lidské inteligence mají dlouhou historii, která je spojena s rozpory,
zda lze spojit faktory tvofiící inteligenci do jednoho obecného (lépe fieãeno existuje
pouze jedin˘ faktor), ãi ponechat ãlenûní na jednotlivé oblasti. Otázku je moÏno zodpovûdût aÏ tehdy, budeme-li znát mechanismy, které jsou zodpovûdné za adaptivní
chování a operaci s reprezentacemi a ve‰keré ostatní mechanismy tvofiící schopnost
inteligentního jednání. V souãasné dobû je odpovûì na tyto otázky neznámá. To by
znamenalo konec práce hned v zaãátku, a proto zkusme pokraãovat.
Pokud se pfiikláníme k názoru, Ïe je tfieba v oblasti kognitivních vûd, a tedy i pfii
v˘zkumu inteligence,
identifikovat nejmen‰í univerzální jednotku zodpovûdnou
za adaptivní formu reagování, pfiikláníme se k názoru v˘zkumníkÛ, ktefií vidí inteligenci jako jedineãn˘ „g" faktor, tedy inteligenci, pfiizpÛsobující se prostfiedí a konkrétnûji
typu úlohy, pfied kter˘ je mysl ãi mozek postaven. V oblasti simulace tomuto trendu
odpovídají neuronové sítû s univerzální jednotkou neuronem, popfiípadû TuringÛv
univerzální stroj (jako komputaãní zafiízení schopné vypoãítat libovoln˘ typ úlohy)
na stranû druhé. Univerzálnost na úrovni komplexního inteligentního systému
(umûlého) je zatím v praxi neuskuteãnitelná, ale jako v˘chozí teoretické principy lze
zmínûné pfiístupy akceptovat. Chceme-li nazírat inteligenci jako soubor více modulÛ,
pfiiãemÏ kaÏd˘ je specializovan˘ na jeden typ úlohy (coÏ nevyluãuje, Ïe specializované
mechanismy mohou b˘t tvofieny základní univerzální jednotkou ), je takto inteligence
chápána v simulaãních pfiístupech zaloÏen˘ch na modularitû, subsumpci apod.
Zmínûné oblasti simulace tvofií hlavní ãást této práce a v následujících kapitolách se
s nimi seznámíme podrobnûji.
Obr. 2 Pfiístupy ke studiu inteligence
Jin˘ typ dûlení pfiístupÛ je zaloÏen na metodû, kterou pouÏíváme pfii v˘zkumu
inteligence. Pfiístupy ke studiu inteligence se tak dají rozdûlit na analytické a syntetické. Analytick˘ pfiístup je blízk˘ biologii, neurobiologii a vûdám, které stavûjí
na empirick˘ch poznatcích. Hlavním úkolem je identifikovat jednotlivé komponenty
systému a rozpoznat jeho strukturu a funkce. Syntetick˘ pfiístup se naopak snaÏí sestrojit umûl˘ systém, kter˘ by mûl vlastnosti zkoumaného. Pfiístupy jsou k sobû ve
vztahu komplementárním. Souãasná kognitivní vûda pouÏívá princip, kter˘ je spojením obou pfiedchozích pfiístupÛ a smûfiuje do aplikované oblasti. Naz˘vá se syntetické modelování a jeho hlavním mottem je „pochopení skrze vytváfiení", tedy kompromis, kter˘ vychází z omezen˘ch znalostí, které o inteligentních systémech víme, jeÏ
jsou aplikovány pfii tvorbû modelÛ tûchto systémÛ. Chybûjící znalosti se snaÏíme
pfiekonat metodou pokusÛ a omylÛ se zpûtnou vazbou (Pfeifer&Scheier, 2001,s.154).
Konkrétní aplikací syntetického modelování je napfi. práce profesora de Garise, kter˘
se snaÏí syntetizovat poznatky z oblasti neuronov˘ch sítí i klasické komputace. SvÛj
pfiístup naz˘vá Brain building. Základem architektury jsou specializované poãítaãe
vyuÏívající architektury neuronov˘ch sítí, které jsou poté propojovány do vy‰‰ích
funkãních celkÛ jako stavebnice. Taková syntéza se velmi blíÏí oblasti paralelních
poãítaãÛ.
S moÏnostmi vyuÏití psychologick˘ch pfiístupÛ pro oblast simulace inteligence se
mÛÏeme setkat i ve star‰ích pracích, u kter˘ch bychom to nepfiedpokládali. Paralely
s komputaãním pfiístupem se objevují napfiíklad v Piagetovû Psychologii inteligence.
V dobû, kdy se oblast programování teprve formovala, dokázal Piaget v lidském
chování a proÏívání (navíc obohaceném o faktor ontogeneze, kter˘ komputaãní pfiístup pfiíli‰ nereflektuje) identifikovat principy, které lze pfiirovnat k poãítaãov˘m pro-
gramÛm. Vidí je jako posloupnosti operací, sloÏené ze sekvenãní spolupráce operátorÛ (algoritmy), které dohromady tvofií grupy (program, podprogram). V behaviorismu by byly ãásti sekvence naz˘vány operanty.
Piaget ale rozli‰uje mezi jednotliv˘mi grupami (sekvencemi). Existují zvratné a nezvratné (Piaget, 1998). Z hlediska ontogeneze dochází nejdfiíve ke tvorbû nezvratn˘ch, aÏ
poté ke grupám zvratn˘m, se kter˘mi mÛÏe b˘t manipulováno nezávisle na prostfiedí
(napfiíklad akauzálnû, reverzibilnû ). Tento princip se pouÏívá jen v nûkter˘ch
oblastech komputace. PfievaÏuje spí‰e oblast neuronov˘ch sítí, napfiíklad metodou
backpropagation (viz Konekcionismus), slouÏící pfieváÏnû k mechanické korekci
prÛbûhu zpracování informace. Pro Piageta je zvratnost jedním ze základních pfiedpokladÛ pro vznik inteligentního chování. Pfii tvorbû inteligentních systémÛ je nutné,
aby si inteligence pfii stoupajícím poãtu operací zachovávala svoji „zvratnou pohyblivost" (Piaget, 1998).
Pro vznik inteligentního jednání je podle nûj také tfieba souãinnosti dvou procesÛ.
Primární ãinnost je interakce subjekt objekt, skrz které je moÏno vidût inteligenci
jako strukturaci objektu ãi objektÛ subjektem. Sekundární ãinnost je vztah subjektu
ke své ãinnosti, tedy emoce, dynamika, motivace. Oba procesy fungují spolu dohromady a nedûlitelnû (Piaget, 1998). V Piagetovû práci jiÏ tedy nalezneme poÏadavek
vûdomí, intencionality a potaÏmo subjektivity pro konstituci inteligentního chování,
které budeme muset v této práci ãasto opomíjet, coÏ je zpÛsobeno povahou zmiÀovan˘ch pfiístupÛ.
Z novûj‰ích teorií stojí za zmínku napfi. Greenspanova definice inteligence, která je
svou abstraktností blízká spí‰e filosofii mysli (pro oblast konkrétní simulace je zatím
vzdálenou metou). Greenspan vidí inteligenci jako schopnost produkovat intence a
ideje a schopnost dostat je do logického a analytického rámce (Greenspan, 1996).
BohuÏel se nevyjadfiuje o mechanismech, které by tyto schopnosti mûly produkovat.
PfiestoÏe se rÛzné zpÛsoby definice li‰í, v základû hovofií o inteligenci jako schopnosti ãi kapacitû. Vût‰inou je problematická otázka toho, zda-li je inteligence determinována okolím ãi nikoliv. To se projevuje jiÏ v samotném vymezování pojmu. Napfiíklad Terman hovofií o schopnosti abstraktnû myslet, zatímco Peterson o biologickém
mechanismu. V mnoha v˘zkumech b˘vá úloha prostfiedí ãasto pfiehlíÏena
(Pfeifer&Scheier, 2001).
MoÏné vymezení procesÛ, kter˘mi se inteligentní systém projevuje, mÛÏeme nalézt
v Lugerovû pfiehledové publikaci.
1. Reaktivita jako schopnost systému vytváfiet k pfiíãinám prostfiedí, následky v podobû
proÏívání ãi chování. Limitujícím faktorem (stejnû jako u adaptace) je pak citlivost systému vÛãi prostfiedí. Citlivost je následnû brána jako míra kvality a intenzity.
2. Diskriminace a generalizace jako mechanismy, které patfií v oblasti simulace
k nejobtíÏnûji napodobiteln˘m.
3. Komplexita jako schopnost adaptace organismu je odvislá od organizaãní
komplexnosti.
4. Adaptace a uãení. Hodnocení adaptace je uvedeno v˘‰e. Definice uãení je stejnû
obtíÏná jako samotn˘ pojem inteligence.
(Luger, 1994)
1.1
Pojem inteligence
V laické mluvû jsou slova jako vnímání my‰lení, vûdomí, úmysl, vÛle, inteligence a
chtûní pouÏívána tak, Ïe není tfieba mít tyto v˘razy pfiesnû definovány. Lidé, ktefií
spolu komunikují, je mají subjektivnû ukotveny, neboÈ souvisejí s jejich proÏíváním.
Pokud se v˘‰e zmínûná slova stanou oblastí vûdeckého zkoumání, nastává problém,
jelikoÏ je témûfi nemoÏné je definovat v celé jejich ‰ífii. Souvisí to s mírou abstrakce,
která tato slova mají a také s jejich subjektivitou. Posledním problematick˘m místem
je, Ïe procesy, které jsou jejich souãástí, jsou z ãásti nevûdomé a pro souãasnou vûdu
neprozkoumané. Z ãehoÏ plyne, Ïe pokud pouÏijeme daná slova ve formû v˘rokÛ,
nemÛÏeme je ovûfiovat ani dokazovat. MÛÏeme o nich hovofiit pouze s odvoláním se
na intersubjektivní shodu (Havel, 2001).
Definice inteligence se také setkává s obtíÏemi, vypl˘vajícími z hierarchického
uspofiádání pojmÛ, které potfiebujeme k jejímu vysvûtlení. Pfii definování pole pÛsobnosti se bohuÏel neobejdeme bez pojmÛ my‰lení, svût, reprezentace, prostfiedí, popfiípadû generalizace, kategorizace, abstrakce apod. Pfiesné vymezení tûchto pojmÛ je bez
urãité míry redukce nemoÏné. Pokud jsou pojmy hierarchicky uspofiádány a nám se
nedafií pojem postaven˘ hierarchicky níÏe, definovat s pfiesností, která je dostaãující,
pojem hierarchicky v˘‰e bude jiÏ tuto nepfiesnost obsahovat s tím, Ïe díky jeho komplexnosti bude u nûj nepfiesnost vzrÛstat. Tak se dostáváme aÏ k pojmÛm jako je
inteligence (a níÏe zmínûné vûdomí) a neurãitost ve v˘znamu se kumuluje do podoby, která jej neumoÏÀuje pouÏívat jako platnou definici.
Snaha o definici inteligence je nesnadná i proto, Ïe se zatím musíme obejít bez pojmu
vûdomí, které se jeví jako nedíln˘ pfiedpoklad pro postulování inteligence. Dostáváme
se tak do obtíÏí, kdy se pojem inteligence snaÏíme vysvûtlit pomocí elementárních
principÛ,bez zastfie‰ujícího pojmu vûdomí. Pfiístupy popisované v této práci, jsou vût‰inou zaloÏeny právû na elementárních principech a snad i díky tomu je vûdomí
vûnována jen malá ãást textu práce.
V˘zkumy v oblasti vûdomí ukazují, Ïe není jednoduché nalézt model ãi zpÛsob
vysvûtlení, kter˘ by byl schopen tento fenomén uchopit. Velmi zjednodu‰enû mÛÏeme
vûdomí vyjádfiit Sutherlandov˘m v˘rokem."Vûdomí je fascinující, ale prchav˘ jev; je
nemoÏné urãit, ãím je, co dûlá, ani proã vzniklo. Nebylo o nûm napsáno nic, co by
stálo za ãtení" (Sutherland,1989,s.81).
V rovinû spekulace by bylo moÏné obejít v˘‰e zmínûné argumenty tím, Ïe hierarchické
umístûní pojmu vûdomí není pfiesnû dané, a Ïe se tedy vûdomí vyskytuje uÏ u základních prvkÛ Ïiv˘ch inteligentních systémÛ (neuronÛ).
1.2
Modely inteligence
Z hlediska modelování zaznamenala psychologie mnoho pokusÛ o tvorbu modelu,
kter˘ by byl schopen vysvûtlit inteligentní chování v celé jeho komplexitû. Sternberg
ve své práci shrnuje nûkteré dosavadní psychologické modely inteligence a tfiídí je
následujícím zpÛsobem (Sternberg, 2000,s. 141).
Tab. 1 Modely inteligence
1.3
Statistické a biologické mûfiení inteligence
Dosavadní práce, které se zab˘vají mûfiením inteligence, pouÏívají jako nejãastûj‰í
metodu mûfiení formu testu. Hodnotícím kritériem je obvykle relativní vztaÏná soustava, jejíÏ prÛmûrná hodnota je odvozena od nejãastûj‰ího v˘skytu míry inteligence
(napfiíklad ve formû IQ) v populaci. V takovém pfiípadû je ale inteligence jiÏ pfiedpokládána u zkoumaného organismu a nedozvídáme se tedy nic o vnitfiních mechanismech. UmoÏní nám statistické srovnání vysouzen˘ch schopností. Pokud je test
ãlenûn do jednotliv˘ch subtestÛ, dokáÏe navíc rozli‰it pomûr mezi jednotliv˘mi dovednostmi, ãi typy úlohy, které jsou typické pro lidské jedince (napfiíklad prostorová pfiedstavivost, matematické operace apod.). Podle tfiídûní z první kapitoly se jedná o analytick˘ pfiístup se snahou potvrdit platnost teoretického modelu.
V pfiípadû zkoumání inteligence z hlediska biologického ãi neurobiologického patfií
mezi nejãastûji pouÏívané metody:
1. Neurální v˘konnost – Mûfiení kfiivky mozkové aktivity pfii jednoduch˘ch stimulech. PouÏívá se evokovaného signálu a následnû se kfiivka analyzuje.
2. Neurální adaptabilita – Napfiíklad jak rychle poznají ZO rozdíl mezi ãarami
podobné délky (ztotoÏnitelná spí‰e s procesy kategorizace ãi diskriminace)
3. Metabolismus cukru v mozku
4. Podle rychlosti pfienosu vzruchu – Pfii mûfiení rychlosti pfienosu vzruchu v periferních nervech je pfiímá úmûra mezi nárÛstem rychlosti a inteligence. V mozkov˘ch
centrech je tento v˘zkum zatím v poãátcích.
(Sternberg, 2000)
Nev˘hodou technik je, Ïe jsou redukcionistické a z jejich v˘sledku se nedá odvodit
mnoho o detailním fungování systémÛ. Zmûnou oproti pfiedchozí metodû
ãlovûk/spoleãnost je porovnávání ãlovûk/kvalita biologického substrátu.
2
INTELIGENTNÍ SYSTÉM
2.1
Filosofie mysli
2.1.1
Teorie mysli (TOM)
Teorie mysli (TOM) tvofií zastfie‰ující pojem ve v˘zkumech t˘kajících se inteligence a
mysli obecnû. Základní otázky této oblasti vycházejí z filosofie, která je nejstar‰í vûdní
disciplinou, zab˘vající se fungováním lidské psychiky. Díky tomu je míra abstrakce a
obecnosti teorie mysli vysoká, je nutné doplÀovat a konkretizovat jednotlivé ãásti
pomocí specifiãtûj‰ích vûdních oborÛ jako biologie ãi psychologie. Samotn˘ pojem lidské mysli tvofií v hierarchii pojmÛ t˘kajících se mentálních schopností jedince pomysln˘
vrchol. Otázky po struktufie a funkci lidské mysli (ty doloÏitelné) mají za sebou víc neÏ
dva tisíce let trvající historii. Právû otázky povahy lidské mysli slouÏí k vymezení rámce
zkoumání, ve kterém se pohybujeme a vedly k ustanovení specializovan˘ch vûdních
oborÛ, jejichÏ cílem je základní v˘chodiska (nejãastûji ve formû otázek) zpfiesÀovat do
takové míry, která by umoÏnila dostaãující pochopení a následnû pfiípadnou tvorbu
mysli umûlé.
Aristotelova empirická orientace pfiipravila podmínky pro monismus, teorii, která
popisuje du‰i a tûlo jako jeden prvek a celou realitu jako jednotu (Sternberg, 2001).
Vyskytovaly se i teorie dualistické, ale jejich exaktní popis se objevuje aÏ ve stfiedovûku a je spojován se jménem René Descartes.
Descartovu koncepci dualismu naz˘vají moderní filosofové substanãní dualismus (ve
20. století Simon pfiichází s pragmatick˘m dualismem (Sternberg, 2001): vûfií, Ïe mysl
závisí na procesech mozku, ale toto spojení je tak komplexní, a víme o nûm tak málo,
Ïe má vût‰í smysl postulovat mentální zákony, které jsou na mozku nezávislé).
Kant redefinoval problematiku tûla a du‰e. Zaãal mezi hledat nimi vztah. Pfiedchozí
zájem byl soustfiedûn pouze na to, jak mysl kontroluje tûlo. Místo hledání duality ãi
jednoty vytvofiil základní schopnosti, neboli mentální síly: vnímání, porozumûní a
my‰lení. Vnímání je blízké tûlu, my‰lení mysli a pochopení je propojuje dohromady.
Také se vyjádfiil k pfiístupu zkoumání mysli. Navrhoval sjednocení mezi racionalismem
a empirismem. Empirické zku‰enosti naz˘val aposteriorní, tedy získané aÏ
po samotném záÏitku. Ty, které jsou nezávislé na empirii, jsou naz˘vány apriorní.
Celková zku‰enost je tedy syntézou tûchto dvou, tedy syntézou vrozeného a
získaného(Sternberg, 2001).
Pfiístupy filosofÛ k lidské mysli slouÏí jako dobrá ukázka neustálé (ale i neuspofiádané)
tendence zpfiesÀování komponent a mechanismÛ, které jsou hybateli lidské mysli.
MnoÏství pfiístupÛ, které se vyjadfiovaly k tomuto fenoménu, je velmi rÛznorodé a
nejlépe asi názorovou pestrost vyjádfií následující diagram (Havel, 2001).
Obr. 3 Dûlení pfiístupÛ ke studu mysli
Argumentaãní moÏnosti dan˘ch smûrÛ v‰ak také souvisí s empirickou rovinou a
stavem poznání. Právû ty mají vliv na omezování platnosti jednotliv˘ch pfiístupÛ a
identifikaci jejich limit pfii aplikaci. BohuÏel ani souãasné znalosti nám neumoÏÀují
odpovûdût na základní otázku, kterou si kladl jiÏ Aristoteles. Tedy zda je za vznik
mysli zodpovûdná pouze du‰e nebo je nutné i fyzické tûlo, popfiípadû je nutná pfiítomnost obou. A jestliÏe je platné tfietí tvrzení, jak˘ je vztah mezi tûmito entitami, hierarchick˘, rovnocenn˘ ãi komplementární? Nejedná se ani tolik o záleÏitosti metafyzické. Spí‰e je mysl fenoménem tak komplexním, Ïe ani souãasné technologie
nevládnou kapacitou a moÏnostmi získat, zpracovat a interpretovat data, která vypovídají o práci a schopnostech lidské mysli (mozku).
O moÏnostech zkoumání mysli z hlediska souãasn˘ch vûdních oborÛ se vyjadfiuje
napfiíklad Gazzaniga. Tfii vûdní obory se vyjadfiují k problematice mysli, ale kaÏd˘
vysvûtluje pouze urãitou ãást pfiedmûtu v˘zkumu. Psychologie a filosofie se bez
dostateãného empirického podkladu z chování snaÏí odvodit teorii, která by byla univerzální. Není ale schopna své poznatky biologicky ukotvit a zb˘vá jí pouhá statistika
jako mûfiítko úspûchu. Neurovûdy svou mravenãí prací rozdûlily mozek na atomy,
poznaly jeho strukturu, ale selhávají pfii syntéze ãástí v celek. Umûlá inteligence se
snaÏí zákony logiky a matematiky simulovat procesy na hardwaru, kter˘ je strukturou
i funkcí nepodobn˘ lidskému mozku (Gazzaniga&Mangun, 1998).
Jiného názoru je Johnson-Laird. Psychologie (studium programÛ) mÛÏe b˘t
uskuteãÀována nezávisle na neurofyziologii (studium strojÛ a strojového kódu). Neurofyziologick˘ substrát musí poskytovat fyziologick˘ základ pro procesy mysli a také
zajistit dostateãnou v˘poãetní sílu pro rekurzivní funkce, jejichÏ fyzikální základ
neklade Ïádné omezení pro vzorce my‰lení (Johnson-Laird, 1980).
Zajímav˘m pfiíspûvkem do diskuse o zpÛsobech smûfiování kognitivních vûd je
NewellÛv ãlánek z poãátku 70. let, kter˘ se jmenoval „NemÛÏe‰ hrát 20 Otázek s
pfiírodou a vyhrát". 20 Otázek je dûtská hra, ve které musí jeden hráã získat podle
odpovûdi druhého poÏadovanou informaci . Newell jí vyuÏil jako metaforu pro otázky
vûdcÛ na povahu pfiírodních dûjÛ. 20 otázek, které poloÏil, se t˘kalo implicitních
znalostí, které produkují dichotomie prostupující souãasnou kognitivní vûdou. Napfiíklad zda je interní reprezentace propoziãní nebo obrazová? Vyvoláváme zpûtnû informace z dlouhodobé nebo krátkodobé pamûti? Je pozornost organizována prostorovû
nebo objektovû? Podle nûj odpovûdi na tyto otázky, pokud bychom je znali, v sobû
obsahují nedostaãující informace pro následná zkoumání. Suma tûchto odpovûdí
nedokáÏe pomoci tvorbû jednotné teorie kognice. Psychologie není schopna vyhrát
s pfiírodou tuto hru. Proto je tfieba pouÏít alternativní postupy. Analytick˘ pfiístup je
pro nûj nedostaãující a navrhuje pfiechod k syntetickému. Newell navrhuje vyjít
z teorie kognitivní architektury, pouÏít dostupné znalosti o funkci lidského kognitivního systému a poté za pouÏití v˘‰e zmínûné teorie integrovat poznatky do oblasti
v˘zkumu. Nutnost empirického v˘zkumu patfií k základním metodám, které Newell
zastával. (Sternberg, 1999).
2.2
Psychologie
2.2.1
Horká a studená metodologie
Dûlení základních metod v oblasti Teorie mysli (aplikovanûji pak tvorby kognitivních
architektur) uvádí Sedláková ve své pfiehledové publikaci. Jsou to:
1. Konstrukce mentálních modelÛ
2. Nápodoba (simulace) kognitivního obrazu zprostfiedkovaného chováním
3. Kombinace 1 a 2, modularita
(Sedláková, 2004).
JiÏ v poãátku je nutné roz‰ífiit pouÏití tûchto metod na celou komplexitu kognitivního
aparátu. Kognitivní psychologie jako odvûtví psychologie vycházející z pojetí mysli
coby informaci zpracovávajícího systému pouÏívá pro své zkoumání mnoho metod.
Ve sv˘ch rann˘ch fázích se v‰ak vyznaãovala tím, Ïe nebrala v potaz roli emocí a motivace. Je to dáno jejich nesnadnou definicí a obtíÏn˘m vymezením právû v kontextu
informaãního pfienosu a zpracování. Existují pfiístupy, které se snaÏí operovat s modely obsahující prvky typu Desire a Belief, ale i ty se ukázaly jako nedostaãující pro tvorbu komplexních modelÛ mysli. Proto se objevuje poÏadavek autorÛ na tvorbu
metodologie, která se naz˘vá horká (Sedláková, 2004). Studenou metodologií je
naz˘ván právû pfiedchozí pfiístup, kter˘ obsahuje pouze zpracování informace na základû pravidel logiky, ãi tvorbou sloÏitûj‰ích operátorÛ, to v‰e pouze v syntaktické rovinû. Horká metodologie se snaÏí zaãlenit do procesu také emoãní podkres, motivaci a
metakognici (cokoliv to slovo znamená).
Thagard ve své nové koncepci teorie mysli zvané CRUM tvrdí, Ïe emoce mají podstatn˘ v˘znam pfii operacích jako je hodnocení, zpûtná vazba a rozhodování. Bez
emocí jsou procesy simulovatelné jen na základní, sériové úrovni. Se vzrÛstající komplexností se nepfiítomnost tûchto markerÛ projeví neschopností „postihnou situaci".
Pfii komplexnûj‰ích dûjích totiÏ musí docházet k autoregulaci, urãitému usmûrÀování
operací, ve smyslu ovlivÀování paralelnû probíhajících procesÛ. Emoce usmûrÀují
propustnost architektury (Thagard, 2001).
2.2.2
Kognitivní Architektury
Souãasn˘ v˘zkum kognitivního modelování je zaloÏen na budování a následném
testování kognitivních architektur. Kognitivní architektury jsou pfiístupem k anal˘ze a
tvorbû modelÛ systémÛ (ãi jeho ãástí). Architektura je tvofiena pevnû danou skupinou
v˘poãetních mechanismÛ a prostfiedkÛ, které tvofií podklad pro lidskou kognici.
Architektury jsou vût‰inou vytváfieny na základû pfiedpokladÛ ãi teoretick˘ch v˘chodisek, takÏe jejich podoba je velmi komplexní a mÛÏe b˘t tvofiena více pfiístupy a kombinací rozliãn˘ch mechanismÛ (Harnad, 1990). V psychologii je tento pfiístup oblíben,
jelikoÏ dokáÏe ze získan˘ch empirick˘ch dat urãitého fenoménu vytvofiit model, kter˘
identifikuje strukturu a mechanismy, které jej tvofií. V urãit˘ch pfiípadech se podafií
identifikovat neurální koreláty, které jsou podobné vysouzen˘m teoretick˘m modelÛm. Toto kriterium v‰ak není bráno jako nezbytné pro jejich úspû‰né fungovaní.
Je to dáno postupem „shora-dolÛ". Nev˘hodou oproti komputaãnímu pfiístupu ãi neu-
ronov˘m sítím je právû jejich neukotvenost (architektury neobsahují popis svého fungování vedoucí aÏ k základním jednotkám – „atomÛm"), respektive jejich atomy jsou
ztotoÏnitelné se základními moduly.
Pokud hovofiíme o teoriích zpracování informací myslí, je nutné rozli‰ovat mezi teoriemi architektur a teoriemi v˘poãetními. Teorie architektur hovofií o procesech mysli,
jako funkãní kapacita STM a LTM. Ty by mûly b˘t podpofieny neurologick˘mi
v˘zkumy. V˘poãetní teorie odhalující algoritmy jsou mnohem obtíÏnûji fie‰itelné.
(Sternberg, 1999). Kognitivní architektury jsou v rovinû simulace spí‰e identifikovatelné s v˘poãetními teoriemi (nejedná se pfiímo o poÏadavek „ãisté" matematické formalizace, ale pouze algoritmizovatelnost). Nemusí b˘t aplikovatelné na konkrétní typ
hardwaru ãi wetwaru, protoÏe v rovinû základních prvkÛ, tvofiící jejich jednotlivé ãásti,
jiÏ nejsou definovány. Pfii jejich simulaci se pouÏívá nejãastûji právû poãítaãÛ. âinnost
architektury je napodobována uÏitím komputaãního hardwaru (v této úrovni není definována), a v‰echny speciální funkce jsou simulovány softwarovû, s omezeními z toho
plynoucími.
Díky tomu je kognitivním architekturám v této práci vûnován jen mal˘ prostor.
MoÏnost posunu v oblasti tvorby kognitivních architektur je pravdûpodobná pouze
v pfiípadû, Ïe by se poznatky z oblasti neurobiologie a psychologie dostaly do
takového stádia, kdyby se poznatky o funkcích mechanismÛ zaãaly pfiekr˘vat a
doplÀovat, coÏ by vedlo k ukotvení psychologick˘ch poznatkÛ na biologick˘ substrát.
Souãasn˘ stav pfiipomíná práci matematikÛ, ktefií znají v˘sledek a snaÏí se skládat jednotlivé operátory a ãísla dohromady tak, aby tvofiili v˘sledek, aniÏ by vûdûli, ãemu tyto
symboly odpovídají.
2.2.3
Kognice
2.2.3.1
Kategorizace – tvorba konceptu
Nyní se budeme zab˘vat pojmem, kter˘ zastupuje jeden z nejsilnûj‰ích mechanismÛ
konstituující inteligentní systém. U ãlovûka je vypracován k dokonalosti, leã bohuÏel
dosud pouze odhadujeme, které procesy jsou za nûj zodpovûdné. V oblasti simulace
je k˘Ïenou metou, která by znamenala pfiechod do oblasti „chápajících" umûl˘ch systémÛ. Nejlep‰ích v˘sledkÛ dosahujeme pouÏitím neuronov˘ch sítích. Z hlediska
moÏností a schopností kategorizaãního aparátu jde teprve o zaãátek.
Introspektivní pokusy o zkoumání kategorizace selhávají na tom, Ïe cílem jejího
bádání jsou procesy, které jsou nevûdomé a neverbální, coÏ uÏ v zaãátku neumoÏÀu-
je moÏnost, jak dané fenomény uchopit (Sternberg, 2001).
V psychologii se setkáme spí‰e neÏ s tvorbou kategorií ãi tfiíd s pojmem konceptu,
kter˘ uvádí tento proces do psychologického kontextu a ztotoÏÀuje jej s mentální
reprezentací. Koncept je nazírán jako mentální reprezentace tfiídy objektÛ (kategorií)
(Sternberg, 2001).
Mezi základní pfiístupy ke studiu konceptu patfií:
1. Pfiístup na základû podobnosti – vysvûtluje pomocí stupnû podobnosti
ke známému
2. Pfiístup na základû vysvûtlovací báze – operuje s pfiedchozí znalostí
Klasick˘ koncept je tvofien základními vlastnostmi, které konstituují jasné ohraniãení
kategorie. Vlastnosti musí b˘t samostatnû nezbytné a spoleãnû dostaãující, aby obsáhly danou kategorii. Klasick˘ pohled zastává názor, Ïe struktura kategorií má b˘t hierarchická. Podkategorie musí mít v‰echny vlastnosti nadfiazen˘ch kategorií (Sternberg,
2001). Naopak to ale nemusí fungovat. V nadfiazen˘ch kategoriích se nûkteré vlastnosti
niωí kategorie ztrácejí. Jsou vypu‰tûny, protoÏe nadfiazené kategorie jsou obecnûj‰í a
zahrnují více pfiedmûtÛ. Dal‰í námitky proti klasickému konceptu jsou shrnuty v následujících bodech:
Prvky dané kategorie vût‰inou nezapadají pouze do ní, ale jsou „fuzzy", tedy Ïe podle
sv˘ch vlastností náleÏí do více kategorií.
Objekty neb˘vají ãasto tak pfiesnû definované, aby mohly b˘t jasnû pfiifiazeny do urãité
kategorie.
Objekt podfiadné kategorie (orel) b˘vá ztotoÏÀován více se základní kategorií (pták)
neÏ s nadfiazenou (zvífie), protoÏe s ní sdílí více vlastností.
(Sternberg, 2001)
Klasick˘ pfiístup není schopen vysvûtlit efekt typickosti . Tedy Ïe lidé rychleji pfiifiadí
do kategorie jeho typického ãlena, neÏ atypického (Sternberg, 2001).
Pfiístupy zaloÏené na podobnosti
Nedostatky v klasickém modelu kategorizace vedly ke tvorbû nov˘ch teorií. Patfií mezi
nû pfiístup zaloÏen˘ na podobnosti, do kterého patfií pravdûpodobnostní pfiístup a
pfiístup na základû exempláfie.
Pravdûpodobnostní pfiístup nepouÏívá vlastnosti ãi podmínky, které jsou nutné
nebo dostaãující. Kategorizuje tím, Ïe sdílí urãit˘ podíl vlastností s objekty, které
náleÏí do stejné tfiídy. Tím se vyh˘bá efektu typiãnosti. Základním konceptem pro tuto
teorii je termín rodové podobnosti (Wittgenstein, 1953). Jedná se o strukturu, která
obsahuje mnoÏinu pfiíkladÛ, pfiiãemÏ kaÏd˘ má alespoÀ jednu shodnou vlastnost
s jedním nebo více pfiíklady dané mnoÏiny. TakÏe úroveÀ typiãnosti je podmínûna
právû rodovou podobností.
Podskupinou pravdûpodobnostního pfiístupu tvofií teorie prototypu (Posner&Keele,
1968). Lidé si vytváfiejí reprezentaci centrální tendence kategorie pomocí prototypu.
Prototyp v sobû zahrnuje nejãastûj‰í vlastnosti, které danou tfiídu definují. Je pouÏiteln˘ pro svou jednoduchost, tedy Ïe si jej mÛÏeme pfiedstavit jako jeden hybridní objekt,
jehoÏ vlastnosti mohou nab˘vat omezen˘ch hodnot.
DÛleÏit˘m prvkem pfii tvorbû kategorií je váha dané vlastnosti, pfiiãemÏ rozhodující je,
zda vlastnost zvy‰uje koherenci dané tfiídy. U ãlovûka jsou váhy, podle kter˘ch
pfiifiazuje objekty kategoriím velmi subjektivní a obtíÏnû zkoumatelné (Sternberg,
2001).
Lineární separovatelnost
Kategorie jsou lineárnû separovatelné, pokud mÛÏeme roztfiídit objekty tak, Ïe po
znázornûní podle míry vlastnosti (vyná‰eno v N-dimenzionálním prostoru podle
N vlastností) vzniknou seskupení objektÛ dle vlastností, které lze od sebe oddûlit
pfiímkou, rovinou (podle poãtu dimenzí prostoru).
Nejãastûji se pouÏívá dvou vlastností. Objekty jsou vyná‰eny podle míry dané vlastnosti,
a pokud jsou lineárnû separovatelné, mÛÏeme jednotlivé skupiny oddûlit pfiímkou.
Obr. 4 Linearní separovatelnost
MoÏnosti tfiídûní jsou ovlivnûny podle vlastností pouÏit˘ch jako osy grafu. V podstatû
jde o hledání korelace mezi vlastnostmi. UmoÏní nám mechanické rozãlenûní jednotliv˘ch objektÛ pomocí kvantifikované míry vlastnosti. Pokud ale je objekt speciálním pfiípadem tfiídy (tuãÀák – pták, kter˘ nelétá), nejsme schopni vyuÏít tento zpÛsob
jako automatick˘ kategorizátor a musíme provést korekce pomocí dal‰ích mechanismÛ
Dal‰ím typem je pfiístup zaloÏen˘ na exempláfii. Nové objekty jsou porovnávány
s exempláfiem uloÏen˘m v pamûti, kter˘ zastupuje urãitou kategorii. Oproti teorii prototypu je zde v pamûti uloÏen konkrétní model. Prototyp nabízel stupnû volnosti ve
vyjádfiení vlastnosti (abstrahoval tedy od reality), zatímco exempláfi je jasnû dan˘ a
definovan˘. Jediná abstrakce se provádí, pokud je hledána míra shody nového objektu s exempláfiem.
Tento pfiístup umoÏÀuje vysvûtlení kontextu v procesu kategorizace za pomoci míry
aktivace exempláfie. V rÛzn˘ch situacích (v rÛzném kontextu) je váha exempláfie men‰í
nebo vût‰í (Sternberg, 1999). Pokud se ale podíváme na prototypov˘ pfiístup, je zde
tato vlastnost obsaÏena také. Prototyp je abstraktní exempláfi a je mu umoÏnûno, aby
jeho vlastnosti nab˘valy hodnot v daném rozmezí.
Hlavní kritika pfiístupÛ zaloÏen˘ch na podobnosti jde shrnout do následujících
bodÛ:
1. Jednotlivé pfiístupy jsou obtíÏnû rozli‰itelné.
2. NedokáÏí vysvûtlit proces kategorizace a interference v takové ‰ífií, jak probíhá
u ãlovûka.
3. Ignorují jinou informaci neÏ podobnost, i kdyÏ by mohla b˘t dÛleÏitá pro proces
kategorizace (Sternberg, 1999). Problematicky se také jeví dynamická povaha procesu
generalizace (ve formû funkce), kterou nejsou modely zaloÏené na podobnosti schopné akceptovat.
Druh˘m teoretick˘m zpracováním procesu kategorizace jsou pfiístupy zaloÏené na
explanaci (vysvûtlovací báze). Jejich základem je vylouãení pfiedchozího pfiístupu
(posuzování podobnosti) v procesu klasifikace (kategorizace). Hovofií se v nich o
potfiebû získat vysvûtlovací strukturu pfii kategorizaci z nûjaké obecné teorie (Sternberg, 2001).
U umûl˘ch systémÛ to znamená, Ïe jsou kategorie a proces kategorizace dány
ãlovûkem, kter˘ jej navrhl (svût vníman˘ systémem je tfiídûn do tûchto pfieddefinovan˘ch kategorií). Pokud se v prostfiedí objeví nov˘ prvek, kter˘ nepatfií do Ïádné
z kategorií, systém s ním nedokáÏe interagovat, není ho schopen identifikovat
(Pfeifer&Scheier, 2001). Kategorizaci tedy pfiedchází uvaÏování v abstraktní rovinû,
které se snaÏí nalézt teorii (u umûl˘ch systémÛ to je‰tû není moÏné), která by byla
schopna odvodit chybûjící kategorii. Omezení vypl˘vá právû z abstraktní roviny operací. V takovém pfiípadû musí probíhat kategorizace na vûdomé úrovni a nelze ji
povaÏovat za automatick˘ proces.
Ve zkratce uvádím základní pfiístupy zaloÏené na vysvûtlovací bázi:
1. Pfiístup zaloÏen˘ na teorii
2. Psychologick˘ esencialismus
3. Idealizované kognitivní modely
4. Kauzální modely
Jaké jsou v˘hody a nev˘hody dvou kofienov˘ch pfiístupÛ? Explanaãní pfiístupy jsou
jednodu‰‰í pro analyzování a testování, protoÏe jsou diskrétní, logické a explicitní.
Pfiístupy zaloÏené na podobnosti jsou daleko odolnûj‰í proti chybám a flexibilnûji
pouÏitelné, protoÏe je v˘poãet roz‰ífien na cel˘ systém. Také mohou zpracovávat zcela
nové podnûty, jelikoÏ jsou schopné generalizace na základû podobnosti
(Sloman&Rips, 1998).
V˘zkumy v oblasti kategorizace se posouvají v nûkolika smûrech. Jednou z nich je
v˘zkum kategorizace zpÛsobem fie‰ení problému, pfiiãemÏ reprezentace problému se
mûní v závislosti na zku‰enostech systému a jeho interakci se strukturou problému
(Ross, 1996). Druhou moÏností je zkoumat kategorizaci pfii aplikaci v oblasti neuronov˘ch sítí. PouÏívá se metody nekontrolovaného uãení, fiízené pouze zpûtnou
vazbou systému (viz Konekcionismus).
Kategoriální reprezentace
V pfiípadû, Ïe pohlíÏíme na kategorizaci z pohledu automatického mechanismu, patfií
mezi základní procesy diskriminace (rozli‰ování) a identifikace. Diskriminaci je moÏno
popsat jako posouzení, zda jsou dva vstupy podobné nebo ne a pokud jsou rozdílné,
tak v jaké mífie. Diskriminace je relativním posouzením zaloÏen˘m na schopnosti hodnotit oddûlenû objekty (vstupy) a rozpoznat míru podobnosti. Identifikace je schopnost pfiifiadit unikátní odpovûì – „jméno" – tfiídû vstupÛ, které budou následnû brány
jako ekvivalentní a invariantní. Identifikace je proto soudem absolutním, jelikoÏ
posuzuje podle kategorie, která je pevnû dána.
Pokud si vezmeme vzájemn˘ vztah mezi tûmito procesy, pak je diskriminace nezávislá na identifikaci. Je moÏno rozli‰ovat objekty bez nutnosti vûdût, do které kategorie
patfií. Proces identifikace nám umoÏÀuje odhalit právû invariantní vlastnosti. Jejich
aplikací (tedy pouÏitím detektoru na invariantní vlastnosti) získáváme kategoriální
reprezentace. Lépe fieãeno, kategoriální reprezentace je teoretick˘ soubor vlastností, které mohou mít takové hodnoty, Ïe jsou pfii anal˘ze detektorem invariantních vlastností akceptovány a pfiifiazeny do dané kategorie (Harnad, 1990). Tento pojem zavádí
Harnad jako jednu z podmínek pro tvorbu systému, které by dokázaly sémanticky
ukotvit v˘znam symbolÛ, jeÏ zpracovávají. V dfiívûj‰ích pracích se novému pojmu
nejvíce podobá kategorizace zaloÏená na prototypu.
2.2.3.2
Vnímání
Oproti klasickému Neisserovskému cyklu vnímání, kter˘ se skládal ze 3 ãástí, se
mÛÏeme setkat s modifikacemi, které operují s pûtiprvkov˘m modelem. Ten slouÏí
lépe pro vysvûtlení nûkter˘ch procesÛ spojen˘ch s kognicí a také s kontrolovan˘m
(supervised) ãi nekontrolovan˘m (unsupervised) uãením, se kter˘m se podrobnûji
seznámíme v kapitole o neuronov˘ch sítích. Pfiesnûj‰í popis jednotliv˘ch ãástí modelu
je uveden v následujících odstavcích (Konar, 1999).
Obr. 5 Cyklus vnímání: KU - kontrolované uãení,
NU - nekontrolované uãení, Uv - UvaÏování
1. âití (v klasické terminologii odpovídá spí‰e pojmu vnímání) – tohoto termínu se
pouÏívá ve v˘znamu recepce a transformace signálu do mûfiitelné formy. V ‰ir‰ím v˘znamu (vnímání) se k tomuto procesu pfiifiazuje také pfiedzpracování informace
(odstranûní ‰umu, vydûlení dÛleÏit˘ch prvkÛ jako tvar, barva) a uloÏení do krátkodobé
pamûti. To neplatí pro TveterÛv model pamûti, kter˘ pfiedpokládá pfiím˘ vstup senzorÛ (po transdukci) do dlouhodobé pamûti
2. Akvizice (osvojení) – porovnává obsahy v krátkodobé pamûti (STM) s informacemi, které jsou permanentnû uloÏeny v dlouhodobé pamûti (LTM), která mÛÏe b˘t
nov˘mi informacemi modifikována. Tato úprava obsahu se naz˘vá vylep‰ení znalosti
a je spojována s nekontrolovan˘m (unsupervised) uãením (NU) , tedy kdyÏ systém
nepotfiebuje interpretátora prostfiedí, ale dokáÏe sám rozeznat zmûny mezi sv˘mi
interními obsahy a prostfiedím, porovnat je a posoudit, zda-li by mûlo dojít k vylep‰ení
znalosti. Zmínûné procesy b˘vají ãasto nevûdomé.
3. Vnímání (v klasické terminologii spí‰e my‰lení) – jde o proces konstrukce „highlevel" znalostí pomocí informací získan˘ch na „low-level" úrovních a jejích následná
organizace a kategorizace do strukturální podoby tak, aby mohly b˘t efektivnû
pouÏívány pro operace s interními reprezentacemi v „high-level" úrovni. Jedná se opût
o automatick˘ proces. Nejlépe se pfii modelování pouÏívá sémantick˘ch sítí.
4. Plánování – v sobû obsahuje posloupnost akcí, které z poãáteãního stavu jsou
schopny dosáhnout stavu cílového. Hlavním úkolem je nalézt a identifikovat patfiiãné
znalosti ãi jejich ãásti a ty následnû aplikovat pfii fie‰ení problému (tvorbou krokÛ).
DÛleÏité je rozli‰ení mezi plánováním a uvaÏováním, coÏ jsou odli‰né termíny.
UvaÏování mÛÏe pokraãovat i v prÛbûhu vykonávání akcí (soubûÏnû), zatímco
plánování je proces naplánování krokÛ akcí, pfiiãemÏ jejich vykonávání probíhá aÏ
následnû. Dan˘ rozdíl spí‰e ustanovuje hierarchii tûchto termínÛ, tedy Ïe plánování je
jen urãitou formou uvaÏování.
5. Jednání – v této fázi se jedná o vykonání plánovan˘ch posloupností pomocí „lowlevel" mechanismÛ. Posloupnost jejich vykonávání je dána úrovní plánu. V této úrovni
je moÏné aplikovat postupy kontrolovaného uãení (KU), díky oznaãení míry efektivity a její rozãlenûní na jednotlivé úseky plánu, ãímÏ poskytujeme systému zpûtnou
vazbu (Konar, 1999). Zohlednûní typÛ uãení a jejich moÏností v procesu kognice ãi
zpracování informace inteligentním systémem, ãiní tento model nejlépe vyuÏiteln˘
právû v oblasti neuronov˘ch sítí.
2.2.3.3
My‰lení
V mnoha pfiístupech b˘vá slovo „my‰lení" spojováno s pojmem vûdomá mysl. To
odpovídá nazíráni inteligence, jak ji vidûl Terman a v podstatû vede aÏ ke tvrzení René
Descarta „Cogito ergo sum". V oblasti simulace se klasick˘ pojem my‰lení témûfi
nevyskytuje. Simulace procesu my‰lení v sobû obsahuje tak rÛznorodé mechanismy,
které jsou studovány samostatnû a ãasto nedochází k integraci do jediného pojmu
my‰lení. V kognitivních vûdách je my‰lení dûleno na jednotlivé podúlohy (napfi. fie‰ení
problémÛ, rozhodování, uvaÏování, popfiípadû je‰tû pfiesnûji na generalizaci, kategorizaci apod.). V oblasti simulace dochází k podobné strukturaci. My‰lení je tedy pro
aplikovanou oblast pfiíli‰ siln˘m pojmem, ãemuÏ odpovídá i názorová pestrost
na vymezení daného pojmu.
Hofstadter tvrdí, Ïe mezi low a high level procesy (my‰lení) leÏí tolik vrstev, Ïe tyto
dvû vrstvy nemají moÏnost vûdût, co se dûje na té druhé (Hofstadter, 1999).
Ulam vidí my‰lení (zavfiené) jako iterativní proces se vzorcem rÛstu (Hofstadter, 1999).
My‰lení je moÏnost fragmentace a restrukturace kauzálního kontinua v reprezentované
formû.
My‰lení a kreativitu lze povaÏovat jako urãitou formu deformace, schopnosti pozmûnit vnímanou skuteãnost tak, aby odpovídala zámûru, kter˘ si vyt˘ãil organismus pro její pfiemûnu
(Boden, 1988). V podstatû je lze pfiirovnat k Freudov˘m obrann˘m mechanismÛm jako
regrese, sublimace, t˘kajících se oblasti vnímání sebe sama (reflexi vlastního vnímání a
proÏívání). Deformace ale mÛÏe b˘t pfiítomna jiÏ pfii pouhém vnímání (zde mu více
odpovídá pojem centrace vnímání) nebo pfii vybavování ãi mentální operaci s reprezentacemi.
2.3
Biologie
2.3.1
Biologické versus umûlé systémy
ObtíÏnû se rozhoduje také v problematice základního substrátu (nejjednodu‰‰í prvek
architektury). Otázka zní, zda-li musí b˘t tento substrát biologické povahy
(Pfeifer&Scheier, 2001). Dlouhou dobu panoval názor, Ïe „pravá inteligence" se vyskytuje pouze u biologick˘ch mozkÛ (které jsou tvofieny z prvkÛ Ïivé pfiírody). Na druhou
stranu nebyl objeven dÛkaz, kter˘ by fiíkal, Ïe není moÏné principielnû zvládnout
na nebiologickém (umûlém) substrátu to, co lze provést na biologickém. Jedin˘ zfieteln˘ rozdíl je ve zpÛsobu napodobování pfiírody (uÏití prvkÛ neÏivé pfiírody). Napfiíklad
model neuronu, kter˘ se pouÏívá dodnes, je redukcí neuronu biologického.
U umûlého neuronu nejsou obsaÏeny mechanismy známé u biologick˘ch jako metabolismus, tvorba neurotransmiterÛ, transport Ïivin, závislost na okolním prostfiedí (pfiíjem a v˘dej látek). Dal‰ím nedostatkem umûl˘ch neuronÛ mÛÏe b˘t napfiíklad jejich
neschopnost napodobit práci transmiterÛ v extrémních (ãi omezen˘ch) podmínkách
ve smyslu simulace komplexních systémÛ. Nevyskytují se pokusy vytvofiit (komplexní)
systém, kter˘ pracuje s nedostateãn˘m mnoÏstvím transmiterÛ apod. Námitkou mÛÏe
b˘t, Ïe nám staãí simulovat neurony v optimálních podmínkách a zkoumání jejich ãinnosti v abnormálních podmínkách jiÏ není potfiebné, jelikoÏ v˘sledky lze za optimálních podmínek extrapolovat. Do jaké míry jsou námitky proti redukci biologického
neuronu opodstatnûné se ukáÏe pfii budoucích simulacích .
Nabízí se otázka, jak by fungoval biologick˘ neuron, pokud bychom mu zajistili
dostateãnou v˘Ïivu, ale Ïádnou moÏnost provádût ãinnost. Pokud by tento stav znamenal pro nûj smrt, lze pfiedpokládat, Ïe ãinnost je nutnou podmínkou jeho Ïivota.
umûle vytvofien˘ch neuronÛ (na nebiologické bázi) taková vlastnost neexistuje. JiÏ
v základní úrovni jednotlivého neuronu se mÛÏeme setkat s rozdílem, kter˘ v dal‰ích
dÛsledcích mÛÏe vést k problémÛm se simulací. Jde o pfiipomenutí klasického rozdílu
mezi Ïiv˘m a neÏiv˘m. DÛsledek se promítá do funkãní roviny, tedy oblasti, o kterou
má simulace velk˘ zájem, ale pfiesto nebere pfii sv˘ch vyvozováních zmínûnou rozdílnost v potaz.
Zajímavé jsou otázky ohlednû podobnosti biologické smrti a „vypnutí" hardwaru . Hofstadter nazírá my‰lení (software) jako reprezentaci reality v hardwaru mozku. Pokud
ale organismus zemfie, tak hardware zÛstává, ale reprezentace zmizí. Vysvûtlením
mÛÏe b˘t, Ïe pokud hardwaru chybí napájení, stává se nefunkãním a není ani schopen
reprezentace v sobû udrÏet (Hofstadter, 1999). U lidského mozku ale nemÛÏeme pfiesnû hovofiit o softwaru, kter˘ pfieÏije smrt hardwaru (wetwaru). Je to dáno povahou
architektury. V pfiípadû neuronov˘ch sítí je softwarem (dle prezentacionistÛ) prostfiedí,
které je zpracováváno v organismu pomocí vah neuronov˘ch spojení a jejich funkci
(formou distribuovan˘ch reprezentací). Dalo by se fiíci, Ïe s hardwarovou smrtí mizí
kopie softwaru (reprezentace), ale software (prostfiedí) pfieÏívá, protoÏe je na organismu znaãnû nezávisl˘.
Existuje urãitá souvztaÏnost mezi biologickou komplexitou a jednoduchostí algoritmÛ.
âím více chceme pomocí simulace dosáhnout plausibilnûj‰ího modelu, tím více
v˘poãetní kapacity potfiebujeme. Pfii sloÏit˘ch modelech v‰ak nutnû musíme abstrahovat a redukovat. Otázkou ale zÛstává, jestli pfii této abstrakci nepomíjíme vlastnosti,
které jsou právû nezbytné pro tvorbu inteligentního chování. Napfiíklad u neuronov˘ch síti nejsme schopni napodobit biologické sítû tak, aby obsahovaly
v dostateãné mífie vlastnosti jako generalizace, robustnost a paralelismus
(Pfeifer&Scheier, 2001), coÏ jsou omezení spí‰e technologické povahy.
2.4
Umûlá inteligence
Umûlá inteligence je empirická vûda, která se zab˘vá v˘zkumem a napodobováním
inteligentních projevÛ. Nejãastûji pomocí abstrakce a modelování inteligentních projevÛ mimo médium lidské mysli. Inteligentními projevy podle Feigenbauma rozumíme
napfi.: uãení, fie‰ení problémÛ, porozumûní jazyku, uvaÏování. Marvin Minsky, jehoÏ
definice je povaÏována za nejobecnûj‰í a nejuznávanûj‰í, definuje umûlou inteligenci
jako vûdu, která se zab˘vá tím, jak pfiinutit stroje, aby vykazovaly takové chování , jaké
by v pfiípadû ãlovûka vyÏadovalo uÏití inteligence. Minského definice vychází
Turingova imitaãního testu: „Umûlá inteligence je vûda o vytváfiení strojÛ nebo systémÛ, které budou pfii fie‰ení urãitého úkolu uÏívat takového postupu, kter˘ – kdyby
ho dûlal ãlovûk – bychom povaÏovali za projev jeho inteligence" (Minsky, 1967,s.21).
Definice je klasick˘m pfiíkladem antropocentrismu v oblasti UI. Jako absolutní hodnota pfii porovnávání inteligentních systémÛ je brán ãlovûk, stroje jsou s ním
pomûfiovány, stejnû jako u Turingova testu. S tím jsme se setkali v oblasti mûfiení IQ
u lidí. Hodí se k vyjádfiení míry v˘konnosti a efektivity. Pokud je ale pozorovatel
(ãlovûk) také mírou inteligence, nastává problém, jestliÏe stroj pfiesáhne lidské schopnosti. Ztrácíme pak moÏnost kvalitativnû vyjádfiit míru strojové inteligence. JestliÏe
nová inteligence vykazuje vût‰í moÏnosti a schopnosti neÏ ãlovûk, tûÏko lze lidsk˘mi
vyjadfiovacími prostfiedky novou kvalitu zachytit. Minského definice se také pfiíli‰
nevyjadfiuje o mechanismech ãi struktufie inteligentních systémÛ (pfiedmûtu
zkoumání).
Jin˘m pokusem o vymezení oboru je Kotkova definice. „Umûlá inteligence je vlastnost
ãlovûkem umûle vytvofien˘ch systémÛ, vyznaãujících se schopností rozpoznávat pfiedmûty, jevy a situace, analyzovat vztahy mezi nimi a tak vytváfiet vnitfiní modely svûta,
ve kter˘ch tyto systémy existují, a na tomto základû pak pfiijímat úãelná rozhodnutí, za
pomoci schopnosti pfiedvídat dÛsledky tûchto rozhodnutí a objevovat nové zákonitosti
mezi rÛzn˘mi modely nebo jejich skupinami" (Kotek a kol., 1983,s. 42). Oproti pfied-
chozí, nacházíme v Kotkovû definici zdÛraznûnou potfiebu reprezentace, nutnou
vytvofiení obrazu okolí a následnou tvorbu a práci s modely zaloÏen˘mi na reprezentacích. Autor se v‰ak spí‰e snaÏí definovat cíl oboru (umûl˘ inteligentní systém) neÏ
vûdní obor UI. Také lze polemizovat s tvrzením, Ïe inteligence je vlastnost systému.
Jde o schopnost. Právû vymezením pfiedmûtu jako zkoumání tvorby a aplikace
reprezentací svûta pfii jeho interakci s okolím, se autor hlásí k proudu reprezentacionistÛ. V oblasti umûlé inteligence ale mÛÏeme nalézt i zastánce prezentacionistÛ.
Napfiíklad v pracích Brookse ãi Gibsona se objevují názory, Ïe inteligentní systém
nepotfiebuje pro svou ãinnost vytváfiet vnitfiní reprezentace okolního prostfiedí. Více
informací o této problematice je uvedeno v kapitolách o mentálních reprezentacích a
agentovém pfiístupu.
Tradiãní paradigma v umûlé inteligenci se v literatufie oznaãuje rÛzn˘mi pfiívlastky,
jako logicko-symbolické, symbolicko-reprezentaãní, algoritmické, komputacionistické.
Tyto pfiívlastky dostateãnû charakterizují tradiãní umûlou inteligenci a odli‰ují ji
od novûj‰ích smûrÛ, které mimo jiné vedou k hlub‰í otázce po relevanci pouÏité
architektury poãítaãe (ãi obecnû technického systému) vhodné k realizaci kognitivních
procesÛ.
Zmínûná otázka se stala aktuální hlavnû v posledních dvaceti letech, kdy se objevily
alternativní paradigmata v umûlé inteligenci: konekcionismus (neuronové sítû) a distribuovaná umûlá inteligence (multiagentní systémy) (Havel, 2001). Bliωí rozbor relevance a limit architektur je proveden v následujících kapitolách.
Vût‰ina konkrétních aplikací umûlé inteligence má jeden podstatn˘ znak. Tím je
odklon od tvorby obecného univerzálního systému zpÛsoben˘ technick˘mi a znalostními obtíÏemi pfii napodobování. V historii umûlé inteligence se z tohoto dÛvodu
experimenty následnû zamûfiovaly vÏdy na nûkterou specifickou (nûkdy velmi specifickou) kognitivní schopnost. V souãasnosti se ale znovu objevuje potfieba, aby se
místo usilování po dokonalosti ve specifick˘ch úlohách zamûfiila integrovaná umûlá
inteligence na dílãí propojení metod do jednoho celku. Samotn˘ pojem inteligence
v sobû totiÏ zahrnuje právû v‰estrannost jako podstatnou charakteristiku (Havel, 2001).
O integrované umûlé inteligenci lze dnes hovofiit jen v souvislosti s konstrukcí
inteligentních robotÛ.. Na robota mÛÏeme pohlíÏet jako na prostorovû situovan˘ a
vtûlen˘ (embodied) systém, kter˘ je v kontaktu s reáln˘m, nikoliv virtuálním
prostfiedím (Havel, 2001). Nutno podotknout, Ïe robotika má kromû aplikaãního také
badatelsk˘ v˘znam i svá filosofická v˘chodiska. Vtûlená kognitivní vûda je probírána
v kapitolách vûnovan˘ch pfiístupu zaloÏeném na agentech.
2.4.1
Metody UI
V oblasti metod umûlé inteligence se setkáváme s pojmem siln˘ a slab˘ hned dvakrát.
Jsou to zaprvé - silná a slabá umûlá inteligence a za druhé - silné a slabé metody umûlé
inteligence. I kdyÏ se v‰echny ãtyfii zmínûné pojmy objevují ve spojitosti s metodami
UI, jejich pfiesné vymezení je posouvá do ponûkud jin˘ch oblastí.
Hovofiíme-li o silné a slabé umûlé inteligenci, ocitneme se rázem v rovinû nejvy‰‰í
obecnosti teorie. Základní otázka, která rozdûluje silnou a slabou inteligenci je: „Co
potfiebujeme k napodobení inteligence?".
Silná umûlá inteligence vychází z pfiesvûdãení, Ïe my‰lení je jen a pouze zpracování informace, které mÛÏe b˘t úspû‰nû duplikováno v systému se správnû realizovanou funkcionální sítí (tj. v systému se správnou komputaãní strukturou). Zpracování informací je algoritmizovatelné, a tudíÏ zpracovatelné univerzálním Turingov˘m
strojem (viz TuringÛv stroj). Silná umûlá inteligence je tedy jakousi derivací funkcionalistické teorie mysli, která se soustfieìuje na moÏnost (prostfiednictvím vhodného programu) realizovat mentální stavy v digitálním poãítaãi (Pícha, 2001). Extrémní zastánci pfiístupu hovofií o moÏnosti simulovat lidskou mysl pomocí pivních kelímkÛ
propojen˘ch provázky. Tvrzení silné UI jsou v˘razem víry ve funkcionalismus a
moÏnosti pfievedení okolního svûta do v˘poãtÛ.
Jedním z hlavních smûrÛ, kter˘ ovlivnil kognitivistické paradigma, je
funkcionalismus. Jeho hlavní dÛraz není kladen na architekturu a strukturu
systému, ale na to, aby systém byl schopen vykonávat poÏadované operace
(Pfeifer&Scheier, 2001). Základní rozdíl mezi strukturalismem a funkcionalismem je, Ïe první zmínûn˘ zkoumá ãlovûka jako pasivní bytost, která je vystavena pÛsobení prostfiedí, pfiijímaného skrz smysly. Funkcionalismus naopak
vnímá jedince jako aktivního úãastníka vnímání a konání (Sternberg, 2001).
Searle klade slabou umûlou inteligenci do opozice k silné. Podle slabé umûlé
inteligence spoãívá základní hodnota poãítaãÛ pfii studiu mysli v tom, Ïe pfiedstavují
velmi uÏiteãn˘, ale vÏdy pouze nástroj v rukou ãlovûka. Poãítaãe dokáÏí fie‰it jen specifické problémy. Definice slabé UI je z velké ãásti postavena na popfiení moÏností,
které nabízí silná UI.
Diskusí kolem silné a slabé umûlé inteligence je nepfieberné mnoÏství. Vymezení
tématu se objevuje v mnoha modifikovan˘ch variantách. BohuÏel odpovûì na otázku,
jaké jsou nutné podmínky pro architekturu systému schopného napodobit inteligentní chování (v˘‰e zmínûné „Co potfiebujeme k napodobení inteligence?"), je pfiedãasnû
poloÏena. Na empirická ovûfiení, která odpoví na poloÏenou otázku, zatím nejsme
dostateãnû vybaveni. Legitimizuje ji oblast filosofie mysli, ze které se rekrutují autofii
vyjadfiující se k danému tématu.
Snadnûj‰í je odpovûì na otázku ze zaãátku kapitoly, zda je silná a slabá umûlá
inteligence metodou UI. V˘‰e zmínûná fakta ukazují, Ïe slovo metoda by v tomto pfiípadû bylo zavádûjící pro svou konkrétnost.
PfiesuÀme se nyní k problematice siln˘ch a slab˘ch metod UI. Newell a Simon definovali dvû metody, kter˘mi se dá simulovat zpracování informace. Slabá metoda fiíká,
Ïe funkci inteligentního systému staãí pouze pár v˘konn˘ch mechanismÛ, které zpracovávají pfiíchozí informace. Není potfieba tvofiit interní reprezentace o tûchto procesech. Systémy mají velmi slabé poÏadavky na pfiedchozí znalost pfii fie‰ení úkolu,
dÛleÏitûj‰í je vÏdy samotn˘ algoritmus. Tento zpÛsob vycházel ze Simonov˘ch názorÛ,
Ïe dÛleÏitou komponentou pfii tvorbû inteligentních systémÛ je právû funkce operátorÛ a Ïe interní reprezentace (pamûÈov˘ sklad) nesouvisí s nárÛstem inteligence. Siln˘
pfiístup naopak vychází z dÛrazu na znalost a na její sílu. Kvalitní forma interní
reprezentace je zde nutnou podmínkou (Hogan, 1998). Silná metoda v sobû obsahuje slabou metodu a navíc také znalostní bázi, která v sobû obsahuje reprezentace pfiíchozích informací. Reprezentace jsou ukládány tak, aby byly postiÏeny vztahy mezi
informacemi podle pravidel pfiedem naprogramovan˘ch mechanismÛ (Luger, 1994).
I v tomto pfiípadû se nám nedafií pfiesnû naplnit pojem metoda umûlé inteligence.
Oproti pfiíli‰ obecnému pfiedchozímu pfiípadu, je zde problém opaãn˘. Jedná se
o specifické pouÏití pro urãitou oblast UI. Pfiesnûji fieãeno oblast produkãních, ãi
expertních systémÛ, které jsou zmínûné v pozdûj‰ích kapitolách.
2.5
Informace
Pokud budeme chtít hovofiit o architekturách, pomocí kter˘ch se vûdci snaÏí
napodobovat lidské my‰lení, je nutné pfiedem zmínit klíãov˘ termín informace. V kognitivních vûdách se hovofií o zpracování informace, která má jiÏ konkrétní formu nebo
alespoÀ vymezen˘ rámec, v nûmÏ se pohybuje (stává se kódem). Podívejme se ale na
pojem informace v obecné rovinû.
V roce 1948 publikoval Claude Shannon spoleãnû s matematikem Warrenem
Weaverem ãlánek „A mathematical theory of communication". Nûktefií historikové
vûdy tuto práci naz˘vají „Magna charta informaãního vûku". Ukazuje se v ní, Ïe k exaktnímu zkoumání informace je potfieba abstrahovat od její sémantické stránky a omezit se na stránku syntaktickou, která je statistick˘mi prostfiedky snadnûji popsatelná.
Informace spoãívá v odstranûní neurãitosti. Pfii vyjádfiení míry odstranûné neurãitosti
dospûl Shannon k formálnû stejnému vztahu, kter˘ koncem 19. století odvodil Ludwig
Boltzmann pro entropii. Následné konsekvence vedou ke zji‰tûní, Ïe zdánlivû nehmotná informace je pevnû vázána na fyzikální svût hmoty a energie a Ïe kaÏd˘ pfienos ãi
záznam informace vyÏaduje disipaci jisté energie, a tedy vzrÛst termodynamické
entropie (Vysok˘, 2004).
Podle toho, ve kterém vûdním oboru nebo ve které oblasti lidské ãinnosti se pouÏívá,
jsou aplikovány specifické pfiístupy ke zkoumání informace a jsou k dispozici rÛzné
zpÛsoby jejího definování. Autor publikace z oblasti teorie informace Norbert Wiener
se vyjadfiuje ke zmínûnému pojmu ponûkud metaforicky: „Mechanick˘ mozek neprodukuje my‰lení „jako játra Ïluã", jak si mysleli první materialisté, stejnû jako jej neprodukuje ve formû energie jako svaly aktivitu. Informace je informace, ne hmota nebo
energie (Wiener, 1947,s. 89). V samotné práci pak (stejnû jako Shannon) hovofií
o informaci jako o opaku entropie (PstruÏina, 1998). Pfiesnûj‰í definice informace je
moÏno nalézt v mnoha vûdních oborech. Vyjadfiují názorovou pestrost a také specifická pole vyuÏití pro dané obory.
Filozofické pojetí informace:
•
Vlastnost hmotné reality b˘t uspofiádán a její schopnost uspofiádávat (forma
exis tence hmoty vedle prostoru, ãasu a pohybu).
•
V˘znam pfiifiazen˘ obrazÛm, údajÛm a z nich utvofien˘m lidsk˘m celkÛm.
Informace pfiedstavuje míru uspofiádanosti systémÛ na rozdíl od entropie, tj. míry
neuspofiádanosti.
Komunikaãní pojetí informace
•
Objektivní obsah komunikace mezi souvisejícími hmotn˘mi objekty, projevující se
zmûnou stavu tûchto objektÛ.
Kybernetické pojetí informace
•
Název pro obsah toho, co se vymûní s vnûj‰ím svûtem, kdyÏ se mu pfiizpÛsobu
jeme
a pÛsobíme na nûj sv˘m pfiizpÛsobováním. Proces pfiijímání a vyuÏívání
informace je procesem na‰eho pfiizpÛsobování k nahodilostem vnûj‰ího prostfiedí
a aktivního Ïivota v tomto prostfiedí.
•
Proces, kdy urãit˘ systém pfiedává jinému systému pomocí signálÛ zprávu, která
nûjak˘m zpÛsobem mûní stav pfiijímacího systému.
Matematick˘ pfiístup k informaci
•
Energetická veliãina, jejíÏ hodnota je úmûrná zmen‰ení entropie systému.
•
Poznatek, kter˘ omezuje nebo odstraÀuje nejistotu t˘kající se v˘skytu urãitého jevu
z dané mnoÏiny moÏn˘ch jevÛ.
•
Obsah zprávy, kter˘ je definován jako záporn˘ dvojkov˘ logaritmus její
pravdûpodobnosti.
(Kuãerová, 2002)
V nejobecnûj‰ím slova smyslu se informací chápe údaj o reálném prostfiedí, o jeho
stavu a procesech v nûm probíhajících. Informace sniÏuje nebo odstraÀuje neurãitost
systému (napfi. pfiíjemce informace); mnoÏství informace je dáno rozdílem mezi stavem
neurãitosti systému (entropie), kterou mûl systém pfied pfiijetím informace a stavem
neurãitosti, která se pfiijetím informace odstranila. V tomto smyslu mÛÏe b˘t informace povaÏována jak za vlastnost organizované hmoty vyjadfiující její hloubkovou strukturu (varietu), tak za produkt poznání fixovan˘ ve znakové podobû v informaãních
nosiãích. V informaãní vûdû se informací rozumí pfiedev‰ím sdûlení, komunikovateln˘
poznatek, kter˘ má v˘znam pro pfiíjemce nebo údaj usnadÀující volbu mezi alternativními rozhodovacími moÏnostmi. V˘znamné pro informaãní vûdu je také pojetí informace jako psychofyziologického jevu a procesu, tedy jako souãásti lidského vûdomí.
V exaktní vûdû se napfi. za informaci povaÏuje sdûlení, které vyhovuje pfiísn˘m
kritériím logiky ãi pfiíslu‰né vûdy. V oblasti v˘poãetní techniky se za informaci povaÏuje kvantitativní vyjádfiení obsahu zprávy. Za jednotku informace se ve v˘poãetní technice povaÏuje rozhodnutí mezi dvûma alternativami (0, 1) a vyjadfiuje se jednotkou
nazvanou bit (Jonák, 2000).
2.6
Nejmen‰í jednotky
Jednou z priorit, které si v‰imnete pfii studiu simulace inteligence, je snaha nalézt co
nejmen‰í jednotku, která by byla tak univerzální, Ïe by dokázala nést ãi zpracovávat
libovoln˘ typ kódu ãi informace (základní stavební prvky architektur). U dvou základních pfiístupÛ k simulaci inteligence (komputace a konekcionismus) mÛÏeme základní jednotky dobfie identifikovat. U komputaãního pfiístupu jsou jako základní
reprezentaãní jednotky pouÏívány symboly (nejlépe ve formû 1 a 0) a jako nejjednodu‰‰ího a univerzálního mechanismu pro zpracování Turingova stroje, kter˘ je
schopen zpracovat libovolnou vypoãitatelnou úlohu. Na druhé stranû je nejmen‰í
v˘poãetní jednotkou neuron a nejmen‰í jednotkou reprezentace váha propojení.
Tím je dána architektura. MÛÏeme se ale zeptat, co mají nejmen‰í jednotky zastupovat? Jak˘ je nejmen‰í atom prostfiedí, z jehoÏ kompozice dokáÏeme vytvofiit obraz
(reprezentaci) prostfiedí? V rozliãn˘ch pfiístupech se setkáváme právû s rÛzn˘m pfiifiazováním ãásti prostfiedí tûmto atomÛm. Jako atomy jsou v teoriích pouÏívány ãísla,
znaky, slova, vûty, ãásti obrazÛ, ãáry, pravidla, objekty, geometrická primitiva apod.,
které jsou následnû v reprezentované formû modifikovány, zpracovávány, transformovány.
Problém pfiichází v okamÏiku, kdy chceme po systému, aby dokázal zpracovat informaci z prostfiedí, která je men‰í neÏ nejmen‰í „reprezentaãní" atom daného systému
(obsahuje prvky, které nedokáÏe reprezentaãní systém zachytit). Dostáváme se
do fáze, která by se dala v logice nazvat snaha o rozdûlení axiomu na je‰tû men‰í
celky, coÏ nelze (viz Gödel). Z hlediska hodnocení se pfiibliÏujeme k otázkám obecné rozli‰ovací schopnosti systému. Klíãovou úlohu sehrává, zda je systém schopen
zpracovat libovolnou úlohu – systém je obecn˘ nebo pouze úlohu, pro kterou má
vhodn˘ formální (ãi neformální) aparát - specifick˘ systém.
V˘hodou obecného systému (general domain systém nebo general purpose system) je
právû schopnost akomodace na prostfiedí a tvorbu arbitrárních nejmen‰ích jednotek,
které jsou adekvátní typu úlohy, pfied níÏ je postaven. Jeho fungování tedy nevychází
z axiomÛ a zákonÛ, které jsou nemûnné, ale jeho aparát (zde je jiÏ obtíÏné fiíci, zda
formální aparát) dokáÏe své „axiomy" roz‰ifiovat (sporné je, zda modifikovat).
V pfiípadû modifikace formálního aparátu bychom se dostali na hranice schopnosti formálních logick˘ch systémÛ, jelikoÏ by do‰lo k jeho zhroucení a neplatnosti jím vyvozovan˘ch závûrÛ. Omezení ukazují formální logick˘ systém jako nevhodn˘ pro tvorbu systémÛ, které dokáÏí pracovat s libovolnou úlohou. CoÏ nás mÛÏe vést k závûru,
Ïe obecn˘ inteligentní systém, nemÛÏe b˘t postaven pouze na základech logiky.
V pfiedchozím odstavci jsme ale spojili dohromady dvû témata. Jedním je reprezentaãní
schopnost inteligentního systému (oblast pfievodu prostfiedí na adekvátní formu
reprezentace) a druh˘m je v˘poãetní (obecnûji „informace zpracovávající") schopnost,
tedy oblast práce s reprezentacemi. Oblasti se navzájem pfiekr˘vají, a proto o nich bylo
hovofieno jako o celku. Pokud se vrátíme k obecn˘m systémÛm, schopn˘m fie‰it libovoln˘ typ úlohy a také mající schopnost pfievádût informace z prostfiedí na adekvátní
formu reprezentace (slouÏící pfii fie‰ení úlohy), budeme tûÏko hledat pfiíklady v oblasti
simulace. Jedin˘m dÛkazem, Ïe existuje takov˘ obecn˘ systém je ãlovûk. I kdyÏ není
v jeho rozli‰ovacích schopnostech vidût atom (zde jiÏ ve smyslu jednotka hmoty),
pfiesto to dokázal.
Nejasnosti z opaãného konce souvisí s procesy generalizace, abstrakce ãi kategorizace.
Jde o snahu vytvofiit systém, kter˘ pracuje s jiÏ zmínûn˘mi primitivy - atomy, se kter˘mi jsou provádûny operace umoÏÀující pfievod pÛvodních informací v novou (v˘‰e
zmínûn˘mi procesy). Je pfiedpokládáno, Ïe v nové úrovni, tedy ve v˘sledkÛ operací,
vytvofiíme informace, které budou kvalitativnû nové, coÏ je obtíÏnû definovatelné a
také sémantické, coÏ je vût‰inou jen vysnûn˘m pfiáním v komputaãním pfiístupu.
BohuÏel jsou atomy prostfiedí reprezentovány ãistû syntakticky, a proto v nové rovinû
vzniká pouze takov˘ obsah, kter˘ nab˘vá svého v˘znamu interpretací tvÛrce. Jedná se
o snahu získat obsah i pokud pracujeme na niωí rovinû syntakticky, pfiiãemÏ obsah
apriornû pfiedpokládáme (viz Ukotvení symbolÛ). Extremním vyjádfiením legitimizujícím syntaktick˘ pfiístup je Haugelandovo tvrzení, Ïe pokud se postaráme o syntax,
sémantika se o sebe postará sama (Crane, 2002).
V této kapitole jsme zmínili omezení, která vymezují hranice simulovatelného zpracování informací. MoÏnost vytvofiení jednotné teorie je limitována souãasnou úrovní
poznání v oblasti kognitivních vûd.
V aplikovan˘ch oblastech modelování (pro konkrétní existující modely) se pouÏívá
jako kritérium hodnocení schopnosti modelu napodobit svÛj originál anal˘za
citlivosti. CoÏ mÛÏeme vidût jako abstraktní hodnocení stávajícího modelu a jeho
vztahu k jevÛm, které se snaÏí modelovat. Jedná se o vytvofiení relativního vztaÏného
systému, ve kterém je fixním referenãním kritériem originál modelovaného jevu.
Anal˘za citlivosti nemusí b˘t kvantifikována ve smyslu vytvofiení ãíseln˘ch ‰kál
reprezentujících míru podobnosti modelu s originálem. âastûji se vyuÏívá pomûrov˘ch
‰kál, vyjádfien˘ch pomocí nezbytn˘ch, dostateãn˘ch a nepodstatn˘ch podmínek,
za kter˘ch model dokáÏe napodobovat dané jevy. Neexistuje pfiesn˘ algoritmick˘
popis, pomocí nûhoÏ mÛÏeme anal˘zu citlivosti provést, jelikoÏ k posouzení citlivosti
je tfieba nutné pochopení originální situace, znamenající nejen dekompozici na jednotlivé elementy, ale i uchování vztahÛ mezi elementy a kontextová znalost
zkoumaného jevu vzhledem k prostfiedí (Sternberg, 1999). Díky tomu, Ïe souãasná
umûlá inteligence je velmi vzdálená termínÛm v˘znam ãi pochopení, je pfii tomto
druhu anal˘zy nutn˘ lidsk˘ (inteligentní) pozorovatel, kter˘ je schopen takové míry
abstrakce, pochopení a vhledu, Ïe dokáÏe posoudit kategorie nutnosti, dostateãnosti
a nepodstatnosti. Nejznámûj‰ím zástupcem anal˘zy citlivosti pro umûlé inteligentní
systémy je TuringÛv test.
V oblasti neuronov˘ch sítí nám pfii anal˘ze citlivosti mÛÏe pomoci mechanismus zpûtného ‰ífiení, tedy Ïe v˘stupní vrstva vysílá informace o v˘sledku do skryt˘ch a vstupních vrstev (backpropagation), pomocí ãehoÏ je systém schopn˘ získat informaci
o mífie své efektivity. To je ale pfiíli‰ málo na to, aby taková síÈ sama dokázala z informace odvodit míru své komplexní citlivosti, která vyÏaduje znalost prostfiedí, modelu,
v˘stupÛ modelu a také limity, ve kter˘ch se model bûhem své ãinnosti pohybuje.
2.7
Paralelní versus sériové zpracování
Jinou podstatnou úlohou kognitivních vûd je odhalit, jaké jsou vnitfiní limity, které
omezují lidsk˘ mozek pfii procesu my‰lení (Sternberg, 1999). Pfii volbû zpÛsobu
nazírání této problematiky mÛÏeme pouÏít jako kritérium, zda mozek v prÛbûhu zpracování informace pracuje ve v‰ech krocích paralelnû, ãi nikoliv.
Napfiíklad Saul Sternberg se pomocí testu reakãního ãasu snaÏí dokázat, Ïe krátkodobá
pamûÈ zpracovává informace sériovû (pfii administraci testÛ se zvy‰ujícím se poãtem
poloÏek vzrÛstá reakãní ãas v závislosti na jejich mnoÏství), coÏ potvrzuje my‰lenku
o úÏinû vûdomí (zde spí‰e úÏinu pamûti). Druh˘m pfiíkladem (kter˘ je více kulturnû
podmínûn a vypovídá spí‰e o anticipaci ve vnímání) je Word superiority test. Sternberg v nûm provádûl pokusy s krátkou prezentací 4 slabiãn˘ch shlukÛ (napfi. RACK,
KARC, XXAX,). Pokud tyto stimuly tvofiily slova, pokusné osoby je lépe odhadovaly.
(Gazzaniga&Mangun, 1998).
JiÏ jednoduchá úloha, jakou je násobení vícemístn˘ch ãísel v hlavû, nám ukáÏe, Ïe systém je schopen takovou úlohu provést, ale musí pfii ní vyuÏít svou krátkodobou
pamûÈ, ve které jsou ãásteãné meziv˘poãty ukládány, ale také musí b˘t odstranûny pro
dal‰í v˘poãty. Tato omezení se naz˘vají kapacitní (Sternberg, 1999). V systému pracujícím masivnû paralelnû, tvofií operaãní pamûÈ pomyslné zúÏení, ve kterém je nutné
pfievést paralelní procesy do sériové, sekvenãní podoby. JestliÏe zaujímáme zmínûné
stanovisko (vjemy z okolí jsou po transdukci smyslov˘mi orgány uloÏeny do
krátkodobé pamûti) docházíme ke zji‰tûní, Ïe vzniká znaãnû neefektivní zpÛsob zpracování, jelikoÏ následné operace s obsahy krátkodobé pamûti probíhají paralelnû
(musely by b˘t opût pfievedeny do paralelní formy) a pak znovu do sériové podoby
pro práci efektorÛ. Pfiikláníme-li se ale k Tverského modelu pamûti, probûhne pfievod
pouze jednou. Paralelní informace jsou uloÏeny rovnou do dlouhodobé pamûti a
z nich si jedin˘m pfievodem vybírá krátkodobá pamûÈ ty ãásti informace, které budou
pouÏity pro operace v sériové podobû, jejichÏ v˘sledky lze posléze pfiímo smûfiovat na
efektory. Jedná se ov‰em o pfiíli‰né zobecnûní na v‰echny senzory i efektory, coÏ nás
opût posouvá na hranici spekulace. ¤e‰ení pfiedpokládá vyjasnûní úlohy jazyka (zde
pravdûpodobnû mentálního) v procesu zpracování, tedy zda-li je moÏné jej zpracovávat paralelnû.
Mnoho vûdcÛ zab˘vajících se UI se domnívá, Ïe hlavními pfiíãinami je spoleãnû s jiÏ
zmínûn˘mi také nedostateãná robustnost a neschopnost provádût generalizaci v reálném ãase. Dal‰ími nedostatky jsou problémy s vytváfiením rámcÛ pfii zpracovávání
reality, problém s ukotvením symbolÛ, a také nedostatky v oblasti vtûlenosti a situovanosti umûlého systému (Pfeifer&Scheier, 2001). Jak˘ podíl na tom mají samotné
architektury souãasn˘ch systémÛ? A jak˘ podíl zpÛsob jejich vyuÏívání? Následn˘ rozbor zpÛsobÛ simulace inteligence se pokusí na nûkteré otázky odpovûdût.
3
KLASICK¯ P¤ÍSTUP
3.1.
Pfiedpoklady
3.1.1
Logika
Z lidského hlediska jsou logika a logické systémy nejãastûji zastfie‰ovány pojmem
racionalita ãi racionální chování. Ov‰em vztah tûchto dvou pojmÛ není dán tak pfiesnû a neexistuje mezi ním hierarchické uspofiádání (Sternberg, 1999). Na formální logice je zaloÏeno mnoho oborÛ umûlé inteligence, napfi. fie‰ení problémÛ, automatické
dokazování, produkãní systémy. Historie v˘voje logiky se datuje jiÏ od starého ¤ecka
a probíhá do dne‰ních dní. Souãasnû vznikají stále nové systémy, které se snaÏí
zdokonalit nev˘hody pfiedchozích. Nûkterá omezení logiky jsou ale takového charakteru, Ïe popírají logick˘ systém jako univerzální princip o vyvozovaní a ovûfiování
v˘rokÛ (viz Nejmen‰í jednotky, Gödel). Pro orientaci uvádím klíãové postavy a jejich
pfiínos oboru v následujícím pfiehledu:
tradiãní logika
-
Aristoteles (5. st. pfied. n.l.) je zakladatelem logiky jakoÏto nástroje (fi. organon)
poznání a uvaÏování; aristotelsk˘ sylogismus ( fragment predikátové logiky)
-
stoikové – v˘roková logika
-
stfiedovûk – scholastikové rozvíjeli aristotelsk˘ sylogismus (logika byla
souãástí tzv. trivia)
moderní logika
-
pfiedchÛdce Gottfried Wilhelm Leibnitz (pokud vznikne mezi filosofy spor, tak si
své argumenty zapí‰í a „spoãítají", kter˘ argument je korektní a jehoÏ závûr je
platn˘); téÏ Bernard Bolzano (první definice vypl˘vání);
-
bezprostfiední pfiedchÛdci: George Boole (booleova algebra), ãi Charles Dodgeson
(Lewis Caroll – Alenka v fií‰i divÛ), Charles Sanders Peirce;
-
konec 19. st., zakladatelé zejména Gottlob Frege (logicismus: snaha doloÏit, Ïe
v‰echna matematika je odvozena z logiky), Bertrand Russell (rovnûÏ logicismus,
dále v˘znamné uplatÀování ve filosofii); vybudování predikátové logiky;
-
predikátová logika uplatÀována pfii zkoumání základÛ matematiky: Alonzo
Church, Kurt Gödel, aj.; matematická logika se zaãíná vyvíjet jin˘m smûrem, neÏ
filosofická logika
-
moderní logika uplatnûna jako základní nástroj tzv. logického novopozitivismu
(VídeÀsk˘ kruh, Rudolf Carnap, ale i Ludwig Wittgenstein);
-
Gödelovy objevy vedou k obratu pozornosti na v˘zkum algoritmÛ a rekurzívních
funkcí Alonzo ChurchÏ Alan Turing, TuringÛv stroj, Church-Turingova teze;
-
Alfred Tarski definuje moderním zpÛsobem vypl˘vání a korespondenãní teorii
pravdy, vybudoval teorii modelÛ;
-
modální logika (s operátory „je nutné", „je moÏné"), C.I. Lewis, Ruth Barcan
Marcus, sémantická reforma (60.léta): Saul Kripke (bohaté vyuÏití ve filosofii)
-
vícehodnotové logiky postupnû vedou k souãasné fuzzy logice
-
v prÛbûhu 60. let vzniká intenzionální logika - Richard Montague
-
Richard Montague: teze, Ïe není Ïádn˘ rozdíl mezi umûl˘mi (tj. formálními) jazyky
logiky a jazyky pfiirozen˘mi (jak˘mi jsou ãe‰tina, angliãtina apod.)
-
v souãasnosti jsou vyvíjeny hyperintenzionální logiky (Pavel Tich˘)
-
v souãasnosti dochází i k pokusu zmûnit paradigma logiky (logika na základû
teorie her - Jaakko Hintikka, dynamická logika, nonmonotonní logiky)
Jeden z prvních v˘poãetních strojÛ (Analytick˘ stroj) je zaloÏen na principu, kter˘
umoÏÀuje operovat se symboly, pfiiãemÏ nepouÏívá pouze zákony aritmetiky a logiky.
JiÏ v té dobû bylo rozpoznáno, Ïe pomocí logiky nelze popsat vût‰inu zpÛsobÛ
bûÏného pfiem˘‰lení. Tedy Ïe nestaãí vûci roztfiídit do pouh˘ch kategorií podle toho,
zda mají nebo nemají urãitou vlastnost. Vûci v reálném svûtû mají vlastnosti ve vût‰í ãi
men‰í mífie, coÏ nelze redukovat na ano/ne .
Jednou z disciplín, které v˘voj studia logiky ovlivnil je matematická logika. V roce
1854 pfii‰el Angliãan George S. Boole s takov˘m modelem matematické logiky,
e kterém vystaãil jen se tfiemi základními operátory (AND, OR a NOT) a s jejich
pomocí dokázal z jednotliv˘ch v˘rokÛ sestavovat sloÏitûj‰í formule stejn˘m zpÛsobem,
jak˘m se v matematice (konkrétnû v algebfie) sestavují matematické vzoreãky. Svou
logiku mohl formálnû vybudovat jako algebru, které se dodnes fiíká Booleova algebra.
Boole jistû netu‰il, Ïe se jeho algebra stane základním teoretick˘m aparátem pro modelování kombinaãních obvodÛ ãíslicov˘ch poãítaãÛ. Netu‰il také, Ïe technikÛm se
budou nejlépe dafiit takové konstrukãní prvky, které budou mít jen dva moÏné stavy,
a kter˘m bude odpovídat Booleova algebra, která má právû jen dva prvky (zatímco
George Boole ji navrhl pro obecn˘ poãet prvkÛ, nejménû v‰ak jako dvouprvkovou).
Tím, kdo poprvé ukázal na souvislost dvouprvkové Booleovy algebry s ãíslicov˘mi
obvody, byl v roce 1937 Claude Shannon. Mezitím se musela zrodit je‰tû jedna velmi
dÛleÏitá my‰lenka, která si vynutila pouÏívání právû dvouprvkové Booleovy algebry.
PosuÀme se ale dále k propoziãní logice. Problém zde není jen ve vztahu mezi
propozicemi, ale také v propozici samotné. Pokud si vezmeme v˘rok „KaÏd˘ pes má
vlastníka", jedná se o vztah, kdy jeden je vlastnûn druh˘m, ale ne naopak. Propoziãní
logika bere tento v˘rok jako ovûfiitelné tvrzení, ale nedokáÏe nic fiíci o jeho interních
vztazích. Problém je rozli‰ován aÏ v oblasti predikátového kalkulu, systémem formalizace prezentovan˘ Gottlobem Fregem (Hogan, 1998).
Jím navrhovan˘ systém mûl umoÏÀovat odvodit vût‰inu pravidel aritmetiky a matematiky z jedné mnoÏiny axiómÛ. Frege se domníval, Ïe se mu podafiilo takov˘ systém
vytvofiit, ale ukázalo se, Ïe nemûl pravdu. Bertrand Russell odhalil, Ïe jeden z Fregeho axiómÛ mÛÏe vést k teorému, Ïe pokud je mnoÏina prvkem sebe sama, není
prvkem sebe sama, ve slovní formulaci jako paradox vesnického holiãe, kter˘ holí
v‰echny, co neholí sami sebe - holí se i holiã sám? Tento problém se obecnû naz˘vá
RussellÛv paradox (Hogan, 1998) a má úzkou souvislost s paradoxem dvojitého lháfie
(JourdainÛv paradox): na papírové kartiãce jsou napsány následující vûty (kaÏdá je na
jedné stranû): „Nápis na druhé stranû je pravdiv˘." „Nápis na druhé stranû je nepravdiv˘". Nejen historicky zajímavá je i souvislost s Epimenidov˘m (Eubulidov˘m) paradoxem lháfie (nejednodu‰‰í varianta: „Já lÏu").
Pfiíkladem mÛÏe b˘t kategorizace slov (GrellingÛv paradox). Nûkterá pfiídavná jména
popisují vlastnosti, které samy nemají. ¤íkáme o nich Ïe nejsou autodeskriptivní (sebepopisné). Napfiíklad slovo jednoslabiãn˘, které není jednoslabiãné. Vytváfiejí tak
druhou kategorii, slova heterodeskriptivní (nepopisující sebe sama). Tímto zpÛsobem
mÛÏeme rozdûlit v‰echna pfiídavná jména do zmínûn˘ch kategorií. Dostaneme se aÏ
k pfiídavn˘m jménÛm autodeskriptivní a heterodeskriptivní. Pokud je chceme rozfiadit,
nastává paradox. ¤ekneme-li Ïe heterodeskriptivní patfií do skupiny heterodeskriptivních slov, dopou‰tíme se omylu, jelikoÏ se tím pádem stává autodeskriptivní. Pokud
ale prohlásíme Ïe je autodeskriptivní, opût to není pravda (Hogan, 1998).
Následují dal‰í pokusy definovat základní axiómy tak, aby byly kompletní a bezesporné. Russell a Whitehead se vyhnuli sebereferenci (autodeskripci) tím, Ïe ji zakázali. V návaznosti na pokusy o vyjasnûní limit logick˘ch systémÛ pfiichází Kurt Gödel se
sv˘m dÛkazem. Jedná se o tvrzení, Ïe neexistuje takov˘ konsistentní formální systém,
kter˘ by dokázal posoudit v‰echny své v˘roky. Tedy, Ïe existuje vÏdy takov˘ v˘rok,
kter˘ je systémem axiómÛ a pravidel nedokazateln˘ (Hogan, 1998).
3.1.2
Gödel
Název této kapitoly odkazuje na období, které se vyznaãovalo snahou ovûfiení logick-
ého systému, jako univerzálnû platného nástroje pro ovûfiitelnost a dokazatelnost
tvrzení. Kurt Gödel je autorem v˘roku, kter˘ odstartoval polemiky kolem úplnosti formálního aparátu. Dostáváme se ke Gödelovu v˘roku, Ïe pokud je systém (konkrétnû
systém aritmetiky definovan˘ Russellem a Whiteheadem) bezrozporn˘, nemÛÏe
dokázat vlastní bezrozpornost.
Pfiíklad Gödelovy sentence:
Pokusíme se roztfiídit v‰echny pravdivé sentence do dvou skupin - 1. pravdivé,
nedokazatelné, 2. pravdivé, dokazatelné. Gödel sestrojil sentenci , která tvrdí, Ïe patfií
do skupiny 2 a zní „nejsem v systému dokazatelná". Pokud je sentence nepravdivá, je
v systému dokazatelná. Pak ale nemÛÏe b˘t dokazatelná, protoÏe není pravdivá. Musí
tedy b˘t pravdivá, ale je nedokazatelná. (Smullyan, 2003).
Podívejme se, co fiíká o Gödelovû vûtû Barrow: „Îádná z moÏn˘ch dedukcí, k nimÏ
lze dospût na základû tûchto axiómÛ uÏitím povolen˘ch vyvozovacích pravidel,
nemÛÏe obsahovat více informace, neÏ kolik jí bylo obsaÏeno v axiómech (viz Monotonie). V tom tkví v podstatû pfiíãina slavn˘ch omezení moci logické dedukce, jak to
vyjadfiuje Gödelova vûta o neúplnosti." (Barrow, 1996,s. 112).
Peregrin na to reaguje následovnû:„Obávám se, Ïe charakterizovat GödelÛv v˘sledek
takto, je jako charakterizovat nehodovost na silnicích slovy „Pfiíãinou tak mnoha
havárií je to, Ïe auta neumûjí létat." Faktem totiÏ bezesporu je, Ïe kdyby mohly dÛsledky axiómÛ obsahovat více informací neÏ axiómy samy, nemusela by Gödelova vûta
platit; stejnû tak jako kdyby auta umûla létat, nemuselo by docházet k tolika haváriím.
Obû ta tvrzení jsou ale naprosto nezajímavá - chtít po autech, aby létala, ãi chtít
po dÛsledcích axiómÛ, aby obsahovaly více informací neÏ axiómy samy, nedává pfiíli‰
rozumn˘ smysl. To není Ïádná zvlá‰tní vada aritmetiky a uÏ vÛbec ne doklad její rozpornosti" (Peregrin, 1997).
Bezrozpornost aritmetiky samozfiejmû lze dokázat (není pravda, Ïe se to nemáme
‰anci dozvûdût), ale musíme to provést „my", nelze to uskuteãnit v rámci aritmetiky
samé, aritmeticky. Zde se blíÏíme interpretaci, kterou nabízí napfi. prof. Peregrin ve své
knize Filosofie a jazyk, kdyÏ zdÛrazÀuje právû onu potfiebu vyskoãit „nad systém"
(Peregrin, 2003)., díky ãemuÏ mÛÏeme pravdivosti gödelovsky nerozhodnuteln˘ch /
nedokazateln˘ch v˘rokÛ dokazovat úplnû hravû.
Pfiedstavme si, Ïe existují systémy, v rámci nichÏ lze dokázat jejich vlastní bezrozpornost. Musíme ale takovému dÛkazu vûfiit? Lze dokázat, Ïe ve vnitfinû rozporném systému lze naopak dokázat jak˘koliv v˘rok - tedy i vlastní bezrozpornost. Smullyan pfiímo
pfiirovnává k tomu, Ïe je také po‰etilé nûkomu vûfiit jen proto, Ïe tvrdí, Ïe vÏdy mluví
pravdu. A jde dokonce je‰tû dále. Ukazuje, Ïe nûkteré systémy nemohou dokázat vlastní bezrozpornost „právû proto", Ïe jsou skuteãnû bezrozporné (Peregrin, 1997).
Pomalu se dostáváme do oblasti, kterou se zab˘val Alfred Tarski a která posouvá problematiku do oblasti sémantiky (otázka „pochopení" související s moÏností vyskoãit
„nad systém").Ve své nejv˘znamnûj‰í práci navázal Tarski na Kurta Gödela. Stejnû jako
Gödel totiÏ dokázal, Ïe logické systémy jsou sémanticky neúplné. Tím se zhroutila
snaha v˘znaãn˘ch matematikÛ první poloviny minulého století (B. Russell, A. Whitehead), ktefií se snaÏili definovat matematiku jakoÏto zcela konzistentní systém zaloÏen˘
na zákonech logiky. Zatímco Russell a Whitehead usilovali ve svém monumentálním
díle Principia Mathematica vystavût matematiku na základech symbolické logiky tím,
Ïe z ní odstraní v‰echny logické paradoxy (coÏ se jim samozfiejmû nepodafiilo), Hilbert ‰el je‰tû dále. Chtûl dokázat vnitfiní konzistenci axiómÛ aritmetiky a v‰ech
dedukcí, které z nich mohou b˘t vyvozeny.
Ve v˘sledku docházíme ke zji‰tûní, Ïe logické a matematické systémy, které jsou natolik bohaté, Ïe obsahují Peanovu aritmetiku, jsou nejen formálnû neúplné ve smyslu,
Ïe nûkteré z jejich pravd jsou za pouÏití prostfiedkÛ systému nedokazatelné, ale Ïe jsou
také sémanticky neúplné v tom smyslu, Ïe nûkteré z jejich pojmÛ se nedají definovat
pomocí jazyka a pojmÛ systému. VÏdy je lze definovat pomocí vût‰ího systému, ale
jen za cenu vytvofiení dal‰ích nedefinovateln˘ch pojmÛ v rámci tohoto vût‰ího systému. Nakonec to tedy znamená, Ïe neexistuje formální systém, v nûmÏ by mohla b˘t
rozhodnuta pravdivost v‰ech matematick˘ch tvrzení nebo takov˘ v nûmÏ by mohly b˘t
definovány v‰echny matematické pojmy.
Obr. 6 Roωífiení formálního systému
Kurt Gödel dokázal, Ïe elementární matematika nutnû obsahuje nedokazatelná tvrzení
a Ïe se ãásteãnû opírá o „axiómy víry" ve svou vlastní konzistenci. Vytvofiíme-li tvrzení,
jehoÏ pravdivost ãi nepravdivost nelze urãit, pak mÛÏeme k mnoÏinû axiómÛ definujících systém pfiidat libovolnû buì toto tvrzení, anebo jeho negaci. Obû volby ov‰em
vytvofií vût‰í logick˘ systém, jenÏ nutnû obsahuje nová nedokazatelná tvrzení.
Pokud Gödel sv˘m dÛkazem potvrdil domnûnku, Ïe nejsou v‰echny v˘roky ve formálním systému dokazatelné, dal‰í dÛleÏitou otázkou byla, jestli existuje univerzální
metoda na zji‰tûní, zdali je dan˘ teorém ovûfiiteln˘ automatick˘m procesem ovûfiování
(Hogan, 1998).
Následky Gödelova v˘roku se objevují i v oblasti tvorby inteligence. J.R. Lucas v roce
1960 upozornil na to, Ïe Gödelovu vûtu o neúplnosti aritmetiky je moÏné pouÏít
k vyvrácení mechanistické teze, tedy názoru, Ïe lidskou mysl lze simulovat strojem
(Lucas, 1961). LucasÛv ãlánek obsahuje mnoÏství úvah a námûtÛ, které stojí za uvedení.
¤íkáme, Ïe vûdomá bytost nûco ví, nefiíkáme tím jen, Ïe to ví, ale téÏ, Ïe, ví, Ïe to ví,
a Ïe ví, Ïe ví, Ïe to ví atd. Vûdomá bytost mÛÏe zacházet s Gödelov˘mi otázkami tak,
jak stroj nemÛÏe, protoÏe vûdomá bytost mÛÏe uvaÏovat sebe a své projevy, aniÏ by se
li‰ila od zdroje tûchto projevÛ (Lucas, 1961). Lucasem zdÛraznûná potfieba vûdomí
odkazuje na nutnost uchopení a pochopení obsahu informací, které inteligentní systém
zpracovává. Kognitivní teorie, která vidí základ pochopení funkce kognitivního aparátu ve zpracování informací, by mûla zaãít klást vût‰í dÛraz na „pracování s informací".
3.1.3
Formální a mentální logika
V klasické filosofii a psychologii je silnou tradicí povaÏovat formální logiku nejen za
normativní, ale i za deskriptivní teorii lidského usuzování. Naproti tomu napfiíklad
teorie mentálních modelÛ zdÛrazÀuje mentální logiku, která se od formální logiky li‰í
tím, Ïe je pfiirozenou vlastností ãlovûka. Vût‰ina kognitivistÛ pfiedpokládá její vrozen˘
základ (Sedláková, 2004). DÛkaz rozdílnosti mentální a formální logiky mÛÏeme objevit jiÏ v samotném vymezení tûchto oborÛ.
Formální logika se snaÏí pomocí co nejmen‰ího poãtu operátorÛ a v˘razového
aparátu, vytvofiit bezesporn˘ popis svûta a také posoudit v˘roky o tomto svûtû ohodnocením pravda/nepravda (v základní formû logiky). Pfii její tvorbû je aplikováno
pravidlo Ockhamovy bfiitvy, snahy vyjádfiit jevy ãi procesy svûta v nejefektivnûj‰í
(nejkrat‰í) formû. Matematická logika se pokou‰í minimalizovat prostfiedky, které
pouÏívá k vyjádfiení nezbytn˘ch údajÛ (Mafiík, 1993). V pfiípadû aplikace v oblasti
matematick˘ch systémÛ nemusí dojít k redukci a je moÏné vyjádfiit ve‰keré moÏnosti
(snad aÏ na bezrozpornost). Pokud ale pouÏijeme logického aparátu k vyjádfiení
znakového ãi symbolického systému, mÛÏeme pfii dostateãné bohatosti základního
aparátu dojít k neredukcionistickému popisu v syntaktické rovinû, ale v sémantické
rovinû (která obsahuje dvojsmyslnosti, nepfiesnosti apod.) bohuÏel logick˘ aparát
selÏe. Formální logika nefunguje v rovinû v˘znamÛ. Pfiíãiny mÛÏeme vidût jiÏ v pouÏití
symbolického systému, kter˘ je nedostaãující pro zachycení „obrazu reálného svûta"
s jeho hlavními konstituentami (dynamiãnost, paralelnost, komplexnost).
Mentální logika vychází z opaãného konce. Je na sémantice postavena. Nejednoznaãnost ãi protichÛdnost v˘vodÛ nevede ke zhroucení celého systému, pouze
k vytvofiení opravn˘ch mechanismÛ ãi omezením (pfiesné postupy jsou dodnes
neznámé), které umoÏní jejich korekci, zavrÏení, omezení nebo zmûnu vyvozovacího
mechanismu.
Prosazování my‰lenky mentální logiky se stalo souãástí studia mentálních modelÛ.
Skupina vûdcÛ okolo Johnsona-Lairda pfiedpokládá, Ïe lidé mají vrozen˘ logick˘ systém nebo vrozené pfiedpoklady pro pfiirozenou logiku, která se od formální logiky li‰í.
Mentální logiky obsahují mnoÏinu inferenãních schémat, které jsou abstraktní a sledují vystiÏení úãelovosti v pfiírodû, v lidském Ïivotû i v Ïivotû spoleãnosti. Inferencí se
rozumí proces my‰lení, kter˘ vede od jedné mnoÏiny propozic k jiné. Propozice jsou
vût‰inou vyjadfiovány verbálnû, v pfiípadû praktick˘ch inferencí mohou premisy sestávat z percipovan˘ch nebo pfiedstavovan˘ch stavÛ vûcí ãi událostí a závûr pak mÛÏe
b˘t zastoupen v akci (Sedláková, 2004).
âastou otázkou v oblasti mentální logiky b˘vá, zda je vrozená a jaké mechanismy ji
konstituují. Zastánci vrozenosti (napfiíklad Chomsky) tak oponují Piagetovû teorii, Ïe
pravidla mentální logiky získáváme na základû uãení. Problematika je blízká tématu
common sense (zdravého rozumu), coÏ je soubor pravidel, kter˘ není vázán na pravidla exaktnû logická, ale jedná se o abstrahovanou formu základního lidského vûdûní.
Je zatíÏen znaãnou subjektivitou, takÏe v mnoha aspektech se rozchází s vûdeck˘m
pfiístupem zkoumání, které klade dÛraz právû na objektivitu a exaktnost.
Snahou o napodobení common sense pomocí poãítaãÛ, metodou expertního systému
(viz Expertní systémy) je projekt CYC. SnaÏí se vytvofiit encyklopedii znalostí common
sense , do které pfiispívají lidé z celého svûta a zapisují ve formû pravidel rÛzné poznatky reprezentující znalostní bázi „zdravého rozumu" (Crane, 2002). Vidíme zde klasick˘ pfiíklad pouÏití formální logiky jako mentální. Mentální pravidla jsou zpracov-
ávána klasickou poãítaãovou architekturou zaloÏenou na komputaci a logice, ãímÏ
ztrácí své pÛvodní vlastnosti. Projekt CYC je monumentální velikostí báze pravidel, ale
nepfiesn˘ pouÏitou metodou.
Místo závûreãného shrnutí je moÏno fiíci, Ïe metaforicky lze vidût vztah common sense
a vûdeckého pfiístupu jako vztah mentální a formální logiky, jako vztah subjektivního
a objektivního, nejednoznaãného a jednoznaãného, sémantického a syntaktického atp.
BohuÏel nám znalost druhého nestaãí k pfiesnému „popisu" prvého. Z uveden˘ch
argumentÛ vypl˘vá, Ïe rozdíly mezi mentální a formální logikou jsou svou povahou
fundamentální.
3.1.4
Monotonie
Îivou reakci v kruzích logikÛ vyvolala ta ãást Minského studie, ve které podrobil nelítostné kritice monotónnost tradiãních logick˘ch systémÛ. Za principiální vlastnost
inteligence pokládá nemonotónnost lidského uvaÏování: „Na‰e mysl je v˘jimeãná
právû tím, Ïe se dokáÏeme zfiíct vãera odvozen˘ch pravd a nahradit je tûmi, které jsme
odvodili dnes" (Minsky,1968,s. 40). V monotónní logice v‰ak zÛstává dokázána pravda jiÏ navÏdy pravdou a logické kalkuly dlouho nenabízely zpÛsob, kter˘ by na tomto
cokoli zmûnil. AÏ tato kritika uvnitfi logiky pfiivedla ke studiu rÛzn˘ch nemonotónních
formálních systémÛ. Monotonie formálních systému se ãasto uvádí na pfiíkladu:
Vycházíme z pfiedpokladu, Ïe kaÏd˘ pták létá. Z toho samozfiejmû mÛÏeme usoudit, Ïe
i jist˘ konkrétní pták jménem Quido umí létat. Ov‰em pozdûji se dozvíme, Ïe Quido je
tuãÀák a tuãÀáci nelétají. Nበsystém by se mûl v tomto okamÏiku zhroutit, neboÈ je
zfiejmû sporn˘. Takov˘ typ inkonsistence v‰ak lidskému uvaÏování nijak nevadí. Spokojíme se s tím, Ïe speciální informace o tuãÀácích vyuÏijeme napfiíklad k blokování
odvození nûkter˘ch dal‰ích údajÛ napfi. neodvodíme, Ïe Quido má hnízdo vysoko ve
vûtvích stromÛ (Mafiík, 1993).
Základem monotónního logického vyvozování je deduktivní logika, která obsahuje
nûkolik zásadních omezení. Deduktivní logika je nekreativní, protoÏe její závûry jsou
vÏdy obsaÏeny uÏ v premisách (jak poukázal pfii kritice scholastické logiky uÏ Francis
Bacon). Dedukce nepfiidává nic nového, co by se dalo zaãlenit do zku‰enosti. Pouze
pfievádí do explicitní roviny implikace toho, co bylo obsaÏeno v pfiedpokladech
(Hogan, 1998). Deduktivní metoda usuzování je intuitivnû sice velmi lákavá, av‰ak
setkává se s fiadou v˘poãetních nesnází. V první fiadû b˘vá pomalá - i pro nejjednodu‰‰í plány potfiebuje obrovské mnoÏství inferencí; pfiitom existují v˘poãetní
strategie, které dokáÏou fie‰it deduktivní úlohy mnohem elegantnûj‰ím zpÛsobem. Za
druhé, ryze deduktivní plánování je monotónní - je schopno vytváfiet nové závûry, ale
uÏ ne zbavovat se tûch pfiede‰l˘ch. Matematická funkce je monotónní, jestliÏe její hodnoty prÛbûÏnû bez oscilací stoupají nebo klesají (Thagard, 2001). Monotónnost
predikátové logiky spoãívá také v tom, Ïe pokud pfiidáme nové axiómy do stávajícího
systému, v‰echny pÛvodní teorémy zÛstávají zachovány. Rroz‰ífiení logického systému
nevede k restrukturaci jejich pfiedchozích ãástí (Konar, 1999).V umûlé inteligenci bylo
nûkolik pokusÛ, jak uãinit logiku nemonotónní, jsou v‰ak nároãné na poãítaãov˘ ãas
a na vybavení. Pravdou také je, Ïe ãistû deduktivní plánovaã se nedovede pouãit ze
zku‰eností (Thagard, 2001).
Cestou k tvorbû nemonotónních systémÛ vede skrze pfiidání dal‰ích mechanismÛ,
které se podílejí na operacích s daty ãi reprezentacemi. Logick˘ systém tak ale ztrácí
svou struãnost a jednoduchost. Vût‰ina metod pouÏívá mechanismy, které buì vnesou
do procesu logického vyvozování míru pravdûpodobnosti, která ãiní v˘sledek logick˘ch operací pravdiv˘m v urãité mífie (nepohybujeme se jiÏ oblasti pravda/leÏ), nebo
jsou tyto mechanismy pouÏity pro dal‰í zpracování jednoznaãného v˘sledku. VÏdy se
v‰ak jedná o roz‰ífiení základního logického aparátu. PÛvodní poÏadavek Ockhamovy
bfiitvy v oblasti logiky pouÏité k simulaci lidského my‰lení vede k redukci, která brání
plnohodnotnému napodobení. Pfiesto (nebo snad právû proto) je pouÏívání deduktivních metod v oblasti simulace na klasick˘ch poãítaãích velice siln˘m a efektivním
zpÛsobem, jelikoÏ plnû vyuÏívá architekturu a technické moÏnosti poãítaãe.
Nedostatky programÛ UI se spí‰e objevují v procesu indukce, tedy vytváfiení obecn˘ch
závûrÛ z omezeného poãtu pfiíkladÛ.
3.1.5
Komputace
Kolem roku 1950 se zaãínají objevovat nové koncepce zpÛsobu nazírání lidské bytosti.
âlovûk je (metaforicky) vidûn jako stroj a nastává i urãit˘ posun v terminologii pouÏívané k popisu kognitivních procesÛ. Lidé jsou pfiirovnáváni k v˘poãetnímu zafiízení,
které se rodí s urãit˘m hardwarem a je programováno zku‰enostmi, socializací a zpûtnou vazbou svého vlastního chování. Cílem psychologie je zjistit zpÛsob, jak˘m lidé
zpracovávají informace. Behavioristick˘ model S-R se ukazuje jako nedostaãující a
pozornost se pfiesouvá k interním procesÛm a stavÛm (Pfeifer&Scheier, 2001). Tûm je
následnû pfiisuzován statut v˘poãetních mechanismÛ, v˘sledky jejichÏ v˘poãtÛ tvofií
podklady pro projevy lidského chování. Souvislost mÛÏeme hledat v tehdej‰ím rozmachu v˘voje poãítaãÛ.
Jednou ze základních moÏností poãítaãÛ bylo pouÏít je jako simulátory, na kter˘ch lze
napodobovat fungování neuronov˘ch sítí (kopií biologick˘ch systémÛ). Poté se ale
názor na jejich vyuÏití zmûnil. Vidíme-li lidsk˘ mozek pouze jako biologick˘ hardware manipulující s abstraktními reprezentacemi svûta, kterému fiíkáme my‰lení, proã
pouÏívat poãítaã jako simulátor, kdyÏ by mohl manipulovat s vlastními reprezentacemi (Hogan, 1998). âímÏ se dostáváme k jádru komputace. Je ji moÏno povaÏovat za
teorii, která tvrdí, Ïe ve‰keré jevy tohoto svûta jsou pfieveditelné do formy rovnice, jiÏ
je moÏno vypoãítat a v˘sledek identifikovat s kauzálním následkem poãítan˘ch jevÛ.
Komputace se nesoustfieìuje pouze na aritmetické operace s ãísly, poãitatelné jsou i
jevy, které mÛÏeme pfievést do symbolické roviny a následnû je zpracovávat pomocí
zákonÛ logiky (omezení logiky byla zmínûna dfiíve a jejich platnost pfiechází i do
oblasti komputace).
Základní vyjádfiení komputaãní teorie je ponûkud sporné, jelikoÏ praví, Ïe svût je poãitateln˘ (tedy libovolná jeho ãást i jako celek). Posouzením zmínûného tvrzení bychom
se dostali aÏ do oblasti filosofie. Navíc se setkáváme s tvrzením, které si klade
za nároky vytvofiit teorii, jeÏ by v sobû mûla univerzálnost vysvûtlení pro libovoln˘ typ
jevÛ ve vesmíru (teorii v‰eho). Netroufám si zatím s tímto tvrzením polemizovat,
nabízím pouze krátkou kritiku komputaãní teorie z pera jiného autora. Je reflexí na
komputaci jako pfiístupu k simulaci lidské mysli (protoÏe pokud je cel˘ vesmír poãitateln˘, musí b˘t taková i mysl).
JestliÏe je teorie my‰lení poãitatelná (algoritmizovatelná), neznamená to, Ïe poãítaã
myslí. Astronomie je poãitatelná, ale vesmír není poãítaã (Crane, 2002).
Spí‰e neÏ odpovûdí na otázku, zda lze pfievést cel˘ vesmír (s celou jeho historií) do
podoby algoritmu, se jedná o metaforu, vyjadfiující se ke klasické Turingovû otázce,
zda mohou poãítaãe myslet. Crane se pfiiklání k názorÛm, které nevidí v˘poãet jako
univerzální nástroj pro deskripci ãi reprezentaci okolního svûta.
Margaret Boden si klade otázku, je-li moÏné komputaãní teorii naz˘vat paradigmatem?
Odpovûì, kterou sama nabízí, je spí‰e filosofick˘m zamy‰lením neÏ jednoznaãn˘m
vyjádfiením. Tvrdí, Ïe paradigmatem je v podstatû dostateãnû kvalitnû formulovan˘
sociální úzus, coÏ v nás v oblasti komputace pfiíli‰ neposune kupfiedu (Boden, 1988).
Pokusme ale pominout pochybnosti o moÏnostech komputace a podívat se na základy a pfiedpoklady, kter˘mi se vyznaãují komputaãní zafiízení pouÏívaná jak pro oblast
simulace, tak i obecnûji pro jiné úlohy.
Komputace se dá vyjádfiit tfiemi propojen˘mi, leã samostatn˘mi my‰lenkami:
1. Matematická funkce
2. Algoritmus
3. Systémová architektura
Matematická funkce mapuje z mnoÏiny vstupních objektÛ, naz˘van˘ch doména,
do mnoÏiny v˘stupních objektÛ, naz˘van˘ch rozsah (napfi. mapování v‰ech moÏn˘ch
vût z anglick˘ch slov do mnoÏiny v‰ech moÏn˘ch anglick˘ch smyslupln˘ch vût).
Algoritmus pro funkci f je v˘poãetní procedura, která poãítá f. MÛÏe jich b˘t více pro
totoÏnou událost. MÛÏeme ji vidût jako soubor primitivních operací, napfi. pouÏití logaritmu místo sãítání a násobení.
Design poãítacího stroje, kter˘ vykonává algoritmus, je naz˘ván systémová architektura. Ta obsahuje primitivní operace pouÏívané algoritmem a jiné nutné komunikátory
mezi nimi, které jsou urãeny podstatou stroje. Jsou v˘poãetními moduly pouÏívané
algoritmem, ale nejsou ãástí algoritmu (Sternberg, 1999).
Podobné rozdûlení nacházíme i u Marra. Ten rozdûluje komputaãní teorii do 3 vrstev
(Boden, 1988).
1. komputaãní
2. algoritmická
3. hardware
Komputaãní vrstva (odpovídající pfiedchozí matematické funkci) není pfiesnû ztotoÏnitelná pfiímo se slovem komputace – v˘poãet (proces). Marr jí vidí spí‰e jako
otázku, co systém vykonává, neÏ jak to vykonává. Blízk˘m termínem pro lep‰í
pochopení mÛÏe b˘t Chomského kompetence, popfiípadû anal˘za úlohy autorÛ
Simona a Newella. Komputaãní vrstva poskytuje abstraktní formulaci zpracovávané
úlohy, vãetnû moÏností a omezení, které vstupují do hry (Boden, 1988).
Algoritmická vrstva bere tyto informace v úvahu a v konkrétní rovinû se snaÏí o tvorbu správn˘ch posloupností operátorÛ. Jak jiÏ bylo zmínûno v˘‰e, existuje nûkolik
moÏností, jak algoritmizovat zpracování urãité úlohy. JelikoÏ se pohybujeme v sys-
témech, které jsou zaloÏeny na v˘poãtech, zaji‰Èuje nám jejich aparát moÏnost isomorfismu. Jedná se o silnûj‰í formu ekvivalence mezi dvûma formálními systémy
(Luger, 1994). Pfiíkladem mÛÏe b˘t moÏnost naprogramovat klasick˘ poãítaã PC, aby
fungoval jako TuringÛv stroj a naopak. Tím, Ïe zastfie‰ujícím principem je komputaãní
teorie, umoÏÀuje b˘t algoritmické vrstvû ãásteãnû nezávislá na pouÏitém hardwaru.
Pfiesnûji architektura hardwaru musí b˘t tak univerzální, aby na nûm bylo moÏno
provést libovolnou v˘poãetní úlohu.
Pro pochopení je dÛleÏité rozli‰ení mezi hardwarem a softwarem. Vztah mezi nimi je
dán ponûkud vágním, av‰ak filosoficky v˘znamn˘m pojmem implementace, coÏ je
zpÛsob, jak zajistit, aby dan˘ softwarov˘ program fiídil reáln˘ prÛbûh pfiíslu‰ného
v˘poãtového procesu v daném typu hardwaru. Podstata softwarov˘ch programÛ totiÏ
tkví v jejich kauzální potenci (causal efficiency), tj. schopnost fiídit dotyãné procesy,
která je invariantní k té ãi oné konkrétní implementaci. V tomto smyslu lze fiíci, Ïe programy „pfieÏívají hardwarovou smrt" (Havel, 2001).
V psychologii, která se snaÏí vyuÏívat v˘poãetní procedury k simulaci psychick˘ch
jevÛ, vzniká problém ãerné skfiíÀky, jelikoÏ máme jen omezené moÏnosti ke zkoumání
kognitivních procesÛ, takÏe nejsme schopni pfiesnû rozhodnout u daného jevu, za
kterou ãást je zodpovûdná architektura a za kterou algoritmy (Sternberg, 1999). To je
ãast˘m nedostatkem kognitivních architektur, které ãasto vznikají jako my‰lenkové
experimenty podpofiené statistick˘m v˘skytem jevu a jejich pfievod do pfiedem definované architektury (napfiíklad do von neumannovské) se setkává s mnoha problémy
a omezeními.
3.2
3.2.1
Architektura
Charles Babbage
JelikoÏ se zde v této kapitole seznámíme s prvními pokusy o realizaci komputaãní
architektury, je zde netradiãnû uveden její v˘voj vãetnû nûkter˘ch podrobnûj‰ích údajÛ
o autorovi.
Britsk˘ matematik a vynálezce Charles Babbage se jiÏ ve 20. letech 19. století pokusil
zkonstruovat mechanick˘ v˘poãetní stroj, jehoÏ ãinnost byla zaloÏena na programovateln˘ch instrukcích. Babbage se pokusil o obnovení my‰lenky, kterou se zab˘val uÏ
Leibnitz. Ten uvaÏoval o mechanickém uvaÏovaní jako o roz‰ífieném mechanickém
poãítání, ale nepodafiilo se mu najít vhodn˘ jazyk pro reprezentaci okolního svûta.
Babbagovi se to povedlo s tím, Ïe pouÏil Booleovskou algebru (Hogan, 1998). Chtûl
postavit takov˘ pfiístroj, kter˘ by byl schopen poãítat na aritmetické bázi. Pfiístroj mûl
navíc v sobû obsahovat prvky logické algebry, umoÏÀující v mnohém napodobit lidské my‰lení. Jednalo se Analytick˘ stroj, teoretick˘ koncept, kter˘ nebyl nikdy
uskuteãnûn, ale kter˘ pfiedznamenal zpÛsob my‰lení a pokusÛ o vytvofiení myslícího
stroje aktuální aÏ do dne‰ních dní. PfiedchÛdcem Analytického stroje a jedin˘m realizovan˘m projektem Charlese Babbage byl Derivaãní stroj, kter˘ v sobû obsahoval tabulky pro v˘poãet první derivace a byl zaloÏen na mechanickém principu. Jeho funkce
spoãívala ve v˘poãtu derivace zpÛsobem, kter˘ si vyÏadoval sãítání jako jedinou
funkci. Zkonstruovat jej ale nebylo jednoduché. Babbageovi do‰lo, Ïe stroj nemÛÏe
naprogramovat bûÏn˘m jazykem, jehoÏ podoba je pro v˘poãty pfiíli‰ rozvláãná a komplikovaná. Z tohoto dÛvodu vyvinul zvlá‰tní jazykovou fieã, jakousi kombinaci ãísel a
typografick˘ch znakÛ, s jejíÏ pomocí hodlal stroj programovat.
Z hlediska hardwarové architektury základní model obsahoval aritmetickou jednotku
(dne‰ní procesor) s jedním tisícem ozuben˘ch koleãek a pamûÈ dat pro tisíc padesátimístn˘ch ãísel. DÛleÏitou souãástí v˘poãetního zafiízení, které mûl pohánût parní
stroj, byla fiídící sekce s programem ãinnosti zapsan˘m na fietûzci papírov˘ch dûrn˘ch
karet (pamûÈové médium).
Dûrné karty byly nápadem, k nûmuÏ Babbage inspiroval vynález francouzského obchodníka Josepha Jacquarda. Není bez zajímavosti, Ïe právû
„Ïakárov˘ stroj" inspiroval pozdûji, v roce 1890, inÏen˘ra Hermana Holleritha k
vynálezu dûrn˘ch ‰títkÛ pfiená‰ejících data. Hollerith tûchto ‰títkÛ vyuÏil ke
konstrukci tfiídicího systému, vyuÏívaného pfii sãítání lidu. Jeho projekt sãítání,
porovnávání a anal˘zy ãísel na základû dûrn˘ch ‰títkÛ byl tak úspû‰n˘, Ïe Hollerith se sv˘mi spoleãníky zaloÏil spoleãnost, jeÏ byla pozdûji pfiejmenována na
International Business Machines – IBM.
V období dokonãování tohoto stroje zaãal Babbage pracovat na návrzích jeho
vylep‰ené varianty, kter˘m je v˘‰e zmínûn˘ Analytick˘ stroj (Analytical Engine).
Zafiízení mûlo kromû základních poãetních operací umût nejen fie‰it algebraické a
numerické rovnice, ale souãasnû i vystihnout v˘sledky a podle nich, coÏ je nejpozoruhodnûj‰í, samostatnû mûnit prÛbûh dal‰ího v˘poãtu.
K tomuto úãelu navrhl Babbage systém tfií programovacích karet, opatfien˘ch
dûrováním (tyto pfiedchÛdkynû dûrn˘ch karet byly paradoxnû je‰tû dokonalej‰í neÏ
v˘‰e zmínûné Hollerithovy karty). Jednalo se o operaãní, ãíslicové a variaãní karty,
pfiiãemÏ operaãní karty dodávaly instrukce stroji (zastupovaly jak˘si operaãní kód), ãíslicové karty obstarávaly informace o hodnotû ãísel (data) a variaãní (software)
zprostfiedkovávaly druh v˘poãtu. KaÏd˘ druh karet, rozli‰en˘ i odli‰n˘mi velikostmi,
mûl tedy svou specifickou funkci pro chod a funkce analytického stroje.
Právû schopnost postupovat a rozhodovat se podle stanoveného programu udûlala
z Babbageova návrhu pfiedchÛdce pozdûj‰ích typÛ poãítaãÛ. I kdyÏ mûl vynálezce
ambiciózní projekt mechanického analytického stroje promy‰len˘ do nejmen‰ího
detailu, prototyp nebyl za jeho Ïivota bohuÏel nikdy zkonstruován. Docenûní své
my‰lenky se sice nedoãkal, ale to neznamená, Ïe zapadla. Babbage je uznáván jako
matematik, jehoÏ principy ovlivnily architekturu poãítaãÛ, které jsou pouÏívány
dodnes - von neumannovská architektura (Hogan, 1998). Sám Babbage o svém díle
napsal: „Analytical Engine splÀuje podmínky, které umoÏÀují stroji vykonávat
neohraniãené v˘poãty" (Hogan, 1998,s.134). Nedá se v‰ak fiíci, Ïe by si Babbage uvûdomoval tak jasnû univerzálnost navrhovaného stroje, jako to udûlal o 100 let pozdûji
jeho krajan A.Turing.
3.2.2
Von neumannovská architektura
Právû my‰lenky zmínûné v pfiedchozí kapitole mûly zásadní vliv na tvorbu architektury, která je povaÏována za standard v oblasti komputace. JiÏ v Babbageovû pfiístupu
mÛÏeme identifikovat základní prvky souãasn˘ch poãítaãÛ (centrální jednotka/procesor, pamûÈ, vstupní a v˘stupní zafiízení pro data).Na koneãné podobû se podílelo více
badatelÛ. Norbert Wiener (zmiÀovan˘ jiÏ v souvislosti s teorií informace) sepsal nûkolik doporuãení, urãujících smûr, kter˘m by se mûla ubírat tvorba architektury
budoucích strojÛ (Hogan, 1998). PoÏadavky byly následující:
1. PouÏívat ãíselnou formu reprezentace, ne mechanická koleãka (v extrémní podobû
by se jednalo o rozdíl mezi digitálním a analogov˘m, zde spí‰e mínûno z hlediska
efektivity).
2. PouÏít elektronky, pro jejich rychlost. Ne pfievodníky nebo relé.
2. PouÏívat dvojkov˘ kód místo decimálního.
4. PouÏít interní uloÏení programÛ, umístit oddûlenû od vstupních a v˘stupních dat.
5. K internímu skladu by mûl b˘t rychl˘ pfiístup.
Tyto poÏadavky pfiedznamenávají vylep‰ení varianty stroje, kter˘ 75 let pfiedtím navrhl
Charles Babbage, která se dá povaÏovat jako pfiedchÛdce von neumannovské architektury (Hogan, 1998).
Pfiíspûvek samotného Johna von Neumanna do takto vylep‰ené architektury se zdá b˘t
zanedbateln˘. V roce 1945 pfii‰el s návrhem, Ïe by v˘poãetní stroje mûly obsahovat
pamûÈ rychle pfiístupnou pro procesor, ve které by byly uloÏeny aktuální program
(soubor algoritmÛ) a také právû zpracovávaná data a jejich meziv˘poãty. NaráÏel na
pomalost tehdej‰ích strojÛ, které ukládaly tyto informace vÏdy do externí pamûti
(z dne‰ního pohledu na pevn˘ disk). Vznikla poslední ãást architektury poãítaãe
dne‰ních dní - operaãní pamûÈ. Její uvedení do praxe neprobûhlo okamÏitû, ale muselo poãkat na vynález pamûti typu RAM.
Pro lep‰í pfiedstavu celkové architektury je zde obrázek, kter˘ na metafofie úfiedníka
zpracovávajícího napfi. v˘poãet daní, popisuje jednotlivé komponenty architektury
(pro snadnûj‰í zapamatování jsou na obrázku pfiímo uvedeny termíny, které popisují
souãasné poãítaãe).
Obr. 7 Von neumannovská architektura
Rozdíl mezi tímto typem architektury a Turingov˘m strojem je následující. Von neumannovská architektura je jiÏ navrhována se zfietelem k její praktické aplikaci
(vycházela z Ch. Babbage) na rozdíl od Turingova stroje, jeÏ byl vytvofien jako
my‰lenkov˘ experiment, kter˘ si nekladl za cíl praktickou aplikaci. Turingov˘m cílem
bylo vytvofiit co nejjednodu‰‰í (s nejmen‰ím poãtem prvkÛ) univerzální systém. Praktické provedení Turingova stroje by bylo zbyteãné. Jeho jednoduchost spoãívá v poãtu
pouÏit˘ch komponent a jejich funkcí, nikoliv v‰ak v rychlosti a moÏnostech v oblasti
zpracování dat, coÏ jsou vlastnosti v praxi povaÏované za hlavní pfiednosti v˘poãetních systémÛ.
Jen pro informaci na závûr uvádím krátkou poznámku o dal‰í práci Johna von Neumanna v historii tvorby v˘poãetních architektur. V oblasti umûl˘ch systémÛ se setkáme
i s architekturou neuronov˘ch sítí, ãi s paralelními v˘poãetními systémy. Cílem von
Neumanna byla právû taková architektura, která by dokázala zpracovávat informace
paralelnû. V jeho dobû v‰ak je‰tû technické moÏnosti nedovolovaly její tvorbu. Von
Neumannov˘ch zku‰eností bylo vyuÏito ke stavbû prvního moderního digitálního
poãítaãe EDVAC, kter˘ byl bohuÏel sériov˘ (Caudill&Buttler, 2000).
3.2.3
TuringÛv stroj
Nejznámûj‰í prací Alana Turinga je jeho ãlánek s názvem „Computing Machinery and
Intelligence" ve kterém vznesl otázku, jejíÏ fie‰ením se zab˘vají vûdci dodnes. Jedná se
o to, zda je technicky moÏné, aby stroje dokázaly myslet. Tedy zda lze dosáhnout
úrovnû, kdy vytvofiíme systém - stroj, kter˘ bude schopen samostatného my‰lení, bez
potfieby interpretace vstupÛ ãi v˘stupÛ. Cílem kognitivních vûd má b˘t kladná
odpovûì na poloÏenou otázku. Turing ve svém ãlánku naráÏí na problematiãnost slov
stroj a my‰lení, které je velmi obtíÏné vymezit samostatnû, natoÏ ve spoleãném kontextu. ZuÏuje tedy pojem stroj na digitální poãítaã. Pokud bychom dokázali najít fie‰ení
a sestrojili myslící stroj, nastává nám jin˘ problém. Jak˘m zpÛsobem zjistit, jestli je
dan˘ stroj inteligentní? CoÏ je problematika známá dodnes jako TuringÛv test (Hogan,
1998).
Podívejme se ale radûji na princip fungování Turingem navrhovaného stroje, kter˘ má
slouÏit k vypoãtení libovolné úlohy. Stroj (TuringÛv) není Ïádné hmatatelné zafiízení,
je to pokus o matematické zachycení intuitivního pojmu vypoãitatelnosti ãi je‰tû obecnûji vyfie‰itelnosti. Turing si uvûdomil, Ïe kaÏd˘ v˘poãet (ãi obecnûji kaÏdé fie‰ení)
zaãíná nûjak˘mi vstupními daty, které si mÛÏeme pfiedstavit znak po znaku zapsané
na papírové pásce a konãí nûjak˘m v˘sledkem ve stejné podobû (Peregrin, 2002).
V˘poãet je pfiechod od jedné sekvence znakÛ na pásce k jiné, a tak Turing usoudil,
Ïe aÈ uÏ pfiechod provádíme jakkoli, na té nejelementárnûj‰í úrovni se nemÛÏe neÏ
skládat z nûkolika základních operací (pfieãtení nûjakého existujícího symbolu, posun
pásky o jednu pozici tam ãi zpátky a zapsání nového symbolu ãi pfiepsání starého).
Obr. 8 Schéma Turingova stroje
PfiestoÏe je TuringÛv stroj pouze teoretickou konstrukcí, je moÏno jeho architekturu
popsat pomocí následujících prvkÛ. Jedná se o zafiízení, které obsahuje tabulku
s koneãn˘m poãtem fyzick˘ch nespecifikovan˘ch stavÛ a posuvnou hlavu schopnou
ãíst, zapisovat a mazat symboly (nejãastûji se pouÏívá 1 a 0, ale je moÏno pouÏít libovolnou koneãnou abecedu symbolÛ). Hlava se pohybuje v diskrétních krocích po libovolnû dlouhé pásce (mÛÏe b˘t nekoneãná), která je rozdûlena na políãka obsahující
vÏdy jeden symbol. Na zaãátku kaÏdého kroku ovlivÀují ãinnost stroje dva vstupy.
Jeden z pásky (symbol) a druh˘ z tabulky stavÛ, která dle daného symbolu pfiifiadí
hlavû operaci, kterou má provést. V˘sledná operace se skládá z instrukce, co provést
s pfieãten˘m symbolem (nechat, smazat, pfiepsat) a urãením smûru posunu hlavy vlevo
nebo vpravo (Hogan, 1998).
Pojmem „vypoãitateln˘" se rozumí cokoli, co by dokázala vypoãítat idealizovaná
bytost, která by mûla k dispozici neomezené prostfiedky a neomezenû ãasu. Turing se
v‰ak pokusil o nepfiíli‰ obvyklou vûc: my‰lenka poãítaãe, tak, jak ho dnes známe, je
my‰lenkou pfiechodu od strojÛ, které vykonávají jeden urãit˘ proces, ke stroji, kter˘ je
univerzální v tom smyslu, Ïe disponuje natolik flexibilním souborem natolik elementárních operací, Ïe z nich lze skládat v podstatû jakékoli pfiedstavitelné v˘poãty (Peregrin, 2002). Tím se dostáváme do ideálního stavu pro komputaãní teorii. Máme svût,
kter˘ mÛÏeme pfievést na soubor v˘poãtÛ a máme univerzální zafiízení, které dokáÏe
v‰echny tyto v˘poãty uskuteãnit. V ãem je tedy problém?
Nejprve je nutné zmínit omezení, které v˘poãetní metoda provádûná Turingov˘m strojem, ale i jin˘m v˘poãetním zafiízením obsahuje. Lépe fieãeno, hovofiíme o poÏadavcích, které je nutné splnit pro úspû‰né pouÏití komputaãní metody:
Metoda se skládá z koneãné mnoÏiny jednoduch˘ch a pfiesn˘ch instrukcí, které jsou
popsány koneãn˘m poãtem
symbolÛ.
Metoda bude vÏdy produkovat v˘sledek v koneãném poãtu krokÛ.
„Funkãní sílu" Turingova stroje nejlépe vyjadfiuje teze, která je kombinací my‰lenek
Turinga a Alonsa Churche.Vyskytuje se v mnoha publikacích v rozliãn˘ch formách a
s rÛznou explanaãní silou (odvislou od pfiesvûdãení autora). Uvádím zde nejãastûji
zmiÀované formy Church-Turingovy teze:
V‰echny komputaãní modely jsou stejné nebo ménû v˘konné neÏ TuringÛv stroj
(Luger, 1994).
SloÏitost ãi efektivnost algoritmu je prokazatelná tím, jak ji lze provést Turingov˘m strojem (Crane, 2002).
Kromû toho, Ïe mÛÏeme pouÏívat TuringÛv stroj jako mûfiítko zdafiilosti (efektivity a
struãnosti) algoritmu (Craneova definice), mÛÏeme tezi posuzovat podle míry, kterou
je komputace úãastná pfii tvorbû reprezentací a operacích s reprezentacemi prostfiedí,
shrnutelného v psychologii pojmem kognice. Silnûj‰í varianta explanace teze praví, Ïe
pokud existuje problém, kter˘ není fie‰iteln˘ Ïádn˘m v˘poãetním zpÛsobem, nemÛÏe
tento problém vyfie‰it ani lidská mysl (Pfeifer&Scheier, 2001).
Druhá my‰lenka, váÏící se k zmínûné tezi, tvrdí, Ïe jestliÏe ãlovûk dokáÏe fie‰it problémy, ãi vykazovat inteligentní chování, mohou b˘t zkonstruovány stroje, které budou
mít stejné schopnosti. Tvrzení tvofií jádro souãasn˘ch v˘zkumÛ v oblasti umûlé
inteligence (Pfeifer&Scheier, 2001). BohuÏel my‰lenka o schopnosti napodobit lidskou
mysl v˘poãetním zafiízením je závislá na odpovûdi na v˘‰e zmínûnou otázku „kvantifikace a algoritmizovatelnosti prostfiedí" (probíraná také v kapitole Komputace).
JiÏ zmínûná univerzálnost Turingova stroje je podpofiena je‰tû jednou v˘hodou této
geniálnû navrÏené architektury. Tabulku stavÛ, která rozhoduje podle vstupu z pásky
o tom, jaká bude pfií‰tí operace hlavy, mÛÏeme totiÏ pfievést do symbolické formy,
která je pouÏívána právû pro zápis na pásku (nejãastûji binární kód 1/0), a vytvofiíme
tak kopii Turingova stroje (v podobû dat). Tu pak mÛÏeme implementovat do nového
prázdného Turingova stroje pomocí hlavy, která naãte tabulku stavÛ na pásce uloÏenou. BohuÏel se v Ïádné publikaci neuvádí, jak takov˘ pfievod vypadá v praxi. Jak fiíci
prázdnému Turingovu stroji, Ïe má naãíst tabulku stavÛ (popfiípadû jak je veliká)? Také
ukonãení naãítání je problematické a je tfieba vytvofiit speciální symbol a také receptor v ãtecí hlavû. Znamenalo by to roz‰ífiení stávající architektury o nové prvky.
O moÏnostech roz‰ífiení Turingova stroje a také jeho omezeních hovofií i nûkteré
souãasné práce. Klasická Church-Turingova teze nás uji‰Èuje, Ïe kaÏd˘ algoritmus lze
popsat pomocí standardního Turingova stroje. Nicménû pro v˘poãty souãasn˘ch osobních poãítaãÛ anebo velk˘ch distribuovan˘ch systémÛ se navrÏená architektura
nehodí. V˘poãty podobn˘ch systémÛ se li‰í od klasick˘ch ve tfiech smûrech: nikdy
nekonãí, prÛbûÏnû a nepfiedvídatelnû interagují se sv˘m okolím a v˘poãetní systém se
dynamicky a nepfiedvídatelnû vyvíjí. Wiedermann navrhuje roz‰ífiení shora uvedené
teze tak, aby pokr˘vala i právû zmínûné tzv. neuniformní interaktivní v˘poãty.
Roz‰ífiená teze tvrdí, Ïe kaÏd˘ v˘poãet uvedeného druhu lze zachytit pomoci interaktivního Turingova stroje se speciálním typem orákula, které nezávisí na daném vstupu,
ale pouze na jeho délce. Pfiíklady, které roz‰ífiená teze pokr˘vá, sahají od (formálních)
modelÛ osobních poãítaãÛ pfies Internet aÏ po komunity inteligentních mobilních
agentÛ podléhající neuniformní evoluci. V˘sledné v˘poãetní systémy mají superturingovskou v˘poãetní sílu (Wiedermann, 2001). PouÏívané metody roz‰ífiení základního principu korespondují s tûmi, které byly zmínûné v kapitole o formální a mentální logice. Je nutné pfiidat dal‰í mechanismy a vytvofiit sloÏitûj‰í architekturu, která by
dokázala zpracovávat i komplexní a dynamické úlohy.
Podívejme se, jaké argumenty pouÏívají odpÛrci komputaãní teorie, vyjádfiené pomocí
Turingova stroje. Velmi ãasto je citována námitka Lady Lovelace, která tvrdila, Ïe
pfiístroje (poãítaãe) vÏdy odpovídají stejn˘m zpÛsobem na stejné vstupy (Hogan,
1998). Lady Lovelace tedy tvrdí, Ïe stroj nemá schopnosti cokoliv vymyslet. MÛÏe
pouze informace zpracovávat. Je nutné pfiipomenout, Ïe Lady Lovelace Ïila ve stejném
období jako Charles Babbage a její vyjádfiení se vztahuje spí‰e k obecné komputaãní
teorii, neÏ k samotnému Turingovu stroji (kter˘ je‰tû nebyl v její dobû navrÏen).
Námitka smûfiuje k monotonii v˘poãetních systému a také k otázce, zdali mÛÏeme
automatick˘ proces naz˘vat inteligentním.
Ponûkud souãasnûj‰í námitka hovofií o rozdílech mezi diskrétním zpracováním oproti
spojitosti v nervovém systému. Jakákoliv drobná chyba ãi odchylka v práci nervového
systému, zpÛsobí sled události, kter˘ nelze pfiedpokládat, ãi nasimulovat pomocí systému pouÏívajícího diskrétní stavy. V kaÏdém ãlovûku je omezen˘ poãet pravidel,
které mohou pÛsobit na jeho chování. Ale taková pravidla skuteãnû neexistují, takÏe
ãlovûk nemÛÏe b˘t stroj (Hofstadter, 1999). âásteãnou odpovûdí na HofstadterÛv kategorick˘ postoj je Wiedermannem navrhované roz‰ífiení Turingova stroje o komponenty schopné zpracovávat komplexní dynamickou úlohu. Námitka ale útoãí i na
samotné základy komputaãní teorie s opodstatnûním, Ïe diskrétní forma informace ãi
jejího zpracovávání není sto plnû nahradit formu analogovou.
CoÏ nás smûruje k dal‰í problematické partii, která se t˘ká napfiíklad oblasti fuzzy
mnoÏin. BohuÏel v této práci není dostatek místa, pro podrobnûj‰í pohled na danou
oblast. Pouze pro doplÀující informaci na závûr uvádím nûkolik postfiehÛ cizícch
autorÛ, t˘kajících se rozdílÛ mezi analogov˘m a digitálním. CoÏ je tématika, jejíÏ
odpovûdi jsou pfiedpokladem pro otázky ohlednû „kvantifikovatelnosti (reprezentace)
svûta".
Analogové mûfiení je prÛmûrování prÛbûÏné kvantity (Luger, 1994).
Analogov˘ x Digitální – reálné ãíslo x celé ãíslo – kupování mléka x kupování vajec
Diskrétní forma je rozpojitá, kvalifikovatelná, operacionalizovatelná, neobsahuje kontinuum a tím problematiku nekoneãnû mal˘ch veliãin. Kontinuum lze rozdûlit na
diskrétní informace, ale ztratíme pfiitom kvalitu informace a také nûkteré její hodnoty.
Pokud ale chceme diskrétní informace propojit v kontinuum, musíme extrapolovat
(Sedláková, 2004).
3.2.4
Finite state automaty
Speciálním pfiípadem Turingova stroje jsou koneãné automaty (finite state automata).
Pfiesnûji se jedná o automaty s koneãn˘m poãtem stavÛ. Zastupují jednoduchou formu
v˘poãetního zafiízení, jejichÏ v˘chozím principem je právû TuringÛv stroj. Oproti nûmu
se jedná u tûchto automatÛ o konkrétní systémy, které se pouÏívají v praxi, ale bylo
nutné provést nûkterá zjednodu‰ení. PoÏadavek na nekoneãnou pásku je v praxi
neuskuteãniteln˘. A proto pouÏívají koneãné automaty buì omezenû dlouhou pásku
nebo Ïádnou (v tom pfiípadû jsou vstupy reprezentovány jinou formou). Interní pamûÈ
je tvofiena tabulkou stavÛ (jako u Turingova stroje), která je podle názvu automatÛ
koneãná a reprezentuje sled úkonÛ (algoritmÛ), které mÛÏe stroj plnit (z pohledu poãítaãe se jedná o software). Interní pamûÈ tvofií tedy pouze software a neumoÏÀuje
uloÏení informací o reprezentacích ãi meziv˘poãtech vstupních dat. Základní definice
koneãn˘ch automatÛ se dá shrnout do tûchto bodÛ:
1. Poãet stavÛ automatu je diskrétní a pfiesnû rozli‰iteln˘.
2. Poãet stavÛ je koneãn˘.
3. Vstupy a v˘stupy probíhají v libovolném z tûchto stavÛ.
4. Neustále probíhá pfiechod mezi jednotliv˘mi stavy
5. Systémy nemají Ïádnou externí pamûÈ. Ve‰kerá interní pamûÈ jsou pouze stavy a
jejich posloupnosti. To, jak stavy budou pfiecházet, je ãásteãnû dáno jejich obsahy, ale
také informacemi které do tohoto systému vstupují
(Hogan, 1998).
Dobrou demonstrací jednoduch˘ch koneãn˘ch automatÛ je turniket u vchodu
do metra, kter˘ se dá projít po vhození mince. Obrázek znázorÀuje formalizaci
zafiízení, obsahující funkãní diagram a také tabulku stavÛ.
Obr. 9 Finite state automata – pfiíklad turniketu v metru
Roz‰ífiením moÏností koneãn˘ch automatÛ mÛÏeme pfiejít od deterministick˘ch k
nedeterministick˘m KA. U deterministick˘ch je v tabulce stavÛ pfiifiazen pouze jedin˘
pfiechod na následn˘ stav pfii urãitém vstupu. U nedeterministick˘ch automatÛ obsahuje tabulka stavÛ více neÏ jednu moÏnost pfiechodu k následnému stavu.
3.3
Aplikace
3.3.1
Symbolické systémy
Symbolick˘ funkcionalismus, proud zvan˘ téÏ jako „stará-dobrá-umûlá-inteligence"
(GOFAI), je zaloÏen na dvou základních hypotézách – funkcionalistické hypotéze a
hypotéze fyzického symbolického systému . Funkcionální hypotéza tvrdí, Ïe:
Inteligentní chování daného systému je dosaÏeno interakcí mezi jednotliv˘mi komponenty, které disponují odli‰nou funkcionalitou, coÏ je dosaÏeno tím, Ïe v rámci systému hrají odli‰nou roli (Pûchouãek, n.d.).
Skrze tuto ponûkud tautologickou definici se dostáváme dál ve vymezování a revizi
prostfiedkÛ pouÏívan˘ch pfii snahách o simulaci inteligentního systému. V pfiedchozích
kapitolách jsme rozebírali jak zastfie‰ující téma komputaãní teorie, tak architektury,
které dokáÏí vytvofiit podmínky pro komputaãní moÏnosti. V následujících kapitolách
se posuneme o kousek dál. Z oblasti „hardwarové" se pfiesouváme do oblasti „softwaru". Zmínûny budou nûkteré základní programy, které jsou implementovány do klasick˘ch von neumannovsk˘ch architektur. Autofii se snaÏili o jejich nejefektivnûj‰í
vyuÏití pfii tvorbû „inteligentních algoritmÛ". První kapitola nastiÀuje oblast zpracování
symbolÛ matematické i nematematické povahy, a obtíÏnosti jejich zachycení ve vhodné podobû k následnému zpracování. Jedná se o fyzick˘ symbolick˘ systém zmínûn˘
na zaãátku kapitoly.
3.3.1.1
Fyzick˘ Symbolick˘ systém
Hypotéza fyzického symbolického systému tvrdí, Ïe:
„Fyzick˘ symbolick˘ systém je dostateãn˘m a nezbytn˘m prostfiedkem pro prezentaci
inteligentního chování”. Autory hypotézy a následné teorie jsou Allen Newell a Herbert Simon. Z v˘chozích principÛ, které autofii zastávali, se jedná spí‰e o empirick˘
neÏ teoretick˘ pfiístup ke zkoumání lidské inteligence. Inteligence je zde nazírána jako
manipulace se symboly, pfiiãemÏ systém fyzick˘ch symbolÛ je nutnou podmínkou pro
její realizaci. Slovo fyzick˘ je my‰leno ve smyslu nutnosti uloÏení symbolÛ do urãitého
fyzického média. To, jak˘m zpÛsobem je uloÏen je nepodstatné.
Mechanismus práce se symboly je následující. V˘poãetní proces pracuje s reprezentacemi, které mají formu symbolick˘ch struktur. Symbolická reprezentace se fiídí podle
Simona a Newella zákony reprezentace. Pfiíkladem je zpÛsob umístûní objektu v prostoru a zachycení jejích vztahÛ. Pokud máme stÛl, na kterém leÏí objekt A a na nûm
leÏí objekt B, mÛÏeme to zachytit následující reprezentací:
Obr. 10 Zachycení zmûny pomocí symbolické reprezentace
(objekt A)(Objekt B)
(StÛl S)
(na B A) (na A S)
JestliÏe provedeme operaci pfiemístûní objektu B z objektu A na stÛl, vzniká nám nová
reprezentace
(objekt A)(objekt B)
(stÛl S)
(na A S) (na B S)
Jde tedy o vytvofiení interních reprezentací vÏdy korespondující s externím svûtem.
Tím Ïe je pouÏit k interní reprezentaci jazyk (symbolick˘ systém), vznikají urãitá
omezení plynoucí z jeho pouÏití. Jedná se o zachycení prostorov˘ch vztahÛ, které by
v pfiípadû sloÏitûj‰í situace vedlo k nutnosti pouÏít stále více operátorÛ. Nev˘hodou pfii
pfievodu je právû vyjádfiení prostorov˘ch vztahÛ jazykov˘m kódem místo obrazového.
Se vzrÛstající komplexitou (vût‰í poãet prvkÛ,vztahÛ a jejich promûn v ãase) vznikne
situace, kdy pro záznam mûnící se situace potfiebujeme takové mnoÏství popisujících
prvkÛ, Ïe se dan˘ symbolick˘ systém stane neefektivním a bude vyÏadovat znaãné
zatíÏení v˘poãetního aparátu. Pfies v‰echny námitky, se tento zpÛsob reprezentace stal
standardem v oblasti umûlé inteligence. Nejvût‰í moÏnosti jeho vyuÏití nabízejí produkãní systémy, které pracují se symboly uloÏen˘mi ve formû znalosti a jejichÏ problematiku zpracovali stejní autofii (viz následující kapitoly).
3.3.2
Simon-Newell
V této kapitole naãrtneme hlavní zpÛsoby pouÏívání v˘poãetních automatick˘ch programÛ. Mezi prÛkopníky praktické aplikace v˘sledkÛ kognitivní psychologie a pokusÛ
o simulaci rozhodnû patfií zakladatelé tohoto odvûtví Herbert Simon a Alan Newell.
BlíÏe se seznámíme s v˘chozími principy, které tito autofii zastávali a také s jejich programy tvofiící základy oblasti umûlé inteligence a strojového my‰lení. DÛleÏitou otázkou se zde stává tvorba univerzálního algoritmu (ãi programu) schopného zpracovávat
úlohy z rÛzn˘ch oblastí (libovoln˘ typ úlohy). Vût‰ina zde zmínûn˘ch programÛ
implicitnû pfiedpokládá svou aplikaci v klasické von neumannovské architektufie,
o které víme, Ïe je zaloÏena na principech komputace.
Jedním z moÏn˘ch pfiístupÛ pfii vytváfiení inteligentních systému je metoda „top-down",
coÏ znamená, Ïe postup zpracování informace a tvorby chování je fiízen z vrchní
abstraktní úrovnû a poté je spodní konkrétní vrstvou vykonáván. Newell tuto koncepci
rozvrhl do tfií rovin. Vrchní úroveÀ se naz˘vá „znalostní" a obsahuje pfiehled znalostí a
cílÛ, které mÛÏe systém dosahovat. Prostfiední logická úroveÀ vytváfií posloupnost
operací vedoucích k fie‰ení a zpracovává je do algoritmické formy. Spodní úroveÀ
implementaãní poté pfiifiazuje jednotlivé operace konkrétním programÛm na jejich
vykonání (Pfeifer&Scheier, 2001). Setkáváme se s podobn˘m rozãlenûním, jaké zastupují v obecné rovinû jednotlivé vrstvy komputaãní teorie.
Simon tvrdí, Ïe lidská mysl je v rovinû informaãního zpracování velmi jednoduch˘m
zafiízením, a její zmiÀovaná komplexita je zpÛsobena komplexitou prostfiedí. Pokud
chceme odhalit základní v˘poãetní procesy, které pouÏívá mysl, musíme studovat
zdánlivû jednoduché situace, které nám tyto procesy odhalují. Zde podle nûj leÏí základní jádro v˘zkumu kognitivních psychologÛ. Na druhou stranu lze o daném pfiístupu
fiíci, Ïe badatelé v této oblasti vytvofiili obrovské mnoÏství paradigmat s pfiedpokladem
, Ïe se jim podafií izolovat ãisté pfiípady kognitivních akcí, a také uskuteãnili spoustu
laboratorních studií, o kter˘ch pfiedpokládali, Ïe budou fungovat i mimo laboratofi
(Sternberg, 1999). Za tûmito studiemi lze vidût potfiebu, nalézt ãi odvodit v˘chozí
„atomy" psychologie, jejichÏ kombinace mohou vést k tvorbû (a také dokonalému
pochopení) jevÛ komplexnûj‰ích.
Simon také kriticky pfiipomíná Ïe od Woodswortha k Andersonovi (autofii knih t˘kajících se kognitivní psychologie) se událo jen málo zmûn v kapitolách vûnovan˘ch
my‰lení a uvaÏování. Jednou z pfiíãin mÛÏe b˘t malé propojení mezi problematikami
fie‰ení problému, uvaÏování a indukce (Pick, 1992).
V této oblasti Simon své v˘chozí principy abstrahoval spí‰e z pozorování prostfiedí neÏ
racionalistick˘m pfiístupem. Procesy my‰lení ãi rozhodování jsou fiízeny principy zisku,
minimálních nákladÛ, efektivity apod. Matematické a logické formule hovofií o pfiesn˘ch hodnotách a o nutn˘ch podmínkách, kter˘ch je tfieba k dosaÏení závûru, zatímco ãlovûk je daleko více fiízen principem „dostateãnosti". Staãí nalézt dostateãné
mnoÏství faktÛ ãi argumentÛ k rozhodnutí.
V rozhodovacích postupech identifikoval hierarchickou strukturu. Jednotlivé akce
vedoucí k cíli, jsou ãlenûny na podúkoly, samostatnû vykonávané specializovan˘mi
centry na niωí úrovni. Pfiíkladem pro tuto analogii mu byla hierarchická organizace a
plánování ve velk˘ch podnicích. PfiestoÏe je tento postup plnû formalizovateln˘,
dospûl Simon k závûru, Ïe tradiãní matematika není dostaãující pro modelování
rozhodovacích procesÛ a zaãal hledat jin˘ zpÛsob reprezentace (Newell and Simon,
1972, s.124).
3.3.2.1
Logic Theorist
Autofii prvního z programÛ umûlé inteligence (Simon a Newell) se zamûfiili na
ovûfiování teorémÛ v elementární symbolické logice. Ovûfiování logick˘ch teorémÛ je
jednoduch˘ a posloupn˘ proces, kter˘ je podobn˘ odvozování geometrick˘ch
teorémÛ. Vycházíme z mnoÏiny premis nebo axiomÛ neredukovateln˘ch na niωí
úroveÀ. S axiomy mÛÏeme poté operovat podle pravidel inference abychom získali
tvrzení v podobû teorémÛ, které díky pfiesnû dan˘m pravidlÛm, jsou vÏdy pravdivé
v axiomaticky vázaném systému. Newell a Simon pouÏívali v procesu ovûfiování teorému „v˘rokového kalkulu", sloÏeného z propoziãních v˘rokÛ spojovan˘ch pomocí
operátorÛ „nebo" a „implikuje" do v˘razu, které jsou také propozicemi a je moÏné jim
pfiisoudit pravdivostní hodnotu. Na takov˘ch základech byl postaven jejich první program Logic Theorist. Primárním cílem programu nebylo ovûfiovat teorémy, které jiÏ
logikové potvrdili. Autofii mûli cíl mnohem více psychologick˘. Chtûli se dozvûdût,
které druhy pravidel lidé pouÏívají, pokud hovofií o intuici a dal‰ích principech, jeÏ
nejsou pfiímo pfiístupné zkoumání. V pfiípadû potvrzení vyuÏitelnosti pravidel
s pouÏitím rozsáhlého systému axiomÛ, by tak bylo moÏné vytváfiet programy, které
dokáÏou v˘konnostnû pfiedstihnout lidské schopnosti. Aãkoli bylo hlavním cílem pfii
tvorbû LT odhalení zákonitostí my‰lení, ve svém dÛsledku pfiinesl v˘sledky spí‰e
v oblasti generování ãi prohledávání rozsáhl˘ch stavov˘ch prostorÛ, ãehoÏ bylo
pozdûji vyuÏito v oblastech jako jsou ‰achové programy, fie‰ení problému apod.
Program pfii prohledávání stavov˘ch prostorÛ pouÏíval také heuristická pravidla,
umoÏÀující ohodnotit jednotlivé mezistupnû cílového stavu, ãímÏ jsou schopny
redukovat poãet variant ve stavovém prostoru, právû podle blízkosti k cíli. Simon
s Newellem pouÏili zpoãátku program LT k ovûfiování teorémÛ z knihy Russella a
Whiteheada Principia Matematica. Z 52 teorémÛ dokázal Logic Theorist ovûfiit 38.
Nutno podotknout, Ïe tento první program z oblasti UI dokázal ovûfiit jeden z teorému v knize Principia Matematica elegantnûji neÏ její autofii (Hogan, 1998).
3.3.2.2
General Problem Solver
V˘zkum a tvorba programÛ napodobujících lidskou inteligenci naráÏel v dobách,
o kter˘ch jsme hovofiili v minulé kapitole a o které budeme hovofiit i nyní na jeden
zásadní nedostatek. Technologie nebyla je‰tû na úrovni, umoÏÀující zab˘vat se obecnou inteligencí. V teoretické oblasti se objevují dostateãné podklady pro tvorbu
obecn˘ch v˘poãetních systému, ale jejich konstrukce (období relé a elektronek) byla
extrémnû nákladná a v˘poãetní rychlost stále zanedbatelná. V˘voj a v˘zkum v oblasti
aplikací se tedy vydal smûrem oddûlen˘ch projektÛ, soustfieìujíc se na jednotlivé
aspekty, konstituující celkovou inteligenci potaÏmo mysl . V˘zkumné projekty si
pfiestaly ãinit nárok na fie‰ení problematiky umûlé inteligence „jedním tahem".
Pfiesto byl dal‰ím poãinem dvojice program General Problem Solver, spu‰tûn˘ v roce
1957. GPS vycházel z pfiedpokladu, Ïe zpracování informace je spí‰e doménovû obecné neÏ doménovû (oborovû) specifické. (Sternberg, 1996) V rÛzn˘ch obmûnách a variacích na nûm pracovali Simon a Newell po dobu 10 let. Kniha Human Problem Solving obsahuje 920 stránek podrobného záznamu celého projektu (Newell and Simon,
1972).
Jak jiÏ název napovídá, byl GPS urãen k tomu, aby dokázal fie‰it obecné problémy.
To je základní rozdíl oproti LT, kter˘ slouÏil pouze k ovûfiování logick˘ch teorémÛ.
Jejich teoretické pfiedpoklady vycházely z lidské schopnosti, fie‰it libovoln˘ problém.
V praxi se jednalo o vyuÏití heuristick˘ch principÛ a jejich zakódování do „jádra", které
by dokázalo zpracovávat úlohu nezávisle na jejím zadání. Rozdíl oproti LT je, Ïe
axiomy (tedy základní stavební kameny vyvozování) nahradíme znalostní bází,
obsahující sérii základních postupÛ (receptÛ) pfii fie‰ení problému. Pokud je systému
dána znalost o urãitém aspektu svûta, schopnost obecného usuzování mu umoÏní
vyfie‰it problém. PoÏadované informace byly systému dodávány formou „diferenãních
tabulek", specifikující rozdíl mezi danou situací a cílov˘m stavem. Pro zpracování tûchto tabulek se pouÏívá means-end anal˘za (anal˘za prostfiedkÛ a cílÛ). Na podobném
principu je zaloÏeno napfiíklad zpûtnovazebné inÏen˘rství Norberta Wienera.V základû
se dá zpÛsob práce GPS shrnout do následujících krokÛ:
1.Zjisti rozdíl mezi souãasnou pozicí a cílov˘m stavem.
2.Najdi operátor kter˘ typicky redukuje tento rozdíl.
3.Urãi , jestli mÛÏe b˘t operátor aplikován na danou situaci.
-pokud ano, pouÏij jej
-pokud ne, urãi situaci, za které mÛÏe b˘t operátor pouÏit.
(tvorba nového podúkolu)
4.VraÈ se na 1.
Díky pouÏití means-end anal˘zy, která je v souãasnosti standardní technikou UI,
získal GPS základní schopnost formulovat plány. Je mu to umoÏnûno právû díky tvorbû podúkolÛ (subgoal), umoÏÀující fietûzené pouÏití operátorÛ, které samy nedokáÏou
dosáhnout cílového stavu. Modifikací podmínek pomocí jin˘ch operátorÛ je dosaÏeno
v˘sledkÛ, jenÏ nejsou ovlivnûny pouze algoritmem programu, ale i vstupními daty. Ty
ovlivní zpÛsob práce a tvorbu posloupností (sekvence) operátorÛ (Hogan, 1998). Program splÀuje podmínku obecnosti (general purpose), jelikoÏ jeho algoritmus je definován v takové rovinû obecnosti a znalostní báze takovou formou, Ïe je schopen fungovat nejen v oblasti logiky ale i pfii fie‰ení problémÛ, hraní her apod.
Systém pracuje s jedním typem heuristiky, tvofiící základní funkãní jednotku, pouÏívanou iterativnû aÏ do vyfie‰ení problému. Oproti souboru axiomu u LT lze vidût
znalostní bázi jako krok kupfiedu, ale jelikoÏ je tato tabulka doplÀována a spravována
tvÛrcem ãi uÏivatelem, má systém jen omezené informace o fie‰ení úlohy (není
dostateãnû propojen se svûtem, ze kterého úloha pochází) a tak dokáÏe fie‰it pouze
úlohy, na které dostaãuje diferenãní tabulka.
Koncem 60-t˘ch let zaãalo b˘t jasné, Ïe GPS není schopen flexibilnû zachytit variabilitu lidského chování. Nejslab‰ím ãlánkem systému jsou zmínûné diferenãní tabulky.
ZpÛsob uloÏení znalosti do tûchto tabulek je zcela mechanick˘ a nemá moÏnost se
modifikovat, ãi pfiizpÛsobit mûnící se ãi jinak definované situaci. Vzniká problém
ve zpÛsobu uloÏení znalostní báze. GPS také na rozdíl od lidského uvaÏování
neprobíhá vÏdy jasn˘m smûrem. âlovûk není otrokem sv˘ch cílÛ, a bûhem fie‰ení
problémÛ mÛÏe pouÏít i nûkolik krokÛ „stranou", ãehoÏ není algoritmus GPS schopen.
Obecnost algoritmu a jeho volnost se v oãích kritiky jeví jako pfiíli‰ jednoduchá a
hraniãící s redukcionismem.
Pokus o vylep‰enou verzi GPS probûhl nahrazením diferenãních tabulek pomocí produkãních pravidel (znalost je uloÏena v logické operaci IF-THEN – zachycení vztahu,
souvislosti). Opût se ale objevuje otázka, zdali jsou produkãní pravidla dostateãná pro
reprezentaci znalostí takov˘m zpÛsobem, aby systém fungoval flexibilnû. PfiestoÏe
byly vytvofieny obfií projekty, zamûfiené na tvorbu a shromaÏdování velkého mnoÏství
produkãních pravidel (napfiíklad Large Production System Project, Instructable Production System ãi v˘‰e zmínûná encyklopedie common sense CYC), zpÛsob uloÏení
ani vylep‰ená verze algoritmÛ se nebyly schopny pfiiblíÏit lidské schopnosti fie‰ení
problému, kter˘ je souãástí obecné inteligence (Hogan, 1998).
Posledním pfiíkladem je SOAR, systém zaloÏen˘ na architektufie produkãních systému.
Jeho tvÛrci jsou Newell, Laird a Rosenbloom. Opût je pouÏit princip zpracování symbolÛ, pfiiãemÏ vyuÏití rÛzn˘ch typÛ symbolÛ mu umoÏÀuje zpracovávat ‰irokou ‰kálu
úloh (krok smûrem k univerzálnosti). Z hlediska pouÏit˘ch algoritmÛ v sobû integruje dva základní principy pouÏívané v oblasti UI. První z nich je heuristick˘ princip
vyuÏívající metodu means-ends anal˘zy, zaloÏené na redukci rozdílu mezi souãasn˘m
a cílov˘m stavem. Druh˘ princip je více specifiãtûj‰í. Jedná se v˘konnou heuristiku
zaloÏenou na principu zpûtné vazby. SOAR je velmi podobn˘ pfiedchozímu systému
GPS (kterému byl pozdûji pfiisouzen statut expertního systému zaloÏeného na
znalostech). Mnoho kritikÛ proto hodnotilo SOAR pouze jako expertní systém.
dodávají, Ïe hovofiit o nûm jako o systému simulujícím obecnou inteligenci, je
zavádûjící (Sternberg, 1999).
3.3.3 Expertní systémy
Na konci pfiedchozí kapitoly je zmínûno, Ïe poslední z fiady programÛ simulujících
obecnou inteligenci SOAR byl spí‰e povaÏován za expertní systém neÏ obecn˘. Je aÏ
kuriózní, Ïe právû pokusy o tvorbu univerzálního systému pro fie‰ení problémÛ ve
svém dÛsledku vedly ke konstituci opaãné oblasti. Expertní systémy (také naz˘vané
produkãní systémy) jsou v souãasné dobû vyuÏívány k naprosto specifick˘m ãinnostem v rozliãn˘ch oblastech lidské ãinnosti. AÈ se jedná o diagnostiku v lékafiství
(MYCIN), hledání loÏisek drah˘ch kovÛ (PROSPECTOR) ãi organickou chemii
(DENDRAL), ve v‰ech oblastech nacházejí expertní systémy úrodnou pÛdu. Pfiedpokladem úspû‰né aplikace jsou moÏnosti jejich znalostní báze a rychlost s jakou k ní
mÛÏe pfiistupovat, tvofiící spoleãnû v˘konné jádro pro práci v pfieddefinované oblasti.
Expertní systémy selhávaly díky tomu, Ïe nedokázaly dobfie identifikovat obecnou
úlohu. Staãilo vytvofiit pevn˘ rámec pole pÛsobnosti jejich ãinnosti, a schopnosti automatického zpracování informací rázem pfiedãí moÏnosti ãlovûka v dan˘ch oblastech.
Existuje rozdíl mezi expertními systémy a koneãn˘mi automaty ãi programy?
Ano, zpracování informace není kontrolováno programem nebo procedurou jako
u klasick˘ch procedurálních programovacích jazycích, ale je provádûno pomocí produkãní pravidel (párÛ IF-THEN), které mohou b˘t pouÏity kdykoliv jsou jejich podmínky uspokojeny. TakÏe zpracování úlohy se mûní bûhem zpracování v dÛsledku
dynamicky se mûnícího obsahu pracovní pamûti, která ovlivÀuje produkci (Harnad,
1990). MÛÏeme nalézt i podobnosti plynoucí z pouÏité architektury. Stejnû jako
u koneãn˘ch automatÛ, mÛÏeme i zde identifikovat deterministické a nedeterministické typy expertních systémÛ. JestliÏe je v jednom okamÏiku moÏno pouÏít více
moÏností aplikace pravidel, naz˘váme systémy nedeterministické. V pfiípadû, Ïe
posloupnost pravidel nenabízí moÏnost alternativy, tedy Ïe máme k dispozici vÏdy
pouze jediné pravidlo v daném stavu, hovofiíme o deterministickém systému. Testujeme-li determinismus v expertním systému, snaÏíme se aplikovat znalostní bázi
na konkrétní v˘chozí a cílov˘ stav. Pokud bude algoritmus deterministick˘, nemÛÏeme
tento závûr aplikovat na celou znalostní bázi, ale pouze na tento konkrétní pfiíklad
(Konar, 1999).
Pfiíkladem hybridního expertního systému, zaloÏeného na pouÏití dvou architektur je
systém 3CAPS. Obsahuje soubor produkãních pravidel (procedurálních znalostí),
umoÏÀující manipulace se symboly, které se nacházejí v pracovní pamûti. Jeho
odli‰nost od klasického produkãního systému spoãívá ve vyuÏití mechanismÛ paralelních poãítaãÛ a dá se shrnout do 3 bodÛ. Zaprvé, kaÏdá reprezentace má svou aktivaãní úroveÀ, která vyjadfiuje dostupnost reprezentace pracovní pamûti. Aktivaãní
úroveÀ musí dosáhnout urãitého prahu (stejnû jako v neuronov˘ch sítích váha propojení), aby bylo produkãní pravidlo opravdu pfiístupné v pracovní pamûti a mohlo b˘t
pouÏito. Za druhé je zpracovávání postupné. Pokud je produkãní pravidlo pouÏíváno
ãastûji s urãit˘m elementem, zvy‰uje se aktivaãní úroveÀ daného elementu ale také
v˘stupu, kter˘ vniká propojením pouÏitého pravidla a elementu. Za tfietí je to vyuÏití
paralelního zpracování, tedy Ïe mÛÏe b˘t pouÏíváno více pravidel v jednom
okamÏiku, pokud jsou splnûny podmínky pro jejich pouÏití. Architektura je ukázkou
propojení komputaãního (symbolického) a konekcionistického pfiístupu. Symbolick˘
systém pracuje v horní vrstvû zpracovávání (abstraktní úroveÀ), zatímco konekcionistické sítû zaji‰Èují funkci v základní rovinû (Sternberg, 1999).
Obr. 11 Komponenty expertního systému
Mezi základní obecné vlastnosti produkãních systémÛ patfií citlivost a stabilita. Systémy
s dobrou citlivostí dokáÏí reagovat odli‰n˘mi inferencemi i kdyÏ jsou rozdíly ve vstupních datech malé (kategorizace). Stabilita pak hovofií o schopnosti provést inferenci
pro libovolná relevantní vstupní data (komplexita). Dobré v˘sledky zaji‰Èuje nerozpornost inferenãního mechanismu spoleãnû s dostateãnou velikostí znalostní báze
(Konar, 1999).
Expertní systémy (produkãní systémy) mohou b˘t pfiirovnány k technikám z oblasti
fie‰ením problému (problem solving), zaloÏené na hledání cíle pomocí stavového
pole. Pojmem stavové pole je my‰lena grafická forma reprezentací stavÛ systému tak,
Ïe jsou moÏné stavy kauzálnû rozmístûny v prostoru, coÏ zvy‰uje pfiehlednost
vyjádfiení. Objevují se i ve formû matematické formalizace , která jiÏ nenabízí v˘hody
pfiehlednosti. Nejpodobnûj‰í produkãním systémÛm je algoritmus hledání pomocí
uspofiádaného prohledávání (best-first search). Rozdíl je pouze ve vybírání následujícího stavu. Produkãní systémy pouÏívají strategii rozli‰ení konfliktu, algoritmus uspofiádaného prohledávání vybírá stavy, kter˘ mají nejmen‰í ãíselné
vyjádfiení hodnotící funkce. Ta se uvádí jako souãet hodnoty optimální cesty
od poãáteãního do daného stavu a hodnoty optimální cesty z daného do cílového
stavu (Konar, 1999, s. 184, zv˘raznil M.V.).
3.3.3.1 Problem Solving (¤e‰ení problémÛ)
V pfiedchozím odstavci jsou nûkteré pojmy vyti‰tûny tuãnû. Jedná se o odbornou terminologii uÏívanou v oblasti fie‰ení problémÛ. DÛleÏité je v‰ak rozli‰it, z pozice
kterého vûdního oboru o fie‰ení problémÛ hovofiíme.
Poãátky dané problematiky bychom na‰li v experimentální psychologii, která se snaÏila v rámci studia my‰lení pokr˘t i oblast fie‰ení problémÛ. Psychologie vymezuje rámec
dle typÛ problémÛ se kter˘m se setkáváme (problémy s mezerou, pfiíli‰ sloÏité problémy) dle zpÛsobu zadání apod. Obecné zpÛsoby fie‰ení jsou následnû pfiisuzovány
mechanismÛm, které jsou uznávané tím kter˘m psychologick˘m smûrem (restrukturace, vhledem). Pfiíkladem mÛÏe b˘t Sternbergovo dûlení faktorÛ, které zpÛsobují
sloÏitost fie‰ené úlohy (Sternberg, 2000):
1. poãet krokÛ (procesÛ)
2. poãet komponent
3. zátûÏ pamûti a pozornosti
4. zátûÏ adaptability ( exekutivy a metakognice).
ÚroveÀ obecnosti pfii studiu fie‰ení problému je v psychologii znaãná. Vût‰inou se
snaÏí vytvofiit univerzální model, pomocí kterého lze fie‰it problém aÈ je zadán libovolnû. Je pravdûpodobné, Ïe pfii takovém zpÛsobu pfiem˘‰lení mÛÏeme lehce sklouznout k redukcionismu (stejnû jako pfii mífie zhu‰tûní v tomto odstavci, která pfiedpokládá základní psychologické znalosti).
¤e‰ení problémÛ je ale také samostatnou pasáÏí v oblasti UI. Oproti psychologii se
ocitáme v jiné pozici. Pokud se psychologie snaÏila vypozorovat z chování a introspekce principy, kter˘m ãlovûk fie‰í problémy, UI se snaÏí aplikovat tyto postupy
v oblasti napodobování. JestliÏe psychologie vytvofiila o zpÛsobu fie‰ení problémÛ
nûkolik teorií, UI se snaÏí vyjít z jednoho principu (prohledávání stavového pole) a
jeho neustál˘m vylep‰ováním a pfiidáváním mechanismÛ (coÏ jsou ona tuãnû vyti‰tûná
slova v pfiedchozí kapitole) z nûj udûlat obecnû pouÏiteln˘ princip.
JiÏ v pasáÏi o expertních systémech se objevuje pochybnost, zdali je zvolen˘ smûr
správn˘. Jeho volba je daleko více spojena s moÏností efektivní aplikace v konkrétních oblastech (spojené s ekonomickou stránkou) a také dokonalé vyuÏití stávající
architekturou. Metoda prohledávání stavového pole se z poãáteãní fáze „brute-force",
tedy mechanického prohledávání v‰ech moÏností stavového pole, stává pfiidáváním
doplÀujících mechanismÛ stále sofistikovanûj‰í, pfiiãemÏ hranice jejich moÏnosti jsou
totoÏné s limitami pouÏité architektury a symbolického systému.
MoÏn˘m zpÛsobem pfii vylep‰ování metod prohledávání stavového prostoru, je
pfiidání takového mechanismu, kter˘ je znám˘ z oblasti biologie, a jehoÏ „rozhodovací
síla" a v˘konnost byla ovûfiena v prÛbûhu miliónÛ let . Hovofiíme o vyuÏití principÛ
genetiky a eugeniky v oblasti UI, hovofiíme o genetick˘ch algoritmech.
3.3.3.2
Genetické algoritmy
Genetick˘ algoritmus (GA) je stochastick˘ algoritmus slouÏící k napodobování procesÛ
biologické evoluce. Vychází ze základních Darwinovsk˘ch principÛ s vyuÏitím pravidla „pfieÏití nejlep‰ího" (cílov˘ stav je ztotoÏniteln˘ s pojmem „nejlep‰í"-fitness). GA jsou
nejãastûji pouÏívány v oblasti inteligentního prohledávání, strojového uãení a problému optimalizace. Informace o stavech systému jsou zachycovány jako binární fietûzce,
které pak tvofií jednotlivé „chromozomy". Operace, které jsou na nich následnû
aplikovány, se dají pfiirovnat k biologick˘m termínÛm kfiíÏení a mutace. Právû kfiíÏení
a mutace mohou zajistit úpravu poãáteãního stavu do podoby, která v sobû obsahuje
nové prvky, tzn. Ïe je restrukturována. Jádrem je pak mechanismus, kter˘ kaÏdou
novou generaci (tedy pozmûnûnou verzí problému) porovnává s cílov˘m optimálním
stavem. Míra shody s cílov˘m stavem je právû míra jeho fitness. Nejãastûji pouÏíváme
náhodnou zmûnu v kaÏdém kroku kontrolovanou s ideálem, aÏ dosáhneme ideálního
cílového stavu. Oproti klasickému náhodnému prohledávání stavového prostoru tedy
nepostupujeme systematicky (Konar, 1999). Pro lep‰í pfiedstavu uvádím diagram, kter˘
zachycuje posloupnost krokÛ GA.
Pokud ale neznáme cílov˘ stav, nelze odvodit míru fitness a základní schopnost algoritmu je naru‰ena. Poté existuje moÏnost pouÏít (stejnû jako v pfiírodû) zpûtné vazby
prostfiedí, které umoÏní organismu rozpoznat, zda nová varieta jeho chování zaji‰Èuje
efektivitu a pfiiblíÏení se k fitness (Konar, 1999). V pfiípadû pouÏití GA pfiímo v reálném prostfiedí (hypoteticky) vznikne problém ovûfiování nové variety v externím svûtû.
Musí dojít k expresi daného chování (v úrovni aktuální populace), coÏ vede k nevratn˘m procesÛm. Pokud bylo nové chování ‰patné (nevedlo pfiiblíÏení se k fitness),
mÛÏe tento krok vést k zániku organismu. JelikoÏ systémy, ve kter˘ch jsou aplikovány
genetické algoritmy, nemají schopnost se rozmnoÏovat, znamená to v praxi po‰kození
ãi zánik systému po prvním pouÏití nevhodného algoritmu. Tím se nám ukazuje v˘hoda interní reprezentace prostfiedí v úlohách, kdy neznáme cílov˘ stav. MoÏnost
provádût jednotlivé postupy stavov˘m prostorem virtuálnû zamezí potfiebû testovat
kaÏdé fie‰ení dané úlohy pfiímo v prostfiedí.
Obr. 12 Diagram funkce genetického algoritmu
V˘hodou genetick˘ch algoritmÛ je, Ïe v sobû obsahují mechanismus zapomínání jako
Hebbovské neuronové sítû (viz Hebbovské uãení), coÏ zajistí systému optimální
vyuÏití pamûti. V prÛbûhu procesÛ dochází k odstraÀování nev˘hodn˘ch variant
z pamûti a systém uchovává jen relevantní a jemu blízká fie‰ení, jejichÏ kombinací se
snaÏí dojít k nejlep‰ímu fie‰ení (Konar, 1999).
3.3.4
SHRDLU
To co charakterizuje období 70-t˘ch let a co nabízí pokrok v oblasti obecné inteligence
je koncepce mikrosvûta (minisvûta). Vychází z akceptace teze, Ïe komplexnost
prostfiedí a pohybu jedince v nûm není v oblasti napodobování nepfiekonatelnou
pfiekáÏkou. Mikrosvût je zde brán jako doména, která mÛÏe b˘t zkoumána izolovanû.
Koncepce implikuje, Ïe pfiestoÏe kaÏdá oblast diskurzu se zdá b˘t otevfiená pro zbytek
lidsk˘ch aktivit, její nekoneãné vûtvení je jen zdánlivé a zaãne brzy konvergovat
k uzavfiené mnoÏinû faktÛ a vztahÛ. Je moÏné provádût mnoho aktivit ve svûtû a je
mnoho zpÛsobÛ odezvy prostfiedí, ale celkov˘ v˘ãet je koneãn˘, tvofií kategorie a je
moÏné jej povaÏovat za uzavfien˘ systém. Lépe fieãeno je moÏné koncipovat „svût",
kter˘ obsahuje nejen simulaci jedince, ale i simulaci okolního prostfiedí a obû ãásti
dohromady tvofií uzavfien˘ systém mikrosvûta.
Mezi klasické zástupce tohoto pfiístupu patfií program SHRDLU. Jeho autor, Terry
Winograd, popisuje svou práci termíny, které lze nalézt ve fyzice. „Zajímáme se o tvorbu formalismu nebo „reprezentaci", kterou se snaÏíme popsat …znalost. Hledáme
„atomy" a „ãástice" ze kter˘ch je postavena a „síly", které na ni pÛsobí" (Winograd,
1976, s.118). Pravdou je, Ïe fyzikální teorie mohou b˘t zaloÏeny na studiu relativnû
jednoduch˘ch a izolovan˘ch systémÛ a poté z tûchto principÛ tvofiit stále komplexnûj‰í
modely a integrovat do nich dal‰í domény ãi fenomény. To je moÏné díky tomu, Ïe je
jich moÏno dosáhnout aplikací zákonÛ a vztahÛ na soubor základních elementÛ, které
Papert a Minsky naz˘vali „strukturální primitiva".
DÛleÏité je zmínit, jak vlastnû program SHRDLU funguje. Jedná se o vytvofiení svûta
blokÛ a geometrick˘ch primitiv, které jsou pouze virtuálnû simulované strojem a
prezentované napfiíklad grafickou formou na monitoru. Tím je koncipován mikrosvût.
V nûm existuje inteligentní systém (souãást programu), schopn˘ primitivy manipulovat a mající „znalost" o jejich poloze. UÏivatel se mÛÏe pomocí komunikace v angliãtinû bavit se systémem o poloze pfiedmûtu, poãtu objektÛ apod. Systém „chápe" svÛj
mikrosvût (je jeho souãástí) a tak s ním dokáÏe inteligentnû interagovat.
Obr. 13 Grafické znázornûní mikrosvûta SHRDLU
JestliÏe se nám podafií vytvofiit inteligentní systém v této rovinû, mÛÏeme pfienést
v˘sledky a poznatky do reálného svûta?
Winogradovy pfiedpoklady, vycházejí z pfiístupÛ zkoumání neÏivé pfiírody. Pomocí
SHRDLU chtûl ukázat, Ïe jeho program bude schopen „roz‰ifiovat" koncept vlastnûní i
pfiesto, Ïe základ programÛ spoãívá v mikro-teorii vlastnûní, která je zaloÏena právû
na koncepci mikrosvûta.
Pokud ale na systém nebudeme nazírat jako na uzavfien˘ systém, kter˘ obsahuje jak
reprezentace svûta, tak jeho prezentace, zaãnou se objevovat nesrovnalosti. Simon ve
své anal˘ze dospívá k závûru, Ïe SHRDLU nerozumí a nechápe pojem vlastnûní,
jelikoÏ nepracuje s v˘znamy. Dále pokraãuje: „SHRDLU systém pracuje s problémy ve
svûtû samostatn˘ch blokÛ s fixní reprezentací. KdyÏ dostane instrukci „vezmi velk˘
ãerven˘ blok", provede pouze asociaci termínu „vezmi" s pfiíslu‰nou procedurou, poté
identifikuje pomocí testÛ, co je asociováno pod „velk˘", „ãerven˘" a „blok", z ãehoÏ
odvodí argumenty pro danou proceduru a provede fie‰ení metodou fie‰ení problémÛ
(Haugeland, 1997,s.151). Winograd se vyh˘bá problematice transdukce a následné
reprezentace tím, Ïe systém mÛÏe kdykoliv pouÏít prezentaci prostfiedí, jeÏ vytváfií,
jako reprezentaci prostfiedí, kterou jako inteligentní systém zpracovává. Odpadají nám
ve‰keré problémy a otázky t˘kající se vnímaní, jelikoÏ jej nepotfiebujeme. V reálném
svûtû ale bez vnímání nedokáÏeme postulovat inteligentní systém.
Winogradovi odpÛrci tvrdí, Ïe mnoÏina propojen˘ch faktÛ mÛÏe tvofiit universum,
doménu, skupinu atp., ale nemÛÏe konstituovat svût. Svût je organizovaná masa objektÛ, dÛvodÛ, schopností a dovedností ve smyslu, kter˘m jim lidské aktivity pfiifiazují v˘znam. Mohli bychom pokraãovat, Ïe i v dûtském svûte jsou mezi ostatními vûcmi bloky,
ale neexistuje zde nûco jako blokov˘ svût. A proto není moÏné souhlasit s Winogra-
dem, Ïe pokud jeho program pracuje s „mal˘m zlomkem svûta", pracuje
s mikrosvûtem. ProtoÏe jím prezentované mikrosvûty nejsou svûty. Není moÏné je
kombinovat ãi roz‰ifiovat na svût na‰eho kaÏdodenního Ïivota. Neschopností
odpovûdût na otázku, co to svût vlastnû je, znamenalo pro UI pût let stagnace (Haugeland, 1997,s. 153). Kritika se snaÏí nalézt slabinu pfiímo v základech modelování, které
kromû zkoumaného jevu, vytvofií i jeho umûlé prostfiedí.
3.3.5
Hry jako model i nástroj
Hry jsou oblastí, kterou prÛkopníci v oblasti UI rádi pouÏívali pfii sv˘ch simulacích.
V˘hodou her je pfiesnû specifikovan˘ stavov˘ prostor, základní pravidla, jejichÏ platnost je univerzální a omezen˘ poãet diskrétních stavÛ systému. Nehovofiíme zde obecnû o v‰ech hrách (jako napfiíklad fotbal, kter˘ nemá omezen˘ a definovan˘ poãet
stavÛ) ale o hrách, zaloÏen˘ch na pravidlech logiky a kombinatoriky. Vût‰ina tûchto
her se naz˘vá tvrdé systémy, coÏ vypl˘vá právû z pfiesného vymezení prostfiedí i
pravidel. Nejãastûj‰í formou takov˘ch her jsou ‰achy, dáma, go apod. Tyto hry také
patfií do kategorie her se sumou nula. CoÏ znamená, Ïe proti sobû stojí dvû strany
(hráãi) a kaÏd˘ tah jedno hráãe (diskrétní krok) znamená zmûnu v pomûru sil. Hráã
se sv˘mi tahy snaÏí získat profit odpovídající (rovnající se) ztrátû protihráãe. Souãet
zisku a ztrát je v kaÏdém tahu roven nule (equilibriu). V libovolné fázi hry je systém
tvofien˘ protihráãi v rovnováÏném stavu. CoÏ ale není hlavní v˘hodou, proã si tyto hry
oblíbili prÛkopnící Umûlé inteligence. Devízou je hlavnû v˘‰e zmínûn˘ tvrd˘ systém.
NemÛÏe se objevit stav, kter˘ by nebyl odvoditeln˘ ze základního nastavení a sady
pravidel. Prostor je také pfiesnû vymezen a diskrétní (plocha je dûlena na pole).
Poslední devizou je diskrétní rozdûlení ãasu na kroky, ve kter˘ch probíhají zmûny.
Takto definovan˘ systém se jeví jako naprosto ideální pro simulaci klasickou v˘poãetní architekturou. Snad právû proto je oblast ‰achov˘ch a jím podobn˘ch programÛ
první oblastí simulace, kde poãítaã „pfiedehnal" ãlovûka ve schopnostech „b˘t
inteligentní". DÛvody jsou právû v˘‰e zmínûné vlastnosti „tvrd˘ch" her.
Simulace her v‰ak nabízí i jinou moÏnost uplatnûní na poli Umûlé inteligence.
Alternativním postupem je pouÏití pfievráceného principu souãasn˘ch poãítaãov˘ch
her. Nejprve v‰ak musíme zmínit neinvertovan˘ princip. Poãítaã má za úkol vytvofiit
trojrozmûrn˘ svût, ve kterém se hráã pohybuje. Tento svût nemusí b˘t reáln˘, ale vût‰inou obsahuje fyzikální zákony reálného svûta i jeho design je kopií základních geometrick˘ch objektÛ. V urãitém typu hry (RPG), je úlohou hráãe zorientovat se v daném
prostfiedí a nacházet smysl, kter˘m toto prostfiedí funguje, nalézt své postavení v nûm,
a moÏné akce, vedoucí k lep‰ímu pochopení prostfiedí, popfiípadû k restrukturaci.
PoÏadavkem na uÏivatele je adaptace na prostfiedí. V˘hodou hráãe je, Ïe se jedná
o inteligentní bytost, která pouze aplikuje a modifikuje své zku‰enosti z reálného svûta
do svûta modelu. Zkusme se ale na hru podívat trochu jinak. MÛÏeme posunout poãítaã do role hráãe.Trojrozmûrné prostfiedí, které poãítaã konstruuje pro hráãe se dá
pouÏít jako interní reprezentace okolního hypotetického svûta pro poãítaã. Získáváme
tak reprezentaci v obrazové (ikonické) podobû, a pfiitom její zpracování, uchování a
manipulace je ve v˘poãetních schopnostech stroje, na kterém simulace bûÏí. V této
rovinû se je‰tû stále ocitáme ve komplexnûj‰í variantû Winogradova SHRDLU.
MÛÏeme se ale posunout o krok dále, a snaÏit se vytvofiit interní reprezentace reálného nehypotetického prostfiedí. Z povahy informací (obrazov˘ kód) budeme mít
o nûco jednodu‰‰í pozici neÏ u klasického symbolického pfiístupu. Za souãinnosti
kamer a senzorÛ je moÏné získat materiál dostateãn˘ na to, aby poãítaã dokázal
vytvofiit trojrozmûrn˘ model prostfiedí ve kterém se pohybuje (urãitû s jistou mírou
degradace komplexity) a v reálném ãase umístit sebe do reprezentace prostfiedí. Nyní
máme k dispozici dvû reprezentace prostfiedí a také situovan˘ systém. Vylep‰ení je
ve schopnosti systémÛ paralelnû vytváfiet hypotetické mentální reprezentace (vnitfiní
systém) ve formû, kterou dokáÏe plnû „pochopit" a zpracování informace z prostfiedí
ze senzorÛ a kamer) slouÏící k upfiesnûní metrik a poloh pfiedmûtÛ v reálném
prostfiedí, pro potfieby práce vnitfiního systému. Laicky fieãeno, tento systém vychází
vstfiíc informacím z venku tím, Ïe je nejen zpracovává, ale je‰tû si z vlastních „pfiedstav" vytvofií pfiibliÏn˘ model toho co je a bude vnímáno.
âímÏ se dostáváme za hranice smûru Umûlé inteligence, kter˘ s se naz˘vá Artificial
Life (A-Life). Zab˘vá se simulací agenta i prostfiedí na jedné platformû. Nejãastûji b˘vá
vyuÏíván k simulaci dynamick˘ch jevÛ (kooperace agentÛ ve virtuálním svûtû, evoluce
organismu apod.). BohuÏel si zachovává stejnou nev˘hodu jako i zmínûn˘ WinogradÛv SHRDLU. Kromû zmínûného redukcionistického modelu svûta, je to nulová reference vytvofieného prostfiedí k reálnému svûtu. Nûkterá omezení t˘kající se umûlého
Ïivota (A-Life) byla zmínûna v kritice Winogradova programu SHRDLU.
VraÈme se tedy k pÛvodní my‰lence. Díky adekvátnímu modelu prostfiedí a poloze systému v nûm splníme poÏadavky, uplatÀované pfii konstrukci autonomních agentÛ,
situovanost a orientovanost. Otázkou zÛstává, jestli agent bude vyuÏívat pfii svém
pobytu v prostfiedí, poznatkÛ ze sv˘ch kamer a senzorÛ, nebo bude brát jako „reálné"
prostfiedí právû svÛj interní model tohoto prostfiedí. U ãlovûka je daná otázka námûtem
pro dlouholeté filosofické spory. Poãátky se dají vidût v platónské ideji jeskynû (otázka „Vnímáme svût nebo jeho obraz?"). AÈ je odpovûì na tuto otázku jakákoliv, pfiístupem tvorby modelu okolí agenta v obrazové (ikonické) formû, získáváme mentální
reprezentaci(e) okolí, které v sobû obsahují metrické a topologické uspofiádání prostoru, kterého není jazyková (symbolická) reprezentace schopná. To nás posouvá
trochu dále v oblasti napodobování inteligence (pfiesnûji v jednom ze zpÛsobÛ, jak se
dá simulovat vnímání).
Dal‰í kroky budou obtíÏnûj‰í. Pokud se vrátíme k na‰í metafofie poãítaãe jako
hráãe, hrajícího hru zvanou svût, dostáváme se situace , ve které je na tom
lépe lidsk˘ hráã. Jde o orientace a prozkoumávání prostfiedí, identifikace pfiedmûtÛ, , tvorba a zpÛsoby adaptace. Orientaci jsme vyfie‰ili modelováním
prostfiedí korespondující s reáln˘m prostfiedím pomocí souãinnosti dvou
nezávisl˘ch reprezentaãních systémÛ. Prozkoumávání prostfiedí souvisí z ãásti
s motivy, které poãítaã má (nûkteré základní musí b˘t zakódovány natvrdo,
stejnû jako u ãlovûka rozmnoÏování, pfiíjem potravy, orientaãnû pátrací reflex
a jiné). Pfiedpokládáme, Ïe budou následnû emergovat v cíle, jeÏ jsou kombinacemi základních cílÛ a které jsou také determinovány zpûtnou vazbou
z prostfiedí, v na‰em pfiípadû zmûnami ve vnitfiním 3D modelu prostfiedí.
V takto fungujícím systému se znaãnû zjednodu‰uje identifikace pfiedmûtÛ
(proces rozpoznávání a kategorizace). Pokud poãítaã svou reprezentaci
neustále
generuje
v reálném ãase, generuje v‰echny pfiedmûty v jeho okolí a ty jsou pfiesnû identifikovatelné. CoÏ platí pro prostory a pfiedmûty, které mají optimální velikost
pro jeho senzorick˘ systém (zde naráÏíme na omezení rozli‰ovacích schopností vstupu z kamer a senzorÛ). JestliÏe se objeví objekty, které svou komplexností pfievy‰ují jeho rozli‰ovací schopnosti, nastává problém z jejich
pfievodem na úroveÀ modelu.
Dal‰í oblastí, která nám nabízí zlep‰ení oproti symbolickému pfiístupu, je
problematika ukotvení v˘znamu. Pokud budeme vycházet z Harnadov˘ch
prací, splÀuje zmínûn˘ zpÛsob reprezentace podmínku pro ukotvení v˘znamu
(interní reprezentace musí obsahovat ikonickou formu). PoÏadavek na
ukotvení
v˘znamÛ
je
ale
splnûn
pouze
v pfiípadû, Ïe budeme postulovat (v pfiípadû komputaãní architektury) speciální poãítaãov˘ modul (program) vûdomí, o kterém si povíme níÏe, a kter˘ by
dokázal pfiijímat v˘sledky modelování vnûj‰ího prostfiedí ve formû kom-
plexního obrazu. Tím, Ïe pouÏíváme k simulaci klasick˘ poãítaã se v‰emi
nev˘hodami jeho architektury, mÛÏeme dojít k tvrzení, Ïe model prostfiedí
není uloÏen v ikonické formû, ale pouze ve formû ãísel (symbolÛ), které urãují polohu a velikost jednotliv˘ch objektÛ v prostoru. ZpÛsob uloÏení v pamûti
je následnû symbolick˘ a ikonická podoba vzniká aÏ samotn˘m pfievodem dat
do podoby modelu. Druh˘m poÏadavkem Harnada na ukotvení je, kromû
ikonické,
také
kategoriální
reprezentace.
ZpÛsobÛ,
které
vedou
k pfiifiazování do kategorií je nûkolik. V na‰em pfiípadû se pro splnûní Harnadovy podmínky nejvíce hodí pfiístup, kter˘ je zaloÏen na tvorbû prototypu.
KaÏd˘ objekt modelu by musel obsahovat je‰tû svou referenci v podobû prototypu, definující limitami sv˘ch vlastností a rozmûrÛ skupinu, do které dan˘
objekt modelu patfií. Pfii dostateãn˘ch v˘poãetních moÏnostech stroje je podmínka splnitelná.
Poslední problematickou oblastí pfii metafofie poãítaãového hráãe je otázka vûdomí. Pfii
jejím objasÀování se dostáváme do oblasti, ve kterém jsou lidské vysvûtlovací principy
velmi obtíÏnû aplikovatelné. Pfii popisování zpÛsobu simulace zaloÏené na konstruování vnitfiní trojrozmûrné reprezentace je v pozadí obsaÏen pfiedpoklad homunkula.
Homunkulus
V oblasti filosofie mysli patfií k jednomu ze stûÏejních témat Ryleho „Ghost in
machine". JestliÏe se snaÏíme vytvofiit umûl˘ inteligentní systém, setkáváme se
otázkami t˘kající se jeho aktivní, kontrolní komponenty. MoÏností je postulovat „Ïivého" agenta v hlavû (homunkula), kter˘ ovládá kognitivní aparát a
supluje tak vûdomí. Z ãehoÏ vypl˘vá, Ïe inteligentní zámûrné a motivované
chování potfiebuje systém, kter˘ je Ïiv˘ a má pfiístup ke v‰em funkcím a ãástem
systému a mÛÏe je reorganizovat s urãit˘m stupnûm volnosti (Luger, 1994).
Problematika homunkula se objevuje i ve spojitosti s ukotvením symbolÛ. Dá
se fiíci, Ïe systém pouÏívající pro svou ãinnost neukotvené symboly, vÏdy bude
potfiebovat homunkula pro své vysvûtlení.
Tedy, Ïe po konstrukci modelu prostfiedí a v‰ech aspektÛ pobytu v nûm, pfiedpokládáme nûco, co se na celou vûc dívá a rozumí jí, aktivní komponentu, které je pfiístupn˘ dostatek informací o interních procesech i reprezentaci. V na‰em pfiípadû lze
tento poÏadavek obejít pouze postulací programu vûdomí, samostatnû spu‰tûného
uvnitfi poãítaãe (ãi na jiném stroji, kter˘ je propojen se strojem simulujícím prostfiedí).
Jeho oblasti pÛsobení jsou pfiíli‰ komplexní na v˘ãet a pfiíli‰ spekulativní na pfiesnou
deskripci, takÏe zÛstává pouze v úrovni my‰leného. Jeho základní vlastnosti lze
shrnout jako schopnost, mít pfiístup k libovoln˘m procesÛm a obsahÛm, které vedou
právû ke konstrukci tohoto platónsky virtuálního svûta uvnitfi stroje.
4
KONEKCIONISMUS
4.1
Neuronové sítû
V 80-t˘ch letech se zaãíná objevovat nová technika modelování, ãi pfiesnûji nová
architektura. Pro svou fundamentální odli‰nost od pfiedchozích zpÛsobÛ se tento pfiístup stává paradigmatem v oblasti kognitivních vûd. Pfiístup se naz˘vá konekcionismus
a jeho aplikovanou oblastí jsou neuronové sítû, architektura principielnû odli‰ná od
pfiedchozích pfiístupÛ. Základ tvofií samostatné velmi jednoduché jednotky, jejichÏ
propojení konstituuje sítû. Nejvût‰í rozdíl oproti klasické von neumannovské architektury spoãívá v paralelním zpÛsobu práce. Mnoho vûdcÛ z oblasti UI a kognitivních vûd
dan˘ pfiístup pfiivítalo, protoÏe umoÏÀuje alternativnû fie‰it problémy, jeÏ se u pfiedchozího pfiístupu setkávaly s obtíÏemi. V˘chozí my‰lenkou je postulace základní jednotky, funkãnû podobné lidskému neuronu.
Dvacet let pfiedtím (v roce 1958) publikoval Rosenblatt práci o perceptronu. JiÏ u nûj
bylo pouÏito architektury zaloÏené na modelu neuronu a váhov˘ch propojení (Rosenblatt, 1958). Základní my‰lenka perceptronu ale nebyla uvedena do praxe. ZpÛsobily
to pfiipomínky Minského a Paperta , ktefií matematicky dokázali (Minsky, 1969), Ïe
základní forma perceptronu není schopná simulovat nûkteré logické operátory (pfiesnûji XOR, coÏ souvisí s problematikou lineární separovatelnosti).
Obr. 14 Funkce AND, OR, XOR a moÏnosti jejich lineární separovatelnosti
Publikování práce znamenalo pokles zájmu o konekcionismus, jako o perspektivní obor.
Na konci 80-t˘ch let ale pfiichází období stagnace klasického symbolickém pfiístupu v oblasti modelování, hledají se alternativní metody a konekcionismus proÏívá svou renesanci (Pfeifer&Scheier,
2001). DÛleÏit˘m je i fakt, Ïe Minsk˘ opravil svá tvrzení o omezenosti neuronov˘ch sítí jako architektury vhodné pro simulaci (funkce XOR je fie‰itelná neuronovou sítí za pouÏití více vrstev).
Obr. 15 MoÏnost linearní separovatelnosti pomocí a) jednoho neuronu b) dvouvrstvé
sítû c) vícevrstvé sítû
Bylo by zbyteãné uvádût zde popis funkce neuronu (jak Ïivého, tak umûlého), jelikoÏ
b˘vá v kaÏdé základní uãebnice psychologie. Ménû ãastá ale jiÏ b˘vá základní charakteristika neuronov˘ch sítí (Caudill&Buttler, 2000).
1. Jsou tvofieny poãtem jednoduch˘ch procesních jednotek, komunikujících pfies
mnoÏinu propojení, které mají rÛznou váhu a sílu.
2. PamûÈ je reprezentována jako vzorec hodnot vah, mající propojení mezí jed
notliv˘mi prvky. Informace je zpracovávána jako ‰ífiení se mûnících se vzorcÛ
aktivity mezi prvky.
3. Sítû jsou spí‰e uãeny a trénovány neÏ programovány.
4. Místo oddûlené pamûti, procesoru a externímu programu, kter˘ fiídí operace
systému jako u digitálního poãítaãe, operace neuronov˘ch sítí jsou implicitnû
kontrolovány tfiemi vlastnostmi: kombinaãní funkcí neuronu, zpÛsobem propojení
a uãícím pravidlem
5. Neuronové sítû jsou pfiirozené asociaãní pamûti
6. Neuronové sítû jsou schopny generalizace; mohou se nauãit charakteristiky
becné kategorie
7. Jsou odolné proti chybám. Díky paralelní distribuované formû uloÏení pamûtí
„degradují s grácií"
8. Neuronové sítû mají schopnost sebeorganizace. DokáÏí reagovat na vstupy
z prostfiedí zmûnou své funkãní dynamiky
9. Neuronové sítû jsou schopné emergence nov˘ch vlastností ãi chování.
To co v˘zkumníky nejvíce lákalo na neuronov˘ch sítích byly jejich dvû základní vlastnosti. Za prvé, Ïe jsou sítû schopné se uãit a za druhé, Ïe mají schopnost emergence.
Emergence v tom smyslu, Ïe systém vykazuje v˘stupy, které nebyly pfiedpro-
gramovány. Chování je v˘sledkem interakce jednotliv˘ch komponent systému
(Pfeifer&Scheier, 2001).Hlavním dÛvodem pro vznik emergentního chování je redundance v propojení. Klasická sériová architektura obsahuje pouze propojení, která jsou
nutná mezi jednotliv˘mi jednotkami. I proces zpracování informace v takovém systému je pevnû zakotven designérem systému . Naopak neuronové sítû jsou typ architektury, která je hned v poãátcích pfiipravená na více zpÛsobÛ implementace úlohy.
Pokud je jeden neuron propojen se v‰emi neurony vedlej‰í vrstvy a pro uãení jsou
pouÏívány jen nûkterá propojení pro funkci systému, v klasické von neumannovské
architektufie by to vedlo k odstranûní tûch spojení, která nejsou pouÏívaná. Vznikl by
systém, kter˘ není pouÏiteln˘ obecnû, ale pouze specificky (ne z hlediska zpracování
úlohy, ale architektury) . Rozdíl ve zpÛsobu propojení komponent je, Ïe pokud se
objeví nov˘ stimul, kter˘ má neuronová síÈ zpracovat, mohou b˘t pouÏívány spojení,
které byly v pfiedchozím pfiípadû nevyuÏita. CoÏ nás vede k závûru, Ïe redundance je
nutnou podmínkou emergence (více v samostatné pasáÏi o emergenci).
4.1.1
ZpÛsoby uãení
Jak bylo zmínûno v˘‰e, jsou neuronové sítû velmi dobfie pouÏitelnou architekturou pro
modelování ãi simulaci rÛzn˘ch typÛ uãení. Automatické neuronové sítû (ANN) podporují oba typy uãení (kontrolované i nekontrolované). Kontrolované (supervised)
typy uãení se pouÏívají pfii aplikaci v oblastech kontroly, automatizace, robotiky a
poãítaãového vidûní. Nekontrolované (unsupervised) uãení se pouÏívá pfii plánování,
osvojování si zku‰eností (akvizice) a pfii pfievodu analogového do digitálního kódu. Je
samozfiejmé, Ïe tyto oblasti jsou zamûnitelné, protoÏe se nejedná o komplementární
kategorie, ale o zdokonalování principu kontrolovaného uãení pouÏitím poznatkÛ a
strategií z oblasti nekontrolovaného. Klíãov˘ rozdíl je právû v pfiítomnosti interpretátora dat (ãlovûka) u prvního typu a jeho absenci u druhé formy (Konar, 1999). V ãeské
terminologii se pro supervised a unsupervised learning také objevuje varianta uãení
uãitelem a bez uãitele.
Pfii kontrolovaném (supervised) uãení musíme znát správn˘ v˘stup, abychom jej
pouÏili jako korekci. Cílem je najít odpovídající mapování pro skrytou vrstvu. Rozhodujícím ãinitelem je rozdíl mezi skuteãn˘m a poÏadovan˘m v˘stupem. Hodnoty
rozdílu slouÏí k upravení vah ve skryté vrstvû. Nejãastûji se pouÏívá metody backpropagation (Pfeifer&Scheier, 2001).
Dobr˘ pfiíkladem pro kontrolované uãení je projekt NETTalk. Jedná se o neuronovou
síÈ spojenou s fieãov˘m syntetizérem, která je schopná pfievádût psan˘ anglick˘ text do
mluvené podoby. Práce sítû konãí pfiifiazením fonému, jehoÏ expresi jiÏ provádí
samostatn˘ hlasov˘ syntetizér. SíÈ se skládá ze tfií vrstev. Vstupní vrstva je navrÏena
velmi robustnû. V sedmi slotech na písmena je zpracováváno najednou sedm následn˘ch znakÛ textu, kter˘ má b˘t pfieveden do fieãové podoby. V˘hodou tvorby tohoto
textového „okénka" je moÏnost paralelního zpracování bloku textu, jehoÏ prezentace
a zpracování v jeden okamÏik umoÏní zachycení vazeb mezi jednotliv˘mi variantami
v˘skytu znakÛ. Ty jsou dÛleÏit˘m vodítkem pro diskriminaci a následné pfiifiazení
správn˘ch fonému v závislosti na sedmiznakovém „minikontextu". KaÏd˘ slot (pro
jeden znak) má 29 neuronÛ, reprezentujících celou abecedu plus mezeru a znaménka. Vstupní vrstva obsahuje 29x7 neuronÛ. Ve skryté vrstvû pak dochází díky robustnosti vstupní vrstvy ke kvalitnímu rozli‰ení dané posloupnosti znakÛ a poté ke kategorizaci vedoucí k pfiifiazení fonémÛ ve v˘stupní vrstvû. Uãení je zde provádûno
backpropagation algoritmem.
Obr. 16 Struktura a funkce sítû NETTalk pfii zpracování anglického textu
Zde jsou nûkteré postfiehy autorÛ zachycující prÛbûh aktivace. Pfii uãení síÈ postupovala podobnû jako probíhá fieãov˘ v˘voj u dítûte. Nejprve se nauãila rozli‰ovat
samohlásky od souhlásek a její fieã pfiipomínala dûtské Ïvatlání. Pfies fázi neumûlé a
nepfiesné v˘slovnosti mal˘ch dûtí se vypracovala aÏ na 95 procentní úspû‰nost
(Pfeifer&Scheier, 2001). V˘hodou sítû je, Ïe v sobû obsahuje moÏnost tvorby kontextu v rámci jednoho slova (díky sedmi slotÛm na písmena) a také paralelní zpracování,
protoÏe kaÏd˘ ze slotÛ má k dispozici svou sadu znakÛ. Nev˘hodou zÛstává kontrolované uãení. SíÈ není autonomní a kontext nesouvisí se sémantick˘m v˘znamem
zpracovávan˘ch slov, ale slouÏí pouze pro správnou v˘slovnost.
Dal‰ím typem kontrolovaného uãení je uãení posilováním. Vychází z klasické psychologické teorie o trestu a odmûnû.V praxi to znamená, Ïe systému, kter˘ se uãí, je
dána pouze zpûtná vazba o tom, zda provedl úlohu správnû (ano/ne). Díky tomu, Ïe
se jedná vÏdy pouze o uÏití jednoho typu (odmûna nebo trest), je pfiítomen pouze
jeden druh signálu. Tím, Ïe je v˘sledek oznaãen napfiíklad jako negativní (trest),
provede systém buì korekci svého algoritmu ãi vah sítû. ZáleÏí na nûm, jak˘m zpÛsobem (v této fázi uãitel nezasahuje). Uãení posilováním leÏí spí‰e na pomezí mezi
kontrolovan˘m a nekontrolovan˘m uãením. PouÏívá se jak v oblasti neuronov˘ch sítí,
tak v oblasti strojového uãení (Pfeifer&Scheier, 2001).
V pfiírodû se nesetkáváme jen s pfiístupem, kdy je na‰e efektivnost ãi adaptabilita
urãována pouze okolím (spoleãností), ale i hodnocením a zmûnou nastavení,
u kterého je kritériem na‰e vlastní historie. Pokud se funkce sítû upravuje (adaptuje)
na základû vnitfiních hodnocení svého chování a nejen pouze externím kritériem, hovofiíme o samoorganizaci (Mafiík, 1993). Neuronové sítû s takov˘mi moÏnostmi jsou
schopné nekontrolovaného uãení (uãení bez uãitele).
Obr. 17 Typy uãení neuronov˘ch sítí
4.1.2
PamûÈ neuronov˘ch sítí
Rozhodnout, zda neuron obsahuje nûjakou pamûÈ, záleÏí na zpÛsobu nazírání. Pokud
je hodnota potenciálu uvnitfi neuronu brána jako pamûÈová informace, neuron pamûÈ
obsahuje. Také je moÏno vidût v této hodnotû stav systému. Nejde uÏ o reprezentaci
(pamûÈ), ale spí‰e prezentaci a neuron Ïádnou pamûÈ neobsahuje. Bereme-li, Ïe je
neuron pouÏíván jako médium (napfiíklad uzel sémantické sítû), do kterého ukládáme
obraz prostfiedí, je mu pfiifiazen status pamûti (coÏ pfiedpokládá velmi nestandardní typ
neuronu). Nejãastûji hovofiíme o celé síti neuronÛ, ve které je pamûÈ obsaÏena v distribuované formû.
Bûhem posledního desetiletí vzrostl zájem o konekcionistické modely pamûti. Vychází
to jiÏ z moÏností základních prvkÛ. Propojíme-li totiÏ dva neurony obousmûrnû
(O=O), mÛÏou implementovat urãit˘ typ pamûti (Pfeifer&Scheier, 2001). V celkovém
kontextu neuronov˘ch sítích je jednotka pamûti reprezentována jako vzorec vzruchÛ
mezi velk˘m mnoÏstvím neurodÛ (neuronÛ). MnoÏina tûchto hodnot aktivity (vah) je
zobrazitelná jako vektor v multidimenzionálním prostoru, pfiiãemÏ poãet dimenzí
odpovídá poãtu hodnot. Interakce mezi jednotkami zpÛsobují ukládání pamûti.
Konekcionistické modely pamûti se dají rozãlenit do tfií základních skupin. První je
tvofiena vícevrstv˘mi dopfiedn˘mi sítûmi pro rekognici a kategorizaci. Druhou tvofií
autoasociativní sítû pro rekognici a rozpoznáváni vzorÛ a tfietí rekurentní heteroasociativní sítû pamûÈov˘ch sekvencí (Sternberg, 1999). To nás posouvá ke kapitole, která
uvádí obecné tfiídûní neuronov˘ch sítí s pfiihlédnutím k jejich pamûÈov˘m moÏnostem.
Tab. 2 Rozdíly neuronov˘ch sítí a biologick˘ch mozkÛ pfii simulaci
4.2
Typy neuronov˘ch sítí
Neuronové sítû b˘vají nejãastûji rozdûleny podle zpÛsobu svého propojení. JestliÏe
propojovací matice (viz níÏe) obsahuje hodnoty 0 v diagonále a nad ní, jedna se
o dopfiedné (feedforward) sítû, protoÏe obsahuje pouze dopfiedné propojení, tedy
propojení v jednom smûru neobsahující zpûtnovazebné smyãky. Sítû obsahující nûkolik vrstev propojen˘ch pouze dopfiednû se naz˘vají vícevrstvé dopfiedné sítû. Je-li
kaÏd˘ neuron v jedné vrstvû sítû propojen s kaÏd˘m neuronem následující vrstvy sítû
pouze jednosmûrnû, naz˘váme tuto síÈ plnû propojenou. Sítû, kde jsou v‰echny neurony propojeny s ostatními obousmûrnû se naz˘vají Hopfieldovy sítû (Pfeifer&Scheier,
2001).
Obr. 18 Nûkteré základní typy neuronov˘ch sítí
4.2.1
Hopfieldovy sítû
Hopfieldova neuronová síÈ, navrÏená zaãátkem osmdesát˘ch let, je typick˘m pfiíkladem autoasociativní sítû. Bûhem v˘voje J. Hopfield rozpracoval koncept energetické
funkce, která má zásadní v˘znam pro správnou funkci sítû a z ní jsou odvozena
pravidla pro uãení a vybavování. V souãasné dobû existuje nûkolik modifikací sítû.
MÛÏe b˘t pouÏita jako asociativní pamûÈ, klasifikátor (kategorizace) nebo k fie‰ení
optimalizaãních problémÛ.
Energetická funkce nám umoÏÀuje lépe pochopit chování Hopfieldovy sítû a speciálnû pak princip uãení a vybavování. Pro názornost si ji mÛÏeme pfiedstavit jako trojrozmûrnou scénu, kde funkce pfiedstavuje krajinu s údolími a kopci. Údolí pak pfiedstavují jiÏ nauãené vzory. Hopfieldovû síti pfii uãení pfiedkládáme pouze trénovací
vzor. Pfii vybavování neznámého vzoru, kter˘ chceme pomocí Hopfieldovy sítû iden-
tifikovat, jej budeme reprezentovat kuliãkou, pohybující se po pomyslné krajinû a
snaÏící se dostat na co nejníÏe poloÏené místo. MÛÏe se v‰ak dostat i do lokálního
minima, které také pfiedstavuje fie‰ení, av‰ak nikoliv fie‰ení optimální (kuliãka zÛstane
v údolí, které neodpovídá její velikosti). Z tohoto dÛvodu bude energetická funkce
(rozli‰ovací schopnost pro hledání minima) sítû ponûkud sloÏitûj‰í. Potfiebujeme totiÏ,
aby obsahovala v‰e, co popisuje její chování. Budeme chtít, aby její hodnota byla velká
pro velké chyby (kopce) a malá pro malé chyby (údolí). Problematika se také naz˘vá
annealing a b˘vá fie‰ena Boltzmannov˘m strojem.
Obr. 19 Energetická funkce
Asociativnost hopfieldovské pamûti je dána tím, Ïe vybavovan˘ vzor zadáváme jistou
jeho ãástí, do znaãné míry libovolnou. Vzor je vybavován podle ãásti svého „obsahu",
tj. prostorového umístûní, nikoliv odkazem na nûjakou jeho „adresu" (jako u pamûti
RAM). Jedná se o content adressable memory (CAM), coÏ je u neuronov˘ch sítí pouÏívan˘ch jako pamûÈov˘ systém bûÏné.
Pro rozsáhlej‰í (Hopfieldovy) sítû je v˘hodnûj‰í reprezentovat je pomocí matice. Jedná
se pouze o zpÛsob vyjádfiení v˘hodn˘ pro ãlovûka, jelikoÏ je pfiehlednûj‰í pro ãtení.
Fyzicky mohou b˘t neurony umístûny libovolnû v prostoru, pouze jejich propojení si
zachovávají pfii pfievodu do ortogonální soustavy horizontální a vertikální sefiazení.
Tento zpÛsob vyjádfiení se naz˘vá propojovací matice (Pfeifer&Scheier, 2001).
Obr. 20 Schéma Hopfieldovy sítû
Je-li Hopfieldova síÈ pouÏita jako asociativní pamûÈ, má dvû hlavní omezení. Prvním
je, Ïe poãet vzorÛ, které mÛÏeme síÈ nauãit, je pomûrnû nízk˘. JestliÏe nauãíme síÈ
pfiíli‰ mnoho vzorÛ, mÛÏe síÈ konvergovat k nûjakému zvlá‰tnímu obrazci, na kter˘
nebyla nauãena. SíÈ je potom pfieuãená.
Nev˘hodou Hopfieldovy sítû jsou také veliké nároky na pamûÈ. To mÛÏe zpÛsobit
chybu pfii identifikaci pfiedloÏeného vzoru. Dal‰í dÛleÏitou vlastností Hopfieldovy sítû,
obtíÏnû pojmenovatelné jako v˘hoda ãi nev˘hoda, je automatické rozpoznávání
inverzních vzorÛ k jiÏ nauãen˘m vzorÛm. Hopfieldovu síÈ tedy nemusíme inverzní
vzory uãit.
4.2.2
Kohonenovy sítû
JestliÏe tvofií Hopfieldovy sítû zpÛsob pamûÈového systému blízk˘ lidskému, roz‰ifiuje
KohonenÛv model schopnosti neuronov˘ch sítí je‰tû blíÏe smûrem k lidské inteligenci. Jím navrÏená síÈ obsahuje schopnosti, které bychom v psychologii nazvali: exaktnûj‰í kategorizace, zapomínání, selektivita a díky mapovací vrstvû, informace o funkci
systému s moÏnosti jejich vyuÏití pfii kontrole ãi zpûtné vazbû.
âasto potfiebujeme pro správnou kategorizaci získat nûkolik jeho vlastností. Zji‰tûné
vlastnosti pro urãit˘ vzor nám vytváfiejí tzv. vektor vlastností. Dimenze neboli délka
vektoru je urãena poãtem mûfien˘ch vlastností N a odpovídá dimenzi prostoru, ve
kterém provádíme kategorizaci. To znamená vyuÏití v‰ech pfiedností neuronov˘ch sítí.
Pokud síÈ obsahuje mnoho vstupních neuronÛ, pfiiãemÏ kaÏd˘ je citliv˘ na urãitou
vlastnost (která ale musí b˘t pfievedena do ãíselné formy nejprve ãlovûkem), vzniká
v rozhodovací vrstvû mnoharozmûrn˘ vektor vah, jehoÏ hodnota slouÏí jako kriterium
kategorizace. Siln˘m nástrojem kategorizace jsou Kohonenovy sítû.
Základem Kohonenov˘ch sítí je plné propojení vstupní vrstvy s mapovací vrstvou.
Tato vrstva má laterální propojení se v‰emi neurony své vrstvy. Pro nebliωí neurony
jsou propojení posilující ), pro vzdálené inhibiãní pfii zachování topologie. V praxi to
znamená, Ïe jsou blízké body ve vstupním prostoru mapovány na blízké body ve v˘stupním prostoru.
JiÏ zmínûnou vlastností Kohonenov˘ch sítí je schopnost Heb-
bovského uãení. Díky tomu se sítû dají povaÏovat jako neurobiologicky plausibilní
(Pfeifer&Scheier, 2001).
Obr. 21 ZpÛsob propojení mapovací vrstvy u Kohonenov˘ch sítích
4.2.2.1
Hebbovské uãení
Základní pravidlo kanadského neurobiologa Donalda Hebba fiíká, Ïe pokud se
nachází neuron A v dostateãné blízkosti, aby excitoval neuron B a opakovanû pálí, tak
v obou neuronech nastanou metabolické procesy, které zv˘‰í pálení. A podporuje
pálení B, je-li dostateãnû blízko.
MoÏnosti biologick˘ch sítí se dají pfievést i do jejich umûl˘ch variant. Základní princip
Hebbovského uãení vychází ze zvy‰ování hodnot vah neuronÛ, které jsou spolu
propojeny a bûhem uãení jsou aktivovány spoleãnû. V neuronov˘ch sítích v‰ak jeho
pouÏití mÛÏe vést k rÛstu vah kooperujících neuronÛ nad limity. Proto je nutné
omezení na maximální délku spoleãného jednotkového vektoru (rÛst jednoho na úkor
druhého, pfiiãemÏ souãet vah nemÛÏe pfiekroãit fixní hodnotu). UÏívá se k tomu
metody „PouÏij nebo ztraÈ" a je nutná pfiítomnost excitaãní i inhibiãní váhy od –1 do
+1 (Caudill&Buttler, 2000,s. 147). Hebbovské uãení je moÏné roz‰ífiit o mechanismus
zapomínání, kdy se pfii absenci aktivace ãi koaktivace neuronÛ sniÏuje hodnota jejich
vah aÏ k „úplnému zapomnûní".
Koukolík uvádí sloÏitûj‰í variantu Hebbovského uãení, kdy neurony mají schopnost se
koaktivovat podle vzorce pálení. Nestaãí pouhá aktivita a blízkost v prostoru, ale
nutná je i znalost vzorce. VyuÏití pulzních neuronÛ v oblasti Hebbovského uãení
roz‰ifiuje moÏnosti koaktivace i mezi vzdálen˘mi neurony. Kriteriem totiÏ není pouze
míra aktivity, ale i její zpÛsob. V umûl˘ch neuronov˘ch sítích se v‰ak zfiídka pouÏívá
modelu neuronu zaloÏeného na pulzním principu, kter˘ se vyskytuje u Ïiv˘ch neuronÛ (Caudill&Buttler, 2000). Ojedinûl˘m modelem vyuÏívající této vlastnosti je zpÛsob uloÏení pamûti Memory surface (viz níÏe).
4.3
Redundance
Pojem redundance se v textu této práce jiÏ nûkolikrát objevil. Jeho v˘znam je celkem
jasn˘ a vût‰inou vypl˘vá z kontextu pouÏití. Podívejme se ale, kde nalezneme
prapÛvod potfieby redundance. Pojem je obsaÏen jiÏ v základní práci informaãního
paradigmatu, v knize Shannona a Weavera, t˘kající se informaãní teorie. Definují
redundanci jako „zlomek struktury zprávy, která není podmínûna volbou odesílatele,
ale spí‰e uznávan˘mi statistick˘mi pravidly ovládajícími volbu symbolÛ bran˘ch
v potaz" (Shannon&Weaver, 1948). Názorn˘m pfiíkladem mÛÏe b˘t pfienos zprávy v
ãe‰tinû, která je omezena moÏn˘mi kombinacemi písmen tvofiícími slova, která jsou
v˘razy ãeského jazyka. DÛleÏité je také vzít v potaz, Ïe nûkterá slova jsou ãastûj‰í neÏ
ostatní. Tyto omezení nám jako pfiíjemci umoÏÀují pochopení pfiená‰en˘ch ãesk˘ch
slov, i pokud by nûkterá písmena ve slovû chybûla. V takovém pfiípadû redundance
obsaÏená v jazyce vypl˘vá z omezení kombinace písmen (Ashby, 1956). CoÏ platí
pouze v pfiípadû, Ïe vezmeme jednotlivá slova (omezená dan˘m smyslem v jazyce)
jako v˘chozí situaci. Tehdy je redundance brána jako moÏnost vynechání urãitého písmene ve slovû pfii zachování smyslu pro zku‰eného uÏivatele jazyka (nezku‰en˘ uÏivatel tuto schopnost ztrácí). Takto se spí‰e ale definuje informaãní ‰um (o kter˘ ‰lo
Shannonovi v jeho práci) neÏ redundance (Pfeifer&Scheier, 2001). Také vznikají prob-
lémy pfii tvorbû nov˘ch slov, které uÏivatel jazyka nezná, a také u slov, která jsou
tvofiena jedním písmenem (spojka a). Takto definovaná jazyková redundance je spí‰e
pfiesah za omezení slov, které mají v˘znam. Jazyk je redundantní právû ve své schopnosti b˘t arbitrárním systémem bez v˘znamu, jehoÏ nové kombinace se mohou stávat
oznaãeními pro jevy v prostfiedí.
4.4
Robustnost
Stejnû jako redundance je i tento pojem povaÏován za nutnou podmínkou pfii tvorbû
inteligentního systému. Vyskytuje se u biologick˘ch systémÛ v podobû jedné, evolucí nejsilnûji podporované vlastnosti. U umûl˘ch systémÛ se snaha o tvorbu robustních architektur
setkává z mnoha technick˘mi obtíÏemi.
Pro toto slovo mÛÏeme najít mnoho synonym jako pruÏnost, houÏevnatost apod. Jeho
hlavním cílem je obrana proti zhroucení i pokud je ãást systému po‰kozená, nebo pokud
jsou podmínky pro uskuteãnûní úlohy nedostaãující. Pfiíkladem (ponûkud zjednodu‰ujícím)
je r˘ma u ãlovûka, zabraÀující d˘chání nosem. Robustnost systému znamená moÏnost
d˘chání pusou. Slovo je v podstatû velmi blízké pojmu redundance. V oblasti inteligence se
spí‰e mluví o robustnosti mozkové neuronové sítû, mající takové mnoÏství propojení a
funkãních jednotek (neuronÛ), Ïe pfii i v˘padku vût‰ího poãtu neuronÛ ãi propojení nedojde k váÏnûj‰ímu poru‰ení funkãnosti systému. Pokud jsou nûkteré oblasti trvale zniãeny,
mÛÏe dojít k nov˘m propojením, která „mrtvou oblast" obchází. KvÛli tûmto vlastnostem se
o mozku fiíká, Ïe „degraduje s grácií".
Radikální pfiístup v oblasti simulace inteligence vycházel z konstatování, Ïe lidská mysl je
pfiíli‰ komplexní na to, aby mohl b˘t sloÏen z mnoha elementárních, sloÏitû propojen˘ch
jednotek (top-down pfiístupy). V poslední dobû se ale ukazuje, Ïe spí‰e pouÏití pfiístupÛ
vycházejících zespod (bottom-up) a v˘stavba systému od základních jednotek, pfies základní reflexy aÏ po komplexnûj‰í netriviální funkce mÛÏe pfiinést lep‰í v˘sledky. Zmínûn˘ pfiístup vytváfií teoretick˘ podklad pro tvorbu robustních systémÛ.
5
KLASICK¯ P¤ÍSTUP
VERSUS NEURONOVÉ SÍTù
Z obecného hlediska pfiedstavují neuronové sítû univerzální v˘poãetní prostfiedek se
stejnou v˘poãetní silou jako klasické poãítaãe napfi. von neumannovské architektury
(tj. pomocí neuronov˘ch sítí lze principiálnû spoãítat v‰e, co umí napfi. osobní poãítaã
a naopak). Z hlediska formalizace je funkce sítû popsána velk˘m poãtem váhov˘ch
parametrÛ, coÏ má nepfiíjemné konsekvence. Nûktefií autofii tento fakt nazírají znaãnû
antropocentricky (ve smyslu, co nepÛsobí „esteticky" na ãlovûka, nemÛÏe b˘t
uÏiteãné).
U klasick˘ch poãítaãÛ se funkce a algoritmy vkládají do stroje metodami, které kopírují sekvenãní uvaÏování ãlovûka. Navíc vytvofiená rozhraní pro zadávání programÛ
umoÏÀují jejich tvorbu v takov˘ch jazycích, které jsou pouze redukovanou verzi lidského jazyka. UÏivatel tedy není pfiíli‰ zatûÏován pfiekladem sv˘ch poÏadavkÛ do
„jazyka" systému. U neuronov˘ch sítí se s takov˘mi v˘hodami nesetkáme. Jejich paralelní povaha a zpÛsob reprezentace „programÛ" je pro lidského uÏivatele nepfiehledn˘ a neintuitivní. Ve‰keré poÏadavky na návrh ãi zmûnu systému vyÏaduje získání
speciálních znalostí a zku‰eností. Zmínûn˘ nedostatek v‰ak není pfiekáÏkou, která by
znamenala zásadní omezení pfii tvorbû neuronov˘ch síti. Jedná se pouze o zdÛraznûní
ikompaktibility systémÛ.
Hlavní v˘hodou a zároveÀ odli‰ností neuronov˘ch sítí od klasické von neumannovské
architektury je jejich schopnost uãit se. PoÏadovanou funkci sítû neprogramujeme tak,
Ïe bychom popsali pfiesn˘ postup v˘poãtÛ její funkãní hodnoty, ale síÈ sama abstrahuje a zobecÀuje charakter funkce v adaptivním reÏimu procesu uãení ze vzorov˘ch pfiíkladÛ. V tomto smyslu neuronová síÈ pfiipomíná inteligenci ãlovûka, kter˘ získává
mnohé své znalosti a dovednosti ze zku‰enosti, kterou ani není ve vût‰inû pfiípadÛ
schopen formulovat analyticky pomocí pfiesn˘ch pravidel ãi algoritmÛ. Neuronové sítû
se nesnaÏí o popis ale o imitaci chování (Caudill&Buttler, 2000). Navíc také zpÛsob
reprezentace pamûti neuronov˘mi sítûmi umoÏÀuje dynamickou modifikaci uloÏen˘ch
informací v závislosti na prostfiedí a také moÏnost pracovat s tûmito obsahy (napfiíklad procesem generalizace). Klasická architektura nabízí pouze statické uloÏení informace v pamûÈovém skladu.
Schopnost uãit se a zobecÀovat je typickou vlastností lidské inteligence. Velk˘m problémem pro hodnocení generalizaãní schopnosti neuronové sítû je, Ïe není jasné, jak˘m
zpÛsobem definovat, co je to správná generalizace. Díky tomu, Ïe neumíme definovat
(formalizovat) ani mûfiit generalizaãní schopnosti neuronov˘ch sítí, chybí základní
kritérium, které by rozhodlo, jaké modely neuronov˘ch sítí jsou v konkrétním dobré
ãi lep‰í neÏ jiné apod. Generalizaãní schopnosti navrÏen˘ch modelÛ neuronov˘ch sítí
se vût‰inou ilustrují na jednotliv˘ch pfiíkladech, které (moÏná díky vhodnému v˘bûru)
vykazují dobré vlastnosti, ale tyto vlastnosti nelze nijak formálnû ovûfiit (dokázat).
Tento stav je pfiíãinou krize základního v˘zkumu neuronov˘ch sítí (·íma, 1996).
Na závûr hodnocení tûchto architektur se samozfiejmû nabízí moÏnost vzájemné koexistence a kooperace obou architektur v jednom systému. V oblasti simulace se
setkáváme s tûmito tendencemi v oblasti tvorby agentÛ, multiagentních systému ãi
paralelních poãítaãÛ. Konkrétních aplikací v‰ak není je‰tû mnoho a jejich v˘sledky se
v dostupné literatufie pfiíli‰ nevyskytují. V rovinû pfiedpokladu je dobr˘m zhodnocením
vzájemné kooperace Peregrinova staÈ, hledající inspiraci v evoluãním principu.
Myslím, Ïe nejefektivnûj‰í systémy jsou, tak jako ostatnû i nበmozek a na‰e mysl, heterogenní. Pfiirozen˘ v˘bûr je, zdá se, mistr bastlení. Vezmûme ‰achové programy.
V uãebnicích se doãteme, Ïe jsou zaloÏeny na kombinaci funkce, která ohodnocuje
pozice na ‰achovnici a v˘konného modulu, kter˘ na nûkolik tahÛ dopfiedu
propoãítává hodnoty v‰ech dosaÏiteln˘ch postavení a volí cestu k tomu, které má tu
nejvy‰‰í. Skuteãnû funkãní ‰achov˘ program ale tohle jistû musí zkombinovat s komponentami zcela odli‰ného druhu: tfieba s knihovnou zahájení ãi s modulem pro koncovky, kter˘ pracuje na úplnû jiném principu atd. Myslím tedy, Ïe nejperspektivnûj‰í
jsou skuteãnû systémy, které ne pfiíli‰ lahodí oku teoretika - systémy zbastlené
z rÛzn˘ch principÛ a technik (Peregrin, 2004).
6
PARALELISMUS
Hlavním cílem této kapitoly bude odli‰ení paralelního pfiístupu (také PDP, paralelismus, paralelní zpracování) od architektury neuronov˘ch sítí, se kterou b˘vá ãasto
zamûÀován. Z velké ãásti je to zpÛsobeno skuteãností, Ïe oba pfiístupy zpracovávají
informace paralelnû. Rozdíl nacházíme v jednotliv˘ch stavebních prvcích. U neuronov˘ch sítí je základní prvek schopen velmi malé v˘poãetní kapacity (pouze sãítat
váhy a pfii pfiekroãení prahu „pálit") a neobsahuje pamûÈ ve smyslu interního pracovního skladu pro v˘poãty základní jednotky.
U paralelních poãítaãÛ je základní jednotka tvofiena procesorem, jehoÏ v˘poãetní
kapacita mu umoÏÀuje provádût rozsáhlé v˘poãetní operace se sv˘mi vstupy. Obsahuje i pamûÈ, která mÛÏe slouÏit jako skladi‰tû pro meziv˘poãty ãi ukládání v˘sledku pro
pozdûj‰í odeslání. Z hlediska lokalizace pamûti existují i varianty, kde jsou jednotky
tvofieny pouze procesory a ve‰kerá pamûÈ je uloÏena v centrální pamûÈové jednotce
mimo procesory (coÏ odpovídá pfiedchÛdcÛm von neumannovské architektury).
V takovém pfiípadû je pfiístup znaãnû neefektivní pro tvorbu systémÛ s nutností rychlé odezvy na vstupy, protoÏe je tfieba neustále pfiená‰et v˘stupy procesoru do centrální pamûti i pokud se jedná o meziv˘poãet.
Podstatn˘ rozdíl je v základním pohledu na architekturu. Paralelní poãítaãe provádûjí
v˘poãty, zatímco neuronové sítû spí‰e odpovídají na podnûty. KaÏd˘ paralelnû propojen˘ procesor má své taktovací hodiny, které udávají rychlost vykonání jednoho
v˘poãetního kroku a v pfiípadû komunikace mezi sebou je informace také vysílána
s ohledem na taktovací frekvenci. Neuronové sítû pracují asynchronnû. Pokud
pfiicházejí vstupy, jsou váÏeny, pokud na vstup nic nepfiichází, neuron nepracuje.
V pfiípadû hybridní architektury paralelních poãítaãÛ (je tvofiena kombinací neuronov˘ch sítí a klasick˘ch poãítaãÛ) musel doznat zmûn i jazyk, skrze kter˘ lze tvofiit
algoritmy, fiídící prÛbûh paralelních v˘poãtÛ. Pfiíkladem mÛÏe b˘t procesy popisující
jazyk (PDL), kter˘ byl prezentován Steelsem v roce 1992. Vychází z paralelistické idey,
Ïe procesy v systému probíhají kontinuálnû a paralelnû vedle sebe. Neexistuje kontrola chování na základû centralizovaného v˘bûru. Místo toho kaÏd˘ proces mÛÏe
ovlivÀovat jist˘ poãet hodnot, které spolu s ostatními vedou k urãitému chování
pomocí sdílení. Jedná se o paralelistick˘ pfiístup, kter˘ je zaloÏen právû na propojování
modulÛ a jejich kooperaci ãi soutûÏení modulÛ. Hrozí zde moÏnost zastavení ãinnosti, pokud není dobfie definováno vzájemné ovlivÀování se modulÛ. Pokud dojde
ke konfliktu protichÛdn˘ch modulÛ (ãi jejich skupin), systém se zablokuje a není
schopen pokraãovat v ãinnosti (Pfeifer&Scheier, 2001). Obecnû lze fiíci, Ïe oproti programovacím jazykÛm klasick˘ch poãítaãÛ bylo nutné roz‰ífiit jejich bázi o nové
pfiíkazy, které jsou schopné o‰etfiit komunikaci mezi jednotliv˘mi moduly. Objevují se
tedy jazyky, které dokáÏí vytváfiet algoritmy pro ovládání synchronních pfienosÛ,
sdílení dat, kooperaci v˘poãtÛ, hierarchie souãinnosti a jiné, zaji‰tující pfiechod klasick˘ch poãítaãÛ do oblasti paralelního zpracovávání. Naprosto identická je situace pfii
tvorbû komunit z jednotliv˘ch agentÛ v oblasti agentového pfiístupu. Aãkoli se vyskytuje velmi málo literatury, t˘kající se popisovaného pfiístupu, patfií svou povahou a
moÏnostmi, mezi velmi nadûjnou kombinaci na poli simulace inteligence. Stejnû jako
multiagentní pfiístup, má i paralelismus pfiedpoklady stát se klíãov˘m paradigmatem
kognitivních vûd.
7
P¤ÍSTUP ZALOÎEN¯ NA AGENTECH
V na‰em bádání o zpÛsobech tvorby inteligentního systému se dostáváme k pfiístupu
zaloÏeném na agentech. Oproti pfiedchozím kapitolám (kromû paralelismu), zab˘vajících se moÏnostmi v oblasti architektury a moÏnostmi vhodnû reprezentovat vstupní
informaci, pfiecházíme do aplikovanûj‰í oblasti. TûÏi‰tû zájmu je pfiesunuto z oblasti
tvorby univerzálních architektur a reprezentaãních systémÛ do syntetického zpracování stávajících poznatkÛ v jeden celek. Znamená to vyuÏití stávajících architektur
(komputaãní, neuronové sítû, paralelismus) a reprezentaãních systému k nalezení
takového propojení, které vyuÏije jejich potenci.
Prvofiad˘m cílem pfiístupu je v‰ak jiné propojení. Jedná se o interakci systému s jeho
prostfiedím. Pfiedchozí kapitoly vypovídaly o teoretick˘ch pfiístupech, které se snaÏí
nalézt nejefektivnûj‰í formu a podmínky pro v˘stavbu systému schopného reprezentovat a zpracovávat informace. VÏdy jsme v‰ak vycházeli z pfiedpokladu, Ïe v poãátku
( na vstupu) pracujeme s takov˘m kódem, kter˘ je vlastní simulovanému systému.
Zcela jsme pomíjeli pfievod informace z prostfiedí do interní formy (transdukce). Proto
je nutné pfiejít do komplexnûj‰í roviny pfiem˘‰lení (ve smyslu vût‰ích celkÛ) a nazfiít
problematiku inteligence systému v kontextu jeho pobytu a pohybu v prostfiedí.
Roz‰ifiujeme tak pÛvodní schéma o vnímání a konání, ãímÏ konstituujeme agenta
(racionálního agenta, inteligentního agenta, autonomního agenta). PokusÛ o jeho
definici je stejné mnoÏství jako pokusÛ o definování inteligence. Vypl˘vá z faktu, Ïe
pojem agent mÛÏeme ztotoÏnit s pojmem inteligentní systém. Uveìme si nûkteré
pokusy o vystiÏení pojmu :
•
Agent je cokoliv, co mÛÏe b˘t nahlíÏeno jako vnímající prostfiedí skrze své senzo
ry a konající v prostfiedí skrze efektory (Russel&Norwig, 1995).
•
Inteligentní agent vykonává nepfietrÏitû tfii funkce: vnímá dynamické podmínky
prostfiedí; koná tak, aby ovlivnil prostfiedí; a uvaÏuje aby interpretoval vnímané, fie‰il
problémy, vyvozoval závûry a vytváfiel jednání (Hayes-Roth, 1995).
•
Autonomní agent je systém schopn˘ autonomních a cílevûdom˘ch ãinÛ v reálném
svûtû (Brustoloni, 1991).
ZmiÀované definice jsou znaãnû obecné a nepfiesné, ale mÛÏeme na nich vidût, Ïe
základním poÏadavkem agenta je právû jeho umístûní v prostfiedí - situovanost a
schopnost vnímat a konat. Shrnutím mÛÏe b˘t definice:
Autonomní agent je systém situovan˘ v prostfiedí jako souãást prostfiedí, kter˘ jej
vnímá a koná v nûm, ve snaze získat takové vlastní uspofiádání, které mu umoÏní
ovlivnit své budoucí vnímání (Franklin, 1996).
Tato definice se snaÏí postihnout pÛsobení agenta vãetnû moÏnosti interních reprezentací a anticipace, coÏ jsou vlastnosti a schopnosti ãlovûka. V celkovém vyznûní ale
touha po pfiesné definici agenta odpovídá stejnû marnému úsilí o neredukcionistickou definici ãlovûka (kter˘ je také inteligentní systém) v celé ‰ífii jeho moÏností.
Díky tomu, Ïe se agentov˘ pfiístup pfiesunul do aplikované oblasti simulace a modelování, vzniklo nepfieberné mnoÏství konkrétních projektÛ, které svou specifiãností
umoÏnily vznik mnoha specializovan˘ch oblastí vyuÏití agentÛ (podobnû jako expertní systémy). Jejich taxonomie pfiesahuje moÏnosti této publikace, uvádím zde proto
pouze základní dûlení, které si uchovává potfiebnou rozli‰ovací schopnost. Tfiídûní
v sobû obsahuje rÛzné formy kombinací pouÏit˘ch základních substrátÛ, architektur a
reprezentaãních systému.
Obr. 22 Taxonomie autonomních agentÛ
7.1
Vtûlená kognitivní vûda
Brooksem navrÏená architektura potlaãování (subsumption architecture) byla prvním
pfiístupem kter˘ smûfioval k ustavení nového paradigmatu ve zkoumání inteligence,
oznaãovaného jako robotika zaloÏená na chování, dnes naz˘vána vtûlená kognitivní vûda.
Brooksova terminologie není zcela jednotná a pouÏívá nûkterá slova v jiném v˘znamu
neÏ je obvyklé. Napfiíklad slovo chování pouÏívá ve v˘znamu interakce systému
s prostfiedím, ale také jako úlohou poÏadované chování, pokud mluví o vnitfiních
modulech (vrstvách). Obecnû vidí chování jako proces, kter˘ není zaloÏen na klasickém zpracování informací a je v opozici proti expertním systémÛm, tedy tûm, které
pouÏívají high-level ontologie (abstraktní procesy). Rozhodovací procesy vedoucí
k chování je moÏno klasifikovat jako decentralizované a dynamick˘ rekonfigurovatelné. KaÏdá z robotick˘ch senzorick˘ch zpûtn˘ch vazeb (interní procesÛ) funguje kontinuálnû. To znamená, Ïe energie do jeho motorÛ (chování) záleÏí na propojení
s prostfiedím. Pokud máme hovofiit o rozhodovacích procesech, které aktivují urãit˘
reflex, nejedná se o procesy uvnitfi robota. Obecnû se dá fiíci, Ïe prostfiedí pro které je
robot (agent) vytvofien, urãuje v˘bûr mezi mechanismy low-level reflexÛ (HendriksJansen, 1996). Argumentace se na konci stává spí‰e obhajobou samotné subsumpãní
architektury (viz níÏe).
Vtûlená kognitivní vûda ãasto vyt˘ká tradiãním pfiístupÛm zanedbávání interakce systému s prostfiedím. Hlavní námitka je vznesena proti zpÛsobu vkládání informace na
informaãní vstup. Klasick˘ pfiístup pouÏívá pfiedzpracovanou informaci (transdukované ãlovûkem) smûrovanou na vstupy systému. Komplexní informace o prostfiedí je
transformována do podoby, které systém rozumí. V reálném prostfiedí ale taková
moÏnost není. Systém sám musí obsahovat mechanismy, které umoÏní transdukci
informace na podobu, se kterou je schopen pracovat (Pfeifer&Scheier, 2001).
Problematika vtûlenosti inteligentního systému obsahuje nûkolik sporn˘ch míst. Podle
tvrzení R. Brookse inteligence vyÏaduje tûlo. Souvisí to v podstatû s kofienov˘m problémem dualismu ãi monismu, ãili otázky, zda se svût skládá pouze z jediné entity, ãi
vyÏaduje interakci energie a hmoty. Pfiípadná odpovûì dûlí vûdce na dva tábory, které
jsou následnû fragmentovány na pfiesnûji formulovaná paradigmata dan˘ch oborÛ.
V aplikované oblasti se termínu vtûlenost – embodiment - pouÏívá pfiímo se zfietelem
na tvorbu autonomních agentÛ (inteligentních robotÛ). Pojem vtûlenost je brán jako
potfieba robota se pohybovat v prostfiedí, které je mimo nûj a mít moÏnost toto okolí
vnímat skrze svou senzorovou v˘bavu. Velmi blízk˘m termínem a podobn˘m termínem je situovanost. Agent (robot) je situován, jestliÏe dokáÏe získat dostateãnou
informaci o své poloze v prostfiedí a odpovûdût na ni patfiiãn˘m chování. Vtûlenost i
situovanost jsou pfiedpoklady vedoucí k autonomii agenta (robota), tedy Ïe bude
schopen samostatnû interagovat s prostfiedím (Pfeifer&Scheier, 2001). Oba poÏadavky
jsou ve své podstatû dÛsledkem nevyfie‰enosti základního problému, kter˘m je
ukotvení symbolÛ (symbol grounding). Schopnost orientace v prostfiedí a vydûlení
sebe coby jeho souãást, vyÏaduje jako základní poÏadavek schopnost prostfiedí
„rozumût". Tedy pfiekódovat informace externího svûta do interního kódu tak, aby
jejich zpracovávání obsahovalo sémantickou rovinu. Poté uÏ agent nepotfiebuje ãlovûka jako interpreter (pfiekladaã) mezi externím svûtem a sv˘mi interními stavy.
7.2
Principy tvorby autonomních agentÛ
Konstruktéfii pfii tvorbû systémÛ ãasto vycházejí z intuitivních pfiedpokladÛ jevÛ, které
jsou svou povahou implicitní. Pfii tvorbû systémÛ (agentÛ) jsme nuceni znalosti a postupy co nejvíce pfievádût do explicitní formy, kterou lze jasnû popsat.Existuje totiÏ
mnoÏství teoretick˘ch pfiístupÛ, které v sobû obsahují principy, o kter˘ch je známo, Ïe
fungují, ale není zfiejmé jak. MoÏnosti pochopení systému se tak stávají omezené a
v˘hodou je pouze, pokud se designér vûnuje problematice del‰í dobu, jeho schopnost
pracovat s implicitními pfiedpoklady daleko kvalitnûji, díky prohlubující se znalosti,
vedoucí k identifikaci a explikaci potfiebn˘ch mechanismÛ. Ve vtûlené kognitivní vûdû
se jedná o vyuÏívání znalostí z oblasti biologie a jejich uÏívání pfii návrhu agenta. Biologické mechanismy nejsou pfiesnû známy, ale jsme schopni je ve zjednodu‰ené formû
napodobovat. Vysvûtlit si to lze buì jako nemoÏnost nûkteré biologické procesy plnohodnotnû napodobit pomocí prvkÛ neÏivé pfiírody (viz Biologie), nebo také
nedostateãn˘mi v˘sledky poznání v tûchto oblastech.
Jeden ze základních principÛ pfii navrhování autonomních agentÛ postupuje následnû.
Pfiedpokládáme, Ïe chování je vÏdy propojeno s prostfiedím, ve kterém se agent pohybuje a neexistuje abstraktní chování mimo prostfiedí. Pokud dokáÏeme identifikovat
druhy chování, které se v daném prostfiedí vyskytuje, snaÏíme se nalézt mechanismy,
které toto chování tvofií a následnû vztahy mezi jednotliv˘mi typy chování. Tímto postupem se v‰ak vût‰inou dostaneme do pozice, kdy se snaÏíme vytvofiit agenta, kter˘
dokáÏe plnit pouze specifické úlohy (Pfeifer&Scheier, 2001). MnoÏina moÏn˘ch
chování zaãíná v komplexnûj‰ím prostfiedí narÛstat a stane se v˘poãetnû nároãnou.
Pokud zaãneme hledat vztahy mezi rÛzn˘mi typy chování, mÛÏeme nalézt úspory plynoucí z kooperace mechanismÛ zaji‰tujících jednotlivé chování, ale dostáváme se i do
situace, kdy sloÏitost architektury agenta zaãíná pfiesahovat kapacitní moÏnosti
designéra.
Pokud se podíváme na konstrukci autonomního agenta spí‰e z hlediska pouÏit˘ch
principÛ, vlastností a mechanismÛ neÏ omezení, mÛÏeme ji vyjádfiit následujícím
obrázkem. Nutno zdÛraznit, Ïe jde o jednu z moÏn˘ch variant (lépe fieãeno z pfiedpokladÛ) a proto jí nelze generalizovat jako obecn˘ princip tvorby agentÛ.
Obr. 23 Podmínky tvorby automního agenta
Pfii tvorbû agentÛ b˘vá hlavním cílem aby dosahoval emergentního chování. âastûji se
emergentní princip pouÏívá v oblastech jako simulace umûlého Ïivota, dynamick˘ch
systémÛ a neuronov˘ch sítí. Pfiístupy umoÏÀují díky principu sebeorganizace, moÏnost
vzniku vlastností, které pfiedtím v systému nebyly pfiítomné.
7.3
Emergence
Emergentní princip hovofií o vynofiování se nov˘ch vlastností ãi v˘sledkÛ, které nejsou
v systému obsaÏeny v explicitní formû. Pfiesnûj‰í anal˘zu problematiku a nûkteré pfiedpoklady pro vznik emergence uvádí následující odstavec.
V zaãátku si rozloÏíme kompletní systém (prostfiedí+inteligentní systém) na prostfiedí
a inteligentní systém jako samostatné ãásti. V první pasáÏi budeme brát v potaz pouze
inteligentní systém. Pfiedpokladem pro vznik „nového" je takov˘ design architektur,
které nabízejí více variant propojení jednotliv˘ch operátorÛ. Pokud by systém obsahoval pouze propojení nutná pro speciální úãel navrÏen˘ designérem, hovofiíme
o emergenci pouze v pfiípadû, Ïe se po‰kodí jeden s operátorÛ (systém zÛstane
funkãní i bez nûj), nebo operátor funguje vadnû a produkuje ‰patné v˘stupy (coÏ není
cílem tvÛrcÛ inteligentních systémÛ). To je ale nepravá emergence, jelikoÏ nedo‰lo
k vytvofiení alternativní stavu , ale k pfiechodu jednoho stavu do téhoÏ modifikované
stavu (determinismus). Pokud systém obsahuje redundantní propojení (tedy nûkterá
propojení jsou v urãit˘ch fázích nevyuÏitá a jakoby zbyteãná), mohou vzniknout dvû
varianty emergence. První moÏností je sekvenãní emergence. Jednotlivé operátory
zpracovávají informace z prostfiedí v urãité posloupnosti, ale moÏnosti propojení jim
umoÏní i jin˘ prÛbûh zpracování a tak je moÏn˘ vznik „nového" jinou sekvencí práce
operátorÛ (nondeterminismus). Typickou oblastí aplikace je sériov˘ zpÛsob zpracování.
Systém pracující paralelnû, mÛÏe tvofiit nové chování je‰tû jin˘m zpÛsobem. JestliÏe
pracují operátory nezávisle na sobû, mohou se vzájemnû ovlivÀovat v ãinnosti
(vymûÀují si informace o sv˘ch stavech) a v˘sledné chování pak obsahuje nové varianty kooperace operátorÛ, jelikoÏ operátory mûly více informací a ty zmûnily prÛbûh
„v˘poãtu" (kooperativní emergence). DÛleÏit˘m kritériem pro vznik emergence je
tedy patfiiãná architektura systému.
Nyní jiÏ budeme hovofiit o inteligentním systému v prostfiedí a o klíãové úloze
prostfiedí pro moÏnost emergence u inteligentního systému. Konstantním prostfiedí
vytváfií stále stejné vstupy a systém tak nemá moÏnost tvorby alternativy, protoÏe není
k ãemu. V dynamickém prostfiedí, je emergence moÏná. Právû zmûna v prostfiedí mÛÏe
b˘t kauzální pfiíãinou vzniku nového chování. Bez vlivu prostfiedí není moÏné restrukturovat pofiadí ãi zpÛsob kooperace operátorÛ.
Souãasné pfiístupy v oblasti neuronov˘ch sítí hovofií o emergenci v ponûkud
pozmûnûném smyslu. SíÈ se nejprve trénuje, tím Ïe jí prezentujeme podnûty, které jsou
pomocí sítû kategorizovány. Pfií prezentaci vzoru síÈ funguje urãit˘m zpÛsobem a kategorie je funkcí (zpÛsobem propojení). V takovém pfiípadû emergentní chování znamená, Ïe síÈ je schopna kategorizovat i podnût, kter˘ nebyl v cviãné sadû ( je nov˘).
SíÈ sice produkuje nové chování tím, Ïe dokáÏe zafiadit neznám˘ podnût, ale to je
pouze rozmezí platnosti kategorizaãní funkce a ne emergence v pravém slova smyslu. Podobnû je tomu u subsumpãní architektury. Zde pracuje nûkolik paralelních
operátorÛ, které mají pfiímé napojení na vstup a v˘stup, ale jejich ãinnost není kooperativní. Pravidlo naopak urãuje, Ïe vy‰‰í úrovnû jsou potlaãovány, pokud se systém
ocitne v situaci, která je pro nûj problematická (nová ãi kritická), a ãinnost pfiebírají
niωí vrstvy, podobné reflexÛm u ãlovûka. Komunikace mezi vrstvami je minimální,
jedná se o typ, kter˘ není ani ãistû sekvenãní ani paralelní. Emergence vzniká ãinností jednotliv˘ch vrstev s omezen˘mi moÏnostmi jejich souãinnosti pfii produkci chování.
Zde je nejlépe vidût vliv prostfiedí na vznik emergentního chování. Vzniknuv‰í agent
(v pfiípadû vtûlené subsumpãní architektury) neustále akomoduje na okolní prostfiedí
a nemá moÏnost fiídit své chování. K tomu je potfieba interní reprezentace prostfiedí
(pamûti) a také „schopnosti", která je u Ïiv˘ch bytostí naz˘vána vûdomím. To je
poslední dÛleÏitou podmínkou pro vznik emergentního chování. Pokud je souãástí
ãinnosti vûdomí, schopnost kontroly a zpûtné vazby na prostfiedí a interní procesy,
mÛÏe docházet u vûdomého systému k emergentnímu chování i bez pfiítomnosti
prostfiedí. Pokud je systém schopen práce se sv˘mi interními reprezentacemi, mÛÏe
provádût nové zpÛsoby propojení operátorÛ, bez toho aby jej prostfiedí ovlivÀovalo
ãi limitovalo.
Klíãovou se
pro vznik emergentních vlastností uvnitfi inteligentního systému jeví
architektura obsahující redundantní propojení, schopná vytváfiet interní reprezentace a
vûdomû s nimi manipulovat. Systém musí b˘t navíc situován v dynamickém prostfiedí,
se kter˘m interaguje.
7.4
V˘hody a nev˘hody agentÛ
Tato kapitola jiÏ nemÛÏe mít argumentaãní sílu, jako podobné odstavce z poãátku
práce. Bylo zmínûno, Ïe agentov˘ pfiístup je syntézou. V˘hody a nev˘hody zde
zmínûné se vztahují spí‰e ke konkrétním základním architekturám, které jsou pfii konstrukci agentÛ pouÏity. PfiestoÏe nûkteré z nich uÏ zaznûly v pfiedchozích kapitolách,
jsou zde uvedeny v pozmûnûném kontextu.
Pokud aplikujeme architekturu neuronové sítû do autonomního agenta, získáme tak
nûkolik v˘hod. Nauãí se napfiíklad generalizovat podnûty. V koneãné fázi vede proces
generalizace k „anticipaci" objektu v prostfiedí (Pfeifer&Scheier, 2001). Není to ov‰em
vûdomá anticipace, neboÈ agentÛm dosud nemÛÏeme pfiisoudit tento status pro jejich
malou komplexnost. Schopnost anticipace mu pfiisuzuje pozorovatel (ãlovûk), protoÏe
si takto anticipaci vysvûtluje sám na sobû.
Agent vybaven˘ neuronovou sítí mÛÏe kromû uãení také zapomínat, pokud pouÏijeme
model Hebbovského uãení. Pfii jeho aplikaci se mÛÏe stát (pfii opakovaném vystavení
urãitého podnûtu), Ïe váhy neuronu dosahují velk˘ch hodnot. Tomu je zabránûno
mechanismem zapomínání, kter˘ sniÏuje pfii kaÏdém nové vstupu pfiedchozí hodnotu
váhy neuronu. V okamÏiku, kdy není spojení dlouhou dobu vyuÏíváno (není prezentován patfiiãn˘ podnût), váha se sníÏí na nulu a neuron tento podnût zapomene. Takto
vybavená neuronová síÈ se mÛÏe uãit nekoneãnû dlouho. Pokud je prostfiedí nemûnné, váhová matice se dostane do stavu equilibria. JestliÏe se prostfiedí mûní v optimálním pomûru k velikosti hodnoty zapomínacího mechanismu, je funkce sítû optimální, protoÏe si pamatuje pouze podnûty, které aktuálnû potfiebuje ke své ãinnosti
(Pfeifer&Scheier, 2001).
Oblastí, která je pfii tvorbû agentÛ ãasto pfiehlíÏená, je motivace. Je to dáno její blízkostí
s emocemi, které se tradiãní kognitivní vûda vyh˘bá, zcela jí pomíjí nebo se jí snaÏí
nahradit pomocí mechanismÛ zaloÏen˘ch na algoritmech. âast˘mi pokusy je také
nahrazení tohoto pojmu pravdûpodobnostními hodnotami vzdálenosti souãasného
stavu agenta od cílového, ãi vytvofiením systému operujících s konstrukty typu domnûnka (belief) a potfieba (desire). SloÏitûj‰í systémy se snaÏí vysvûtlit motivaci pomocí
emergentního principu, tedy propojením mnoha modulÛ dohromady vytváfií chování,
ale také interní stavy, ve kter˘ch se projevuje dopfiedu nedefinována soutûÏivost
ãi kooperace mezi moduly (Pfeifer&Scheier, 2001).
Teorie agentÛ stojí z hlediska vyuÏívání architektur mezi teoriemi, které vyuÏívají neuronu jako základní stavební jednotky, a teoriemi, které pouÏívají centrální procesor
jako jádro, pfies které procházejí v‰echny informace z okolí a jsou zde zpracovávány.
Podobají se zãásti fodorov˘m modulÛm ãi paralelním poãítaãÛm. Architektura je
postavena na kooperaci nûkolika samostatn˘ch jednotek, z nichÏ kaÏd˘ má speciální
funkci, kterou mÛÏe plnit. Architektura autonomních agentÛ mÛÏe b˘t zaloÏena na klasickém pfiístupu ãi neuronové síti, s vûdomím, Ïe pfiebírá nev˘hody jedné ãi druhé.
7.5
Reaktivní agenti
Rodney Brooks hovofií o tom, Ïe tradiãní pfiístup k UI je chybn˘. Vût‰ina my‰lenek, jeÏ
se t˘kaly oblastí my‰lení, logiky a fie‰ení problémÛ, jsou odvozeny z na‰í vlastní introspekce, tedy jak my vidíme sebe samy. Tvrdí, Ïe inteligentního chování lze dosáhnout
pouÏitím velkého mnoÏství „volnû spojen˘ch procesÛ" (loosely coupled processes),
které pracují pfieváÏnû asynchronnû a paralelnû. Argumentoval, Ïe není tfieba pfiíli‰
interních procesÛ zpracování a Ïe sensorické vstupy mohou b˘t mapovány relativnû
pfiímo na efektory (Pfeifer&Scheier, 2001). Brooksov˘m mottem je, Ïe „Svût sám je
svou nejlep‰í reprezentací". Interní reprezentace je tfieba konstruovat pouze v pfiípadech, pokud je to nezbytnû nutné. Tento typ architektury patfií do skupiny reaktivních agentÛ (Mafiík, 2001).
Takov˘ typ architektury vede k úzké vazbû systému na prostfiedí . Inteligence je emergentní vlastností interakce organismu s prostfiedím. Jím navrÏen˘ pfiístup je velmi
odli‰n˘ od klasického pfiístupu zpracování informace.
Znám˘m pfiíkladem jednoduchého reaktivního agenta je mravenec Herberta Simona,
kterého sledoval, jak bûÏí po pláÏi (Simon mravence). Kfiivka jeho trajektorie byla
nesmírnû komplikovaná. Z hlediska lidského pozorovatele se mÛÏe zdát, Ïe mravenec
provádí spoustu obtíÏn˘ch rozhodovacích procesÛ. Pfiitom se jedná o typ interakce,
kdy o mravencovû trajektorii rozhoduje z velké ãásti prostfiedí (na podobném principu
jsou zaloÏeny Braitenbergova vozítka). Mravenec se stává externû fiízen˘m systémem (Mafiík, 2001).
Základy reaktivního pfiístupu poloÏil Braitenberg v experimentech se sv˘mi vozítky,
které jsou nejvy‰‰í formou redukce tvorbou systémÛ, jejichÏ vstupy jsou propojeny
pfiímo s v˘stupy (v pokroãilej‰í verzi s urãitou formou redundance). Braitebergovy
vozítka slouÏí jako dobr˘ pfiíklad architektury, která neobsahuje interní reprezentace,
ani Ïádné v˘poãetní mechanismy, ale kde jsou vstupy rovnou propojeny s v˘stup.
U neuronov˘ch sítí se to dá pfiirovnat k typu, kter˘ neobsahuje stfiední skrytou vrstvu.
U klasické architektury jde o systém, kde je procesor pouze místem, pfies které
prochází propojení, pfiiãemÏ nedochází k Ïádné formû zpracování.
Obr. 24 Braitenbergovy vozítka - pfiíklady (Braitenberg, 1984)
Hlavním pfiínosem reaktivních agentÛ je zdÛraznûní zpÛsobu propojení pfii konstrukci. Jejich architekturám nemÛÏeme pfiisoudit pojmy jako pamûÈ nebo znalost, protoÏe
funguje vÏdy v pfiímé interakci s dan˘m prostfiedím. (Pfeifer&Scheier, 2001).
7.5.1
Subsumpce
Subsumpãní architektura vyuÏívá metody dekompozice jednotliv˘ch kontrolních
architektur na mnoÏinu prvkÛ plnících úkoly (Pfeifer&Scheier, 2001). Klasická funkãní
dekompozice provádí zpracování jednotliv˘ch modalit samostatnû. Ty jsou pfievádûny
na centrální reprezentaci. Poté pfiicházejí na fiadu interní procesy, které se snaÏí
vytvofiit model svûta odpovídající vnûj‰ímu prostfiedí. Následnû dochází rozhodování a
plánování akcí a jejich provedení. Taková dekompozice je zaloÏena na klasickém
informaãním pfiístupu vyuÏívajícího cyklus vnímání-my‰lení-konání. JelikoÏ tento pfiístup umoÏÀuje modelování a plánování (roz‰ífiení poloÏky my‰lení), je cyklus roz‰ífien
na vnímání-modelování-plánování-konání.
Oproti tomu BrooksÛv pfiístup obsahuje jednotlivé moduly, uspofiádané ve vrstvách,
které sice mají hierarchickou strukturu, ve smyslu od jednodu‰‰ích po sloÏitûj‰í operace, ale rozdíl je v tom, Ïe není nutná kauzální posloupnost jednotliv˘ch vrstev od
jednoduché po sloÏitou. Vrstvy pracují paralelnû a nezávisle na sobû. KaÏdá má stejné
vstupy a má moÏnost ovládat efektory (v˘stupy). MÛÏeme hovofiit o paralelním zpracování informací.
Mezi ideové pfiedchÛdce daného pfiístupu patfií hierarchické systémy, jako napfiíklad
TOTE, které se také skládají z vzestupnû uspofiádan˘ch mnoÏin (vrstev) modulÛ.
KaÏd˘ modul obsahuje funkci, která se podílí na celkové funkcionalitû. V architektufie
TOTE ale nevzniká prostor pro emergentní chování, jelikoÏ v‰e je specifikováno pfiedem (hierarchie v pravém slova smyslu) (Pfeifer&Scheier, 2001).
V subsumpãní architektufie je vrstva komponována jako soubor modulÛ. KaÏd˘ modul
je tvofien roz‰ífien˘m strojem s koneãn˘m poãtem stavÛ (speciální finite state
automata). To znamená v˘poãetní mechanismus zaloÏen˘ na stavech, které se mûní
v závislosti na pfiedchozím stavu a hodnotû vstupu. Roz‰ífienost hovofií o pfiidání nûkter˘ch dal‰ích prvkÛ oproti nejjednodu‰‰ímu stroji s koneãn˘m poãtem stavÛ, kter˘m
je TuringÛv stroj (bez nekoneãnû dlouhé pásky). Pfiídavné prvky mohou b˘t rÛzné,
napfiíklad ãasovaã, kter˘ dokáÏe po urãité ãasové periodû zmûnit vnitfiní stav stroje
nezávisle na hodnotû vstupu. (Pfeifer&Scheier, 2001).
Obr. 25 Pfiíklad subsumpãní architektury
Jednotlivé vrstvy se mohou navzájem ovlivÀovat a pfiedávat si informace ãi v˘sledky
sv˘ch ãinností (velmi omezenû a specificky), ale pozornost je soustfiedûna na jejich
samostatnou ãinnost. Slovo hierarchie ve vztahu k vrstvám zde není pouÏíváno v klasickém v˘znamu. Má vztah k potlaãování – subsumpci. Pokud nastane situace, pfii které
by pracovaly dvû vrstvy antagonisticky, pfiichází na fiadu inhibiãní hierarchie. Niωí vrstvy
jsou programovány jako reflexy, a proto získávají pfiednost ve vykonání akce proti
vy‰‰ím vrstvám. Základním propojení vrstev mezi sebou tedy slouÏí k inhibici.
Existuje v‰ak více variant subsumpãního chování. Základní typ má napevno zakódováno, jaká je funkãní hierarchie pouÏívání vrstev. Prostfiedí na tom (kromû pfiítomností
aktivátorÛ) nemÛÏe nic zmûnit. Existují ale komputaãnû nároãnûj‰í verze tûchto systémÛ,
rozhodující o nadfiazené aktivitû jedné vrstvy pomocí metod hlasování ãi rozprostfiené
aktivace. V takovém pfiípadû hraje prostfiedí roli aktivátoru, kter˘ nenab˘vá hodnot
jedna/nula, ale jeho jednotlivé vlastnosti (subaktivátory) podle míry pfiítomnosti v dané
situaci rozhodují o subsumpci, tedy o nadfiazení vrstvy nad ostatními a následném
chování. Paralelu mÛÏeme hledat v Lorenzovû „psycho-hydraulickém" modelu, kter˘ je
zaloÏen na pfiedpokladu, Ïe kaÏdé chování, které vyvíjí konstantní úsilí, aby bylo
aktivováno, se ãasem zvy‰uje, pokud je dané chování pouÏíváno (Lorenz, 1981, s.47).
Druh˘ typ subsumpce vládne roz‰ífienûj‰í rozli‰ovací schopností pro volbu správného
chování. Z lidského pohledu je schopnost emergence efektivního chování
pravdûpodobnûj‰í.
V˘hodou architektury je její vnitfiní roz‰ifiitelnost. Pfiidáním nové vrstvy nepotfiebujeme
rekonfigurovat cel˘ systém, protoÏe vrstvy jsou z velké ãásti autonomní, coÏ je dobré
pro designéra, kter˘ tak mÛÏe pfiidávat dal‰í prvky dle poÏadavku prostfiedí (podobnû
jako axiomy do formálního systému). Nev˘hodou je nepropojenost jednotliv˘ch komponent. Nenabízí se moÏnost emergence nového chování v sekvenci (viz Emergence).
Jednotlivé procesy pracují samostatnû a tak nemohou organizovan˘m skládáním vytvofiit
kvalitativnû odli‰né celky – sekvence (Konar, 1999).
Jak bylo zmínûno, BrooksÛv pfiístup nerozli‰uje mezi periferním a centrálním jako jiné
architektury. Reaktivní agent mÛÏe b˘t nahlíÏen jako systém s decentralizovanou aktivní
reprezentaci sv˘ch schopností (Mataric, 1997). Pojem reprezentace je zde pouÏit jinak
neÏ v klasické kognitivní psychologii. Jedná se o procedurální reakci systému na dan˘
vstup. TûÏko fiíci, zda se jedná o reprezentaci jako takovou. Systém neobsahuje pamûÈ
(formou interní reprezentace) a je vÏdy pouze reagujícím na souãasn˘ stav prostfiedí.
PouÏití slova reprezentace v tomto kontextu je zavádûjící. Lze jej pouÏít pouze
metaforicky, tedy Ïe reprezentace je tvofiena souãinností modulÛ v dan˘ okamÏik.
Obr. 26 Tradiãní architektura versus architektura vrstev
VraÈme se v‰ak k porovnání s klasick˘mi modely kognitivního cyklu. Systém je dûlen
horizontálnû a neoddûluje vnímání od konání jednotliv˘mi mezistupni zpracování
informace. Propojením mezi vnímáním a konáním je zaji‰tûno v kaÏdé vrstvû a kaÏdou vrstvou podle toho, k ãemu je specializovaná (Hogan, 1998). Tento základní
posun ve schématu se mÛÏe zdát pfiekvapivû jednoduch˘m a efektivním, ale jedná se
jen o pominutí nûkter˘ch faktÛ. Pokud bychom základní schéma dle obrázku otoãili
o 90 stupÀÛ a propojili kaÏdou vrstvu s vstupy i v˘stupy, ztratí se nám nûkde procesy,
které informaci pfiedzpracovávají. KaÏdá vrstva, která by chtûla pracovat se vstupní
informací na netriviální úrovní, by v sobû musela obsahovat moduly, které by ji
umoÏnily pfievod informace na takovou formu, se kterou dokáÏe pracovat (interní
reprezentaci) . To znamená, Ïe kaÏdá vrstva by obsahovala sloÏité mechanismy práce
s interními reprezentacemi, ãímÏ by se tato architektura stala robustní a redundantní,
ale jiÏ na úkor pomûru velikost/efektivita. Pfiístup horizontální vrstev totiÏ vertikální
pfiístup (ãití/vnímání/my‰lení/plánování/konání) nefie‰í, pouze jej zamlãuje. Vût‰inou
pracuje jen s jednoduch˘mi reflexními vrstvami (napfiíklad vrstva, která zaji‰Èuje styk
s pfiedmûtem), u které není tfieba interní reprezentace ãi sloÏit˘ch procesÛ zpracování.
Se stoupajícími nároky na inteligenci systému je ale nutné pfiidávat vrstvy, které jiÏ
nedokáÏi svou ãinnost provozovat pouze na základû reaktivity, ale potfiebují pro svou
ãinnost lep‰í vybavení. Tvrdit, Ïe komplexnûj‰í vlastnosti systému budou emergovat
nekoordinovanou souãinností velkého poãtu vrstev, je nereálné.
Pokusem o posunutí v oblasti subsumpãní architektury je imunologick˘ pfiístup.
Samotn˘ název ukazuje, jak˘m smûrem se badatelé vydali. Jedná se o vytvofiení
metafory k lidskému imunitnímu systému. Teoretické moÏnosti pfiesahující rámec této
aplikace spoãívají v pfiedpokladu , Ïe jednotlivé moduly jsou aktivní, stejnû jako protilátky reagující na pfiítomnost antigenu v organismu. Moduly jsou opût základními
funkãními jednotkami, ale nejsou pasivními ve smyslu oãekávání zpracovatelné informace. Neustále mapují senzorické vstupy i ostatní moduly na pfiítomnost informace,
kterou patfií do jejich kompetence. V pfiípadû stimulace z prostfiedí vznikne situace,
kdy je posloupností zpracování informace vytvofiena unikátní kooperace modulÛ,
jelikoÏ aktivní moduly podle své funkce samy identifikují podnûty objevující se na
senzorech (filosofie mysli nabízí metaforu senzorického projekãního plátna, na které
se dívá místo homunkula aktivní spoleãenství modulÛ). Problematické je fiíci, jak lze
tuto aktivitu modulÛ definovat. Pfiedstavíme-li si zjednodu‰en˘ model agenta
v prostfiedí jako kauzální posloupnost prostfiedí-senzory-moduly-chování-prostfiedí,
pak mÛÏeme fiíci, Ïe kauzální posloupnost u subsumpãní architektury je následující.
Pfiíãinou je prostfiedí, které vysílá informace o sobû na senzory, které je vysílají v‰em
vrstvám a modulÛm v nich. Modul, kter˘ dokáÏe informaci nejlépe zpracovat potlaãí
ãinnost ostatních modulÛ (pokud je to nutné) a provede v˘poãet, kter˘ vede k v˘bûru
chování. Neobsahuje interní reprezentaci (pamûÈ) a tak provádí algoritmus pfiifiazení
chování vÏdy stejnû.
V pfiípadû imunologického pfiístupu jsou vrstvy mapující vstup aktivní. To znamená,
Ïe systém je schopen ovlivÀovat to, co bude vnímáno (v psychologii bychom fiekli
anticipuje). JelikoÏ kauzální proces prostfiedí-senzor-modul je ireversibilní, mÛÏeme
pomocí anticipace vytvofiit chování nezávisle na prostfiedí. Tento proces je moÏn˘
pouze v pfiípadû, Ïe je modul vybaven schopností pamûti, která mu umoÏní uchovat
znalost o prostfiedí ãi o svém stavu i v nepfiítomnosti podnûtu. Nelze ale fiíci, Ïe by
aktivita vypl˘vala pouze z pfiítomnosti pamûti. Pfiístup se ponûkud vymyká z kategorie
ãistû reaktivních agentÛ.
Ve své podstatû je Brooksova subsumpãní architektura roz‰ífiením klasické von neumannovské architektury o paralelismus (Pfeifer&Scheier, 2001). Jednoduché poãítaãe
pracují vedle sebe, v‰echny mají stejné vstupy a mohou pracovat nezávisle na sobû
nebo vyuÏívat informace od ostatních. Architektura ov‰em nenabízí moÏnost emergence kooperativního chování ze dvou dÛvodÛ. Propojení mezi vrstvami není redundantní, takÏe v pfiípadû potfieby komunikace je moÏno pouÏívat jen spojení, která byla
dopfiedu naplánována designérem jako nezbytná pro dané prostfiedí. Tím, Ïe nová
spojení mÛÏe provést pouze designér, architektura nenabízí v˘hody redundantního
propojení neuronov˘ch sítí.
7.6
Multiagentní pfiístup
Vedle centralizovan˘ch systémÛ (s bázemi pravidel a faktÛ a inferenãním mechanismem) existuje od poãátku 80. let i my‰lenka rozdûlení systému na moduly, které mezi
sebou kooperují podle pfiesnû vytyãen˘ch pravidel. Jednoduché agenty se seskupují
do agentur, které mohou produkovat sloÏitûj‰í jednání neÏ jednotliví agenti.
Tato my‰lenka vychází ze societní teorie mysli Marwina Minského. Ten se domnívá,
Ïe se mysl skládá z jednoduch˘ch agentÛ, ktefií se sdruÏují do agentur (jedná se pfienesení my‰lenky tvorby agenta sdruÏováním jednotliv˘ch modulÛ). Jsou to p-agenty a
a-agenty (percepce a akce). Mezi nimi jsou spoje nûkolika typÛ: p-spoje (zpracovávají
percepce), a-spoje (vykonávají akce) a k-spoje (pfiená‰ejí znalosti).
Obr. 27 Architektura societní teorie mysli
Z prostfiedí se vnímají vzruchy. Ty se vedou pomocí p-spojÛ a jsou zpracovávány
p-agenty. V okamÏiku, kdy se informace dostane do takového p-agenta, kter˘ ji umí
zpracovat, je pfienesena k-spojením do pfiíslu‰ného a-agenta a dále vedena smûrem
"dolÛ" k a-agentu, kter˘ mûní nûkterou vlastnost prostfiedí.
Novinkou jsou právû k-spoje, znamenající zpÛsob nakládání a ukládání znalostí. Jsou
zaloÏeny na teorii knowledge lines (Minsky, 1986). PamûÈ pfii tomto typu ukládána
zaznamenává jen ãást procesÛ. Jeho následn˘m opakováním lze získat pfiesnûj‰í obraz
prostfiedí, ãi procesÛ v okolním prostfiedí.
Totální mentální stav – (TVAR,BARVA,VELIKOST) – v‰ichni patfiiãní agenti pro
jednotlivé vlastnosti jsou aktivováni.
âásteãn˘ mentální stav – (BARVA,TVAR) – jen nûktefií agenti jsou aktivováni.
Tento pfiípad umoÏÀuje ekonomick˘ zpÛsob zpracování informací. MÛÏe pfiejít
v totální, pokud je to organismem vyÏadováno (Minsky, 1986).
Tím je umoÏnûno spojení pamûÈov˘ch obsahÛ v nov˘ celek, jehoÏ vlastnosti jsou
emergentní a také znaãnû odli‰né od vlastnosti pÛvodních. Jedná se o optimální podmínky pro emergenci, tak jak o ni usilují nûkteré smûry UI. Tento typ ukládání pamûti
(tedy neúpln˘ obsah) mÛÏeme aplikovat v oblasti fie‰ení problému, rozhodování,
vytváfiení úsudku ãi anticipace. Pokud by se podafiilo tento model obhájit, lze jeho
pomocí vysvûtlit, proã se ãlovûk nefiídí striktnû logick˘mi pravidly, tedy ideálním a
k˘Ïen˘m stavem, kter˘ mu pfiisuzují logici.
Na základû takov˘ch poznatkÛ mÛÏeme spekulovat, Ïe fenomén fantazie je
jen vyuÏíváním pamûÈov˘ch obsahÛ v jejich ranném nebo dokonale konsolidovaném stádiu. Fantazie pracuje s obsahy, jejichÏ uloÏení umoÏÀuje více
stupÀÛ volnosti pfii jejich manipulaci.
8
PAMùËOVÉ SYSTÉMY
A REPREZENTACE ZNALOSTÍ
PamûÈov˘ systém je zafiízením, které je schopné ukládat informace a zpûtnû je vyvolat.
Napfiíklad neuronové sítû mohou fungovat jako asociativní pamûÈov˘ systém. Asociativní pamûÈ ukládá informace ve smyslu asociace a korelace s pfiedchozími informacemi. Velikou v˘hodou je schopnost kategorizace, jejiÏ simulace je u klasick˘ch poãítaãÛ obtíÏná. Pokud je systému prezentováno nûkolik podnûtÛ, podobn˘ch si v urãité
vlastnosti, kterou dokáÏe systém obsáhnout v nûkteré ze sv˘ch vah ãi souboru vah,
vzniká schopnost tvorby tfiídy a také schopnost rozpoznat nov˘ neznám˘ objekt, kter˘
má podobnou vlastnost (Caudill&Buttler, 2000).
Mnoho asociativních pamûtí je uloÏeno v distribuované podobû. ZáleÏí na zpÛsobu
reprezentace, ale u neuronov˘ch sítí b˘vá vût‰inou pouÏíváno vah propojení jako
pamûÈov˘ch atomÛ, jejichÏ sloÏením vznikají vy‰‰í celky, které se dají interpretovat
jako reprezentace (Caudill&Buttler, 2000). Distribuovan˘m uloÏením informace
získává systém robustnost, jelikoÏ ztráta nûkolika spojÛ nevede ke kompletní ztrátû
uloÏené informace. Zdá se, Ïe tento typ pamûti je základní podmínou tvorby
inteligentního systému (Caudill&Buttler, 2000).
U klasick˘ch poãítaãÛ je problematické uloÏit informaci asociativnû. Souvisí to s pouÏívan˘mi metodami zpracování informace, ale také zpÛsobem zápisu. Do pamûti RAM
se ukládají informaci náhodnû a na pevn˘ disk také.(Caudill&Buttler, 2000). CoÏ znamená nev˘hody.
8.1
CAM
Mnozí badatelé pracující v oblasti case based reasoning (v˘zkum analogií) vypichují
dÛleÏitost úãelu a vybízejí k tomu, aby byly poãítaãové pamûti indexovány zpÛsobem,
kter˘ posiluje vyhledávání analogÛ podle momentálních cílÛ (Kolodner, 1993,s. 92).
Navrhují, aby se pro budování expertních systémÛ vyvinuly „obecnû aplikovatelné
indexující slovníky", které by se daly aplikovat pro v‰echny domény. Zda je takto
indexovaná i lidská pamûÈ lze rozhodnout jen psychologick˘mi experimenty (Thagard,
2001).
PamûÈ ãlovûka umoÏÀuje vybavit pouze ãást poÏadované informace, pfiiãemÏ následnû dochází i k vybavení podobn˘ch ãi doplÀujících informací. Tyto moÏnosti pamûÈ
RAM nenabízí. Proto se objevuje poÏadavek po novém typu pamûti, schopné ukládat
a pracovat s uloÏenou informací asociativnû. Zmínûné v˘hody nabízí obsahovû
adresovatelná pamûÈ - CAM (Konar, 1999). Ta ukládá a vyhledává uloÏená data podle
jejich obsahu. Nejjednodu‰‰ím pfiíkladem je databázov˘ systém, kter˘ pfiifiadí informacím místo v pamûti podle jejich blízkosti ãi podobnosti s pfiedchozími informacemi.
U klasick˘ch poãítaãÛ je realizace následující. Vstupní informace je rozbita pomocí
speciální funkce, jejímÏ v˘sledkem je hodnota, která urãí, kde bude tato informace
uloÏena (Caudill&Buttler, 2000). Konekcionismus realizuje obsahové uloÏení pamûti
právû díky asociativním moÏnostem neuronov˘ch síti. VyuÏitelnost pamûti CAM leÏí
v oblasti sémantiky. Pokud je informace v systému uloÏena formou reprezentace, která
obsahuje kontextové okolí, je takov˘ systém daleko lépe schopen vytvofiit si rámec pro
fie‰en˘ úkol nebo pracovat s neúplnou informací. Zda je model pamûti CAM dostaãující pro vznik „pochopení" prostfiedí systémem se ukáÏe v budoucnu. Setkáváme se i
s tvrzením, Ïe nestaãí pouze robustní forma uloÏení jedné modality, ale Ïe je tfieba
propojení vstupÛ více modalit do jedné reprezentace, aby systém dokázal pracovat
s obsahy prostfiedí.
8.2
Memory surface
Goldschlager ve svém modelu abstrahuje od vnitfiní struktury mozku a soustfieìuje se
pouze na dÛleÏité body této struktury a tok informací mezi nimi. Simuluje centrální
ãást mozku, naz˘vanou memory surface, která má na starost zpracování preprocesovan˘ch signálÛ z receptoru. Základní funkãní jednotkou modelu jsou sloupce, které
jsou spojeny v orientovaném grafu. Svou funkcí se nejvíce podobají impulzním perceptronÛm. Komunikace mezi sloupci probíhá formou sledu pulzÛ s promûnlivou
frekvencí podélnû váhov˘ch hran grafu. Nûkteré sloupce mají spojení na pfiedzpracované vjemy – reprezentují tak vstup do memory surface. KaÏd˘ sloupec je charakterizován komunikaãními a pamûÈov˘mi charakteristikami. VÏdy, kdyÏ do sloupce dorazí
pulz, je dále vyslán párovou hranou k té, kterou pfii‰el. Pulzy pfiicházející vstupními
hranami se bûhem krátk˘ch ãasov˘ch úsekÛ sãítají a nakonec je vyprodukován sled
pulzÛ s frekvencí f, která je pfiímo úmûrná získané sumû. PamûÈová charakteristika
sloupce je záznamem jeho komunikaãních zmûn. Komunikaãní parametry podléhají
krátkodobé a dlouhodobé dynamice – z krátkodobého hlediska dochází k „únavû",
tedy ke sniÏování v˘stupní frekvence pfii del‰í stimulaci. Dlouhodobá pamûÈ je
zabezpeãena zmûnami vah aktivních vstupÛ (Kozej, 2004).
Reprezentace znalostí je v modelu povrchu pamûti (memory surface) realizována
pomocí konceptÛ sloÏen˘ch z obrazcÛ (patterns). KaÏd˘ obrazec je tvofien mnoÏinou
sloupcÛ a jejich (relativních, normalizovan˘ch) aktivit, které vyjadfiují dÛleÏitost
daného sloupce v obrazci. „¤íkáme", Ïe obrazec je aktivní silou s, jestli se jeho
momentální aktivita li‰í od pfiedchozí s-násobnû (Kozej, 2004)..
Tento typ architektury je vylep‰enou verzí neuronov˘ch sítí. Tam je komunikace mezi
neurony reprezentována váhami propojení mezi neurony, ale komunikace probíhá
pouze na úrovni pálí/nepálí. Informace (ãi pamûÈ) systému tak vzniká na úrovni sítû
nebo ãásti, která je aktivní bûhem podnûtu. Memory surface v‰ak nabízí vznik informace na úrovni jednoho neuronu. Je to zpÛsobeno právû pulzním charakterem aktivity neuronu, nabízející moÏnost zakódovat informaci do sledu pulzÛ. Také moÏnost
rozdíln˘ch frekvencí pulzÛ umoÏÀuje kvalitativní zmûnu této architektury oproti klasické neuronové síti.
8.3
Mentální reprezentace
Jedna z moÏností, kterou lze rozdûlit pfiístupy v oblasti zpracovávání informací,
pouÏívá jako kriterium zpÛsob vnímání a následné uloÏení informace v pamûti
inteligentního systému, respektive její pfiítomnost ãi nepfiítomnost. Je zfiejmé, Ïe mezi
inferenãním a ekologick˘m pfiístupem k percepci existují rozdíly. Podle jednoho je
vnímání nauãen˘m odhadem, podle druhého získávání informací. Z filosofického
hlediska je inferenãní pfiístup velmi blízk˘ idealismu, tedy tvrzení, Ïe percepce jsou
my‰lenky formované myslí, která vnímá okolní svût. Ekologick˘ pfiístup má naopak
blízko k realismu ãi prezentacionismu, ve kterém jsou vjemy svázány pfiímo
prostfiedím (Sternberg, 1999). JiÏ jsme se zmínili o smûru prezentacionistÛ v kognitivních vûdách. Jeho zastánci argumentují, Ïe ve‰keré potfiebné informace (tedy informace o jevech i o jejich v˘znam a vazbách) jsou obsaÏeny v prostfiedí a systém musí
b˘t pouze vybaven mechanismy pro jejich zpracování, aby byl povaÏován za
inteligentní. Tvrdí, Ïe inteligence je jiÏ obsaÏena v samotném prostfiedí zpÛsobem jeho
prÛbûhu (omezeného napfiíklad fyzikálními zákony). Nedostatky pfiístupu se zaãínají
objevovat aÏ pokud se snaÏíme vysvûtlovat nûkteré schopnosti ãlovûka, které pro své
vysvûtlení pouÏívají operace s nepfiítomn˘mi pfiedmûty ãi jevy svûta, popfiípadû jejich
deformaci, kombinace nad úrovní fyzikálních zákonÛ shrnutelné pod pojmy fantazie
a kreativita.
Druh˘ pfiístup, kter˘ na‰el ‰irokou odezvu zvlá‰tû v kognitivní psychologii, se naz˘vá
reprezentacionismus. Jak jiÏ název napovídá, tento smûr pfiipou‰tí moÏnost vytváfiení
kopie reality v pamûti inteligentních systémÛ. PouÏití slova kopie by ale bylo velmi
nepfiesné. Nejedná se o pouhé otisky, ale o tvorbu samostatn˘ch aktivních celkÛ, které
jsou schopny v sobû obsáhnout a postihnout vût‰í ãást reality neÏ jeden pfiedmût ãi jev
(jako v pfiípadû kopie). Mentální reprezentace nejsou obrazem reality, jsou vnitfiní
reprezentací moÏnosti (Dupoux, 2001). Právû díky schopnosti b˘t univerzálním zástupcem skupiny jevÛ ãi objektÛ (stejnû jako tfiída ãi kategorie) je mentální reprezentace povahy abstraktní a hypotetické. Její oprávnûnost vychází z jednoduch˘ch zji‰tûní.
Pokud bychom mûli reprezentovat kaÏdou ãást ãi jev reality jako samostatn˘ a unikátní prvek, kter˘ má specifické vlastnosti, musel by reprezentaãní systém mít kapacitu,
která by pfiekraãovala moÏnosti operovat s nimi. JiÏ v lidském pamûÈovém systému
nacházíme základní pfiedpoklady pro tvorbu úspor v procesu reprezentace, které
nejen umoÏÀují zpracovávat a operovat s obrazem (reprezentací) reality v abstraktní
rovinû, ale i schopnost tvorby a uÏívání jazykového kódu pfii práci s reprezentacemi.
Pfiedstava, Ïe je kaÏdá kopie reality uloÏena samostatnû, evokuje pfiedstavu ponûkud
zvlá‰tního jazyka, mÛÏeme-li ho v této úrovni je‰tû takto naz˘vat, pokud by se
takovém pfiípadû vÛbec vytvofiil. To je ale pouze rovina spekulace.
Asi nejlep‰í knihou o mentálních reprezentacích v kontextu kognitivních vûd je pfiehledová publikace Milu‰e Sedlákové z roku 2004, která zpracovává problematiku
s podrobností, s jakou se jí autorka vûnovala cel˘ profesní Ïivot.
JiÏ jsme se zmínili o mentální reprezentaci v souvislosti s lidsk˘m kognitivním
aparátem. Jak je to ale u umûl˘ch systému? MÛÏe nám tento zpÛsob uloÏení informace pomoci?
V obecné rovinû urãitû ano. V˘hody, které pfiiná‰í pro lidsk˘ kognitivní aparát, platí0
v oblasti simulace dvojnásob. V˘poãetní a pamûÈové schopnosti jsou u umûl˘ch systémÛ daleko omezenûj‰í, neÏ u ãlovûka (UI nahrazuje nedostatky hrubou v˘poãetní
silou). Právû moÏnosti reprezentace (abstrakce od jednotlivin reality) a její pouÏitelnost v následném procesu kategorizace, generalizace apod. ãiní mentální reprezentaci
dostateãnû efektivní a univerzální pro oblast simulace.
Mentální reprezentace není pouh˘m uloÏením surov˘ch informací z prostfiedí (transdukovan˘ch pomocí libovolné kvantifikace senzorÛ). Jedná se o sofistikovanûj‰í
formu. Reprezentace musí b˘t uloÏeny v takové podobû, aby zpÛsob, kter˘m jsou
vyjádfieny, byl plnû pochopiteln˘ pro systém, kter˘ je zpracovává. Kromû toho musí
splÀovat zpÛsob uloÏení (kódování) je‰tû podmínku vyuÏitelnosti. Mûl by obsahovat
takové typy vyjádfiení, které co nejvíce korespondují z mechanismy, které jej vyuÏívají. V psychologii i umûlé inteligenci je tento poÏadavek pouze vysnûn˘m cílem.
Nedostatek informací o mechanismech pracujících s reprezentacemi nám neumoÏní
navrhnout zpÛsob uloÏení reprezentace vhodnou formou.
Tab.3 ZpÛsoby nazírání mentální reprezentace
V souãasn˘ch teoriích mentální reprezentace se setkáváme s potfiebou definovat
v mentální reprezentaci také prvky, které ji nekonstituují, ale naopak, jsou jejím protikladem. Pokud je to my‰leno pouze jako negace vlastností, které reprezentace
obsahuje (logické NOT), vystaãili bychom si pfii tvorbû reprezentace pouze s formální logikou. Proces vymezení je ale sloÏitûj‰í. Chceme-li do reprezentace vãlenit i prvky,
které vedou k její nepfiítomnosti, potfiebujeme k tomu více neÏ formální aparát.
Kontext a obsah jsou opût nutnou souãástí pfii jejím vymezování.
Nûkteré pfiístupy ke zkoumání mentálních reprezentací se ji snaÏí izolovat a zkoumat
samostatnû. Pokud ale zkoumáme mentální reprezentaci samostatnû, mimo rámec
okolního svûta, rezignujeme tím na neisserovsk˘ cyklus vnímání ãi brunswikovskou
ãoãku, jeÏ v sobû okolí obsahují. Reprezentace je vÏdy vázána a vychází ze svého základu - prostfiedí. Pokud tento fakt pomineme a zkoumáme ji jako souãást uzavfieného
systému, mÛÏe nab˘vat takov˘ch forem a vlastností, které pfii zpûtné pouÏití v reálném
prostfiedí nejsme schopni obhájit (napfiíklad Winogradovo SHRDLU).Dal‰ími tématy a
otázkami, kter˘mi se pfii zkoumání mentální reprezentace mÛÏeme setkat jsou: Existuje mentální reprezentace emoce? Existují opravdu mentální reprezentace prvního fiádu?
Jedná se o uvûdomûní bez porozumûní?
Jaká je tedy vyuÏitelnost mentálních reprezentací pro simulaci inteligence?
AÈ je to dáno zãásti tím, Ïe vze‰la z psychologie, ãi její samotnou kvalitou, mentální
reprezentace se svou strukturou nejvíce blíÏi takovému zpÛsobu uloÏení informace
v pamûti, která pfii jejím zpûtném pouÏití umoÏní rekonstrukci kontextu a v˘znamu. Je
tfieba postoupit v oblasti tvorby umûl˘ch systémÛ (vhodnou volbou architektur), které
dokáÏí plnû a neredukcionisticky vyuÏit potence, jeÏ tento pamûÈov˘ systém (ãi spí‰e
zpÛsob uloÏení znalosti) nabízí.
8.4
Rámce
¤e‰ení problému reprezentace poznatkÛ bylo ve v˘znamné mífie aktualizováno úvahou, kterou Minsky pod názvem Matter, Mind, and Models (Hmota, mysl a modely)
publikoval roku 1968 v jím sestaveném kniÏním sborníku Semantic Information Processing (Zpracování sémantické informace). Sborník je prvním publikaãním v˘stupem
problematizujícím pÛvodní spoléhání v˘zkumníkÛ v oblasti umûlé inteligence
na „hrubou sílu" stále v˘konnûj‰ích poãítaãÛ a na hypotézu inteligence jako jediného
integrálního principu, fiídícího (lidské) jednání (Minsky, 1968). Tento posun vedl ke
hledání specifick˘ch reprezentaãních struktur zapamatování poznatkÛ a specifick˘ch
souborÛ procedur pro jednotlivé intelektuální aktivity (napfi. porozumûní pfiirozenému
jazyku, plánování postupÛ, fie‰ení problémÛ, vidûní apod.).
Za vyvrcholení snahy (která dominovala umûlé inteligenci v 70. letech minulého století) najít pokud moÏno univerzální a efektivnû zpracovatelné struktury reprezentace
poznatkÛ, mÛÏeme pokládat návrh tzv. rámcové (frame) reprezentace. Minsky s touto
ideou pfii‰el v roce 1974, kdy navrhl mnohem komplexnûj‰í, tzv. tvarovou (gestalt)
psychologií motivované chápání toho, co jsou a jak jsou asi v mysli organizovány poznatky.
Projevem snahy o vytvofiení obecné reprezentace, pouÏitelné pro ‰irok˘ okruh problémÛ, je tzv. teorie rámcÛ (theory of frames). Její základní my‰lenkou je, Ïe vstoupímeli do nové situace, vybereme z pamûti takovou strukturu, která jí odpovídá (podle
pfiedchozí zku‰enosti) a srovnáme ji s aktuálnû vníman˘m svûtem. Rámce jsou tedy
datové struktury reprezentující znalosti pomocí typick˘ch pfiíkladÛ.
Obr. 28 Sémantická síÈ - pfiíklad
Reprezentace znalostí zaloÏená na rámcích se povaÏuje za alternativu reprezentace
sémantick˘mi sítûmi (viz. obrázek). Zdá se v‰ak, Ïe pojem sítû je natolik univerzální,
Ïe by bylo moÏno na jeho základû teorii rámcÛ vybudovat. V pÛvodní formulaci Minského se rámec povaÏuje za základní, prototypovou strukturu, uloÏenou v pamûti a
vytváfiející jakousi „kostru". Rámec je tedy charakterizován jako datová struktura
k reprezentaci stereotypní situace (jako je napfi. pobyt v jistém druhu ob˘vacího pokoje ãi náv‰tûva veãírku k oslavû narozenin). Ke kaÏdému rámci je pfiipojeno nûkolik
druhÛ informací: nûkteré se t˘kají toho, jak rámce pouÏít, jiné toho, co se dá oãekávat jako pfií‰tí událost, a dal‰í zase informují, co dûlat, nejsou-li oãekávání splnûna.
Obr. 29 Rámec - pfiíklad
Omezení pouÏití rámcÛ se objevuje v kaÏdém prostfiedí, kde dochází k dynamick˘m
zmûnám. Jedná se o zachycování prvkÛ a jejich vztahÛ v prostfiedí a rozpoznávání
jejich dÛleÏitosti ve vztahu k pozorovateli. U ãlovûka jsou za tyto úkoly odpovûdné
mechanismy pozornosti, vûdomí, orientaãnû pátrací reflex, motivace a mnoho dal‰ích.
U umûlého systému v‰ak máme k dispozici velmi málo prostfiedkÛ jak tyto procesy
nasimulovat. Janrelt rozdûluje problém tvorby rámcÛ na dva aspekty. Prvním je problém predikce, tedy schopnosti rozli‰it, co je pro danou situaci relevantní a co ne.
Druh˘m je kvalifikaãní problém, kter˘ urãuje podmínky, za kter˘ch mÛÏe urãitá akce
nastat ãi nikoliv (Janrelt,1987). Nûkteré aspekty tvorby rámcÛ ãi definování toho, co je
scéna, mohou vést k omezením, které nám neumoÏÀují pfiechod mezi jednotliv˘mi
úrovnûmi detailu v prostfiedí. Pokud pouÏíváme urãité atomy vnímání (slova, ãáry,
objekty, geony, scény), narazíme na problém, pokud se snaÏíme reprezentovat niωí
ãásti (viz Nejmen‰í jednotky) ãi vy‰‰í celek jako je scéna. UplatÀovan˘m procesem pfii
pfiechodu do vy‰‰ích úrovní je generalizace ãi indukce. V tomto procesu musí
docházet k redukci informace, ãi úrovnû detailÛ základních objektÛ ve scénû. Pokud
postupujeme metodou zobecÀování, musí docházet i k redukci jednotliv˘ch
sémantick˘ch v˘znamÛ tûchto atomÛ. Pracujeme-li pak s celou scénou, jak je moÏné,
Ïe nám redukovan˘ v˘znam stále staãí k pochopení, ãi manipulaci s touto scénou?
Pokud bychom abstrahovali stále více, ãasem pÛvodní objekt ztrácí zcela svÛj v˘znam
v nové „makroscénû". Fascinující je zpÛsob generalizace u ãlovûka. Má ve vût‰inû pfiípadÛ dostateãné mnoÏství v˘znamov˘ch informací, aby mohl provést my‰lenkovou
operaci. Klíãovou se jeví schopnost mít v pamûti uloÏeny i pfiedchozí jednotlivosti,
skrze které do‰lo ke generalizaci. V procesu indukce nám tato v˘hoda umoÏní zvratnost operace (pfiechod od indukãního v˘vodu zpût k informacím, které tvofiily podklad pro indukci). Pfii dedukci je uchovávání star˘ch informací spojeno s monotonií
(která byla zmínûná jako neefektivní vlastnost inteligentního systému). Pfiedchozí
v˘tky ohlednû monotónnosti umûl˘ch systémÛ tedy v popisovaném procesu nepÛsobí
jako omezení, ale jsou spí‰e usnadnûním pro jeho následnou zvratnost. Jak bylo ale
zmínûno v˘‰e, lidská mysl pouÏívá spí‰e pravidla mentální logiky, která je zaloÏena na
v˘znamu, takÏe ji v této úrovni nemÛÏeme srovnávat s ãinností umûl˘ch systému
zaloÏen˘ch syntakticky.
8.5
Bayesianské sítû
Jednou ze základních v˘hod Bayesiansk˘ch sítí (které jsou vylep‰enou variantou sítí
sémantick˘ch), zpÛsobenou jejich kauzální organizací, je schopnost reprezentovat a
reflektovat zmûny v konfiguraci. KaÏdá lokální rekonfigurace mechanismÛ v prostfiedí
mÛÏe b˘t pfieloÏena pouze s minimálními nároky na modifikaci sítû jako isomorfická
rekonfigurace topologie sítû. Chceme-li ze sítû funkãnû odstranit jeden objekt
(reprezentovan˘ jedním uzlem), staãí zru‰it v‰echna spojení, která k nûmu vedou (Wilson&Keil, 1999). Pokud ale potfiebujeme spojení obnovit, jak budeme vûdût, Ïe tento
uzel je stále souãástí sítû? Schopnost flexibility je ãasto uvádûna jako základní vlastnost, která oddûluje uvaÏující agenty od reaktivních a umoÏÀuje uvaÏujícím zvládat
nové situace kontinuálnû, bez potfieby pfietrénování nebo adaptace.
Obr. 30 Bayesianská síÈ – pfiíklad
Bayesianské sítû mohou b˘t pouÏity pro modelování termodynamiky pfiestav díky
tomu, Ïe nahradí tradiãní pravdûpodobnosti nestandardními, které se dokáÏí
nekoneãnû blíÏit jedniãce nebo nule (Goldszmidt&Pearl, 1996)
9
TVORBA V¯ZNAMU
9.1
Jazyk
Následující kapitola mÛÏe pÛsobit ponûkud heterogennû. Samotné téma jazyka je v‰ak
svou povahou tak rÛznorodé, Ïe je nemoÏné jej uchopit zpÛsobem, kter˘ by jej
dokázal plnohodnotnû popsat. Pokus o ucelené vyjádfiení jeho struktury a moÏn˘ch
funkcí, byÈ jen pro oblast simulace by byl mnohovrstevnat˘, proplétající se, sebeodkazující a v‰e, jen ne jednoduch˘. I pfiesto bych rád nûkteré vlastnosti jazyka zmínil,
pro jeho klíãovou úlohu v oblastech, kter˘mi se zab˘vá tato práce. Následující pasáÏe
na sebe plynule nenavazují, jedná se spí‰e o soubor postfiehÛ, které mají jedno
spoleãné téma.
Jazyk je organizován jako hierarchie se zvy‰ující se komplexitou. Objevují se nová
pravidla v˘znamu a vztahy, které nemohou b˘t vyjádfieny jako vlastnosti elementÛ, jeÏ
tvofií niωí úrovnû, ale vycházejí z toho, jak jsou tyto elementy propojeny (Hogan,
1998). Pfiíkladem mÛÏe b˘t genetick˘ kód - jedin˘ triplet nedokáÏe popsat stavbu
ãlovûka, ale celá DNA uÏ ano.
Pokud byl jazyk utváfien jako komunikaãní nástroj mezi subjekty, nemÛÏeme jej pouÏívat jako objektivní hledisko, nebo jako vûc samu o sobû.
Souãasné pouÏívání jazyka (libovolného) jako zpÛsobu kódování programÛ ãi zpÛsobu komunikace mezi jednotliv˘mi stroji se setkává s neschopností zachycení v˘znamu pouh˘m kódováním do jazyka. Opût naráÏíme na arbitrárnost jazyka a potfiebu referenãního kódování pro vznik v˘znamÛ. Je známo, Ïe ãlovûk dokáÏe ãíst knihy a
rozumût jim, i kdyÏ nejsou doplnûny referenãním kódem (napfiíklad obrazem).
U umûlého systému tato moÏnost neexistuje. âlovûk má moÏnost si pfii ãetbû vytvofiit
obrazov˘ prÛbûh (kód) pfieãteného textu a skrze nûj pochopit v˘znam. „Obrazová
pamûÈ" pouÏívaná bûhem ãtení byla získána je‰tû pfied samotnou ãetbou (osobní historie). U umûlého systému se nesetkáváme s tvorbou referenãního kódu, kter˘ by
umoÏnil vznik v˘znamu. Podrobnûji o tom hovofií kapitola o ukotvení symbolÛ.
Pokud je okolní svût prostorov˘, není moÏné vytvofiit jeho prostorovou reprezentaci
pouze jazykov˘m kódem, kter˘ je neprostorov˘, tedy neumoÏÀuje vûrnû zachytit prostorové vztahy. Pomoci mÛÏe matematika, která dokáÏe nûkteré aspekty prostoru a
hmoty kvantifikovat, ãi najít funkãní souvislost (komplexní kauzální souvislost), ale
jestliÏe popí‰eme vûci kauzálnû, potfiebujeme znát vÏdy poãátek kauzality a tím
extrémnû zatûÏujeme reprezentaãní mechanismus. Také nemÛÏeme kauzálnû zachytit
vûci, jejichÏ kauzální historii neznáme. Matematika (ãi jiná formalizace) je nevhodná,
pokud potfiebuji popsat rozmístûní skfiíní ve svém pokoji, jehoÏ kauzální historie je pro
mû neznámá. I kdyby mi byla známa, bude nad mé v˘poãetní schopnosti. Obrazov˘
kód v sobû takové prostorové vztahy a vlastnosti obsahuje. Jazykov˘ kód mÛÏe b˘t
aplikován aÏ na obrazov˘, mÛÏe umoÏnit jeho efektivní a ekonomickou redukci
pomocí fragmentování, ale zmizí tím prostorové vztahy.
Poãítaãová a lidská fieã nejsou stejné, proto se mohou jen velmi slabû ovlivÀovat.
Jde spí‰e o to, Ïe poãítaãová fieã je z lidské odvozená a je pouze jejím mal˘m v˘sekem,
takÏe moÏnosti ovlivÀování jsou moÏné pouze ve smûru lidská - poãítaãová (Boden,
1988).
Moderní lingvisté rozli‰ují mezi otevfien˘mi a uzavfien˘mi tfiídami slov. Otevfiené tfiídy
mohou b˘t doplÀovány, aniÏ by bylo tfieba mûnit základy jazyka, napfi. podstatná
jména (opût paralela s formální logikou). Uzavfiené tfiídy slouÏí k tvorbû gramatické
struktury, napfi. ãleny, pfiedloÏky. Jdou obtíÏnûji rozebrat na ãásti neÏ otevfiené tfiídy.
Lidé s mozkov˘m po‰kozením je obtíÏnûji rozli‰ují. Z hlediska poãítaãové teorie,
Chomsky a moderní lingvisté tvrdí, Ïe lidská mysl, jako v˘poãetní zafiízení, obsahuje
oddûlené moduly pro syntaktickou a sémantickou anal˘zu (Sternberg, 1999).
9.2
Ukotvení symbolÛ
Problém, kter˘ nebyl v historii kognitivní vûdy nikdy pfiíli‰ brán v potaz, ale kter˘ je
pro simulaci inteligence podstatn˘, souvisí s ukotvením symbolÛ. Situace je následující. Jak jiÏ bylo zmínûno v této práci mnohokrát, souãasné stroje zpracovávají své
informace na syntaktické úrovni. Vypl˘vá to z jejich algoritmického zpÛsobu operace
s daty. Pokud ale systém potfiebuje interagovat s reáln˘m svûtem a pomocí zpracování interních reprezentací „o nûm" provádût operace, které nejsou pfiedprogramované
(ãi netriviální), potfiebuje zvládnout i sémantickou úroveÀ symbolÛ. To znamená
soustfiedit se na problematiku tvorby v˘znamu. (Pfeifer&Scheier, 2001). Nûkolik základních informací o tvorbû v˘znamu jiÏ bylo nastínûno v kapitole o mentálních
reprezentacích. Problematika byla také zpracována samostatnû.
Harnad nabízí fie‰ení grounding problému vytvofiením mechanismu, rozdûlujícího
smyslové vstupy do tfiíd podle jejich dÛleÏit˘ch vlastností a pfiifiazující jim odpovídající
symboly v reprezentaci. Symboly by byly pojmenováním v˘znamÛ nesen˘ch
ve skuteãnosti tímto mechanismem. Jedná se opût o pfiístup, kter˘ se snaÏí postulovat
v˘znam tím, Ïe s ním explicitnû poãítá v mechanismech, které by mûly tento proces
umoÏnit.
Symboly a manipulace se symboly (které jsou ãastûji ukotvené pomocí tvaru neÏ
pomocí v˘znamu) b˘vají hodnoceny jako by v˘znam mûly, ãímÏ konstituují symbolick˘ systém jak jej známe. Takov˘ zpÛsob v˘kladu v‰ak nedefinuje symbolick˘ systém
jako vnitfiní reprezentaãní systém. Jedná se parazitick˘ zpÛsob ukládání symbolÛ.
MÛÏeme to pfiirovnat ke slovÛm v knize, která také nejsou vnitfiní reprezentací, ale
pouze médiem pro záznam symbolÛ, které nab˘vají v˘znamu aÏ tehdy, kdy jsou zpracovány na‰imi mozky bûhem ãtení. TakÏe pokud jsou symboly uloÏeny v systému jako
„vnûj‰í" reprezentace (oproti vnitfiní v na‰em mozku), nelze mu pfiisoudit v˘znam.
Kognice není pouhá manipulace se symboly (Harnad, 1990).
Obvykl˘m názorem symbolistÛ je, Ïe v˘znam symbolÛ je ustaven skrze „správné"
propojení symbolÛ se svûtem.
Ale ono „správné" propojení je jenom jinak nazvan˘ problém kognice, kter˘ je velmi
obtíÏnû fie‰iteln˘. Mnoho symbolistÛ také vûfií, Ïe kognice je pouhou manipulací
e symboly, která je uskuteãÀována skrze nezávisl˘ funkãní modul pfiipojen˘ na vstupní zafiízení, umoÏÀující mu „vidût" svût objektÛ, kterému odpovídají symboly. Opût
ponûkud vágní definice, která vychází z podivného principu „správného propojení" ãi
„vidûní", které je pro ustavení symbolÛ nutné, ale není blíÏe vysvûtleno. Jedná se
o podcenûní pfievodu prostfiedí do formy, která je zastupitelná pomocí symbolÛ, tedy
o zjednodu‰ování problému ukotvení (Harnad, 1990). Teorie sémantiky musí b˘t
zásadnû neredukcionistická, jelikoÏ tvorba obsahu je zaloÏená spí‰e na expanzi.
Pro podrobnûj‰í vysvûtlení ukotvení symbolÛ odkazuji na HarnadÛv ãlánek (Harnad,
1990).
9.3
Kontext
Dlouhodob˘m problémem v oblasti simulace inteligence je schopnost pochopení.
Tedy vytvofiení kontextu, znalost v˘znamÛ podnûtÛ a jejich souvztaÏnosti ãi kauzality
(Konar, 1999). Potfieba studia a vymezení kontextu v rámci kognitivní vûdy byla
dlouhou dobu odsouvána na vedlej‰í kolej.
V tfiicát˘ch letech se objevuje v Bartlettov˘ch pracích tématika individuálního a sociálního kontextu, kter˘m autor pfiikládá velkou dÛleÏitost. Trvalo ale dal‰ích 30 let, neÏ
se objevila potfieba zkoumání kontextu v práce Ulrika Neissera (1976). ZpÛsoby
nazírání kontextu se v pracích následujících autorÛ znaãnû li‰í. Vypl˘vá to ze samé
povahy termínu, jelikoÏ jeho vymezení je úzce spojeno se subjektivitou. První pokusy
jej zaãleÀovaly do mentálního rámce, kteroho jedinec vyuÏívá pfii své ãinnosti. KaÏd˘
jedinec proÏívá tento fenomén prostfiednictvím strukturované reprezentace sv˘ch
znalostí. PouÏívají se také v˘razy schéma nebo reprezentace.
Pokud patfiiãná soustava neexistuje, je nutné ji vytvofiit. VzrÛstá-li poãet znalostí, které
mají spoleãn˘ rámec, integrovan˘ do soustavy tûchto poznatkÛ, vzrÛstají i moÏnosti
práce s kontextem. BohuÏel v pfiípadû takového vymezení vzniká tendence ztotoÏnit
interní mentální soustavu se samotn˘m kontextem, coÏ by nebylo úplnû pfiesné (Sternberg, 1999). Kontext lze také nazírat jako fenomén, kter˘ se vyskytuje i mimo
inteligentní systém. Bronfenbernner hovofií o kontextu v rovinû prostfiedí ãi v rovinû
sociálních vztahÛ.
Bartlettov˘m pfiínosem pro studium lidské pamûti je odklon od nazírání pamûti jako
mechanického skladu informací. V jeho pojetí je pamûÈ dynamick˘m procesem, ve
kterém jsou pfiání, hodnoty, záÏitky a zku‰enosti jedince pouÏity tak, aby umoÏnily
vytvofiení v˘znamu pro pfiicházející stimul. Naz˘val tento proces „touhou po v˘znamu", ãímÏ chtûl zdÛraznit souãinnost pamûti s cel˘m kognitivním aparátem, umoÏÀující aktivní zpÛsob zpracování vjemÛ a tendenci organismu je vãlenit do své zku‰enosti. To spí‰e vypovídá o procesech kategorizace a generalizace, ale kontext s danou
problematikou úzce souvisí. Vymezení hranic kontextu z hlediska jeho zkoumání je
velmi obtíÏné. V˘zkumy, které slouÏí pro objasnûní kontextu jsou vût‰inou zamûfiené
spí‰e na vliv pozornosti, zpÛsoby indukce, popfiípadû fie‰ení problému a otázky kontextu jsou aÏ druhotné. Pfiitom existence kontextu je pfiedpokladem pro vznik v˘‰e
zmínûn˘ch jevÛ, které by bez nûj nemohly probûhnout v sémantické rovinû a nebylo
by tak moÏno zajistit vznik v˘znamu, potaÏmo zaãlenûní nov˘ch informací do stávajících (Sternberg, 1999).
Znám˘m experimentem, kter˘ ukazuje na odli‰nou tvorbu kontextu i pokud jedinci
pfiijímají stejné informace, je Prohlídka domu. Zadání instrukce ZO je rozdílné pouze
v jednom bodu. Jedna skupina je instruována tak, Ïe by mûla prohlíÏen˘ dÛm vykrást
a druhá koupit. V˘sledná struktura znalostí o domû vykazovala u obou skupin signifikantní rozdíly. Tento druh pfiijímání a zaãleÀování informací se naz˘vá znalostní
efekt. V˘zkum se dá ale opût zafiadit spí‰e mezi pfiíklady vlivu anticipace na proÏívání.
Fenomén kontextu se nám (z hlediska kognitivní psychologie) objevuje v kaÏdé fázi
cyklu vnímání, coÏ ãiní danou problematiku velmi obtíÏnû vymezitelnou (Sternberg,
1999).
Zajímav˘ je vztah mezi asociacemi a kontextem. Kritika asocianismu poukazovala na
to, Ïe pouh˘mi asociaãními zákony nejsme schopni popsat procesy abstraktního
my‰lení, operace a manipulace s reprezentacemi a kreativitu. Ov‰em otázka je poloÏe-
na ponûkud jinak. Asociaãní zákony slouÏí k ustavení struktury, popfiípadû zpÛsobu
uloÏení pamûÈov˘ch obsahÛ takov˘m zpÛsobem, kter˘ dokáÏe zachytit ãasové, prostorové a podobnostní vztahy. Tímto získáváme pouze v médiu uloÏené reprezentace
prostfiedí (v praxi napfiíklad pamûti CAM). Pokud chceme hovofiit o aktivním systému,
potfiebujeme také funkãní komponentu. A to je chybûjící ãást asocianismu. Pokud
bude systém doplnûn o operátory ãi mechanismy, které budou schopny zpracovávat
uloÏené reprezentace s pfiihlédnutím k jejich kontextu (tedy asociaãním vazbám),
vytváfiíme tak systém, mající schopnosti (sporná je kreativita), které jsou ãistému asocianismu upírány a které vedou k ustavení kontextovû orientovaného systému. Sporná
zÛstává otázka, zda je pamûÈ zaloÏená na asociacích schopná splnit poÏadavky
ukotvení symbolÛ. DÛleÏité pro práci operátorÛ je vytváfiet vazby a vzájemnû si vymûÀovat informace (paralelismus) bûhem práce s reprezentacemi. I pokud pracujeme s reprezentacemi ve formû asociací, neznamená to automaticky, Ïe kontext bude vznikat na vy‰‰ích
abstraktních úrovních, protoÏe je nutné projít procesem generalizace, kde je tfieba kontext
ustavit znovu, jelikoÏ získáváme kvalitativnû nové reprezentace.
ZÁVùR = SÉMANTIKA
Jako ãervená nit se vine celou touto prací jedno stûÏejní téma, poukazující na zásadní nedostatek pfii tvorbû inteligentních systémÛ. Ve v‰ech z probíran˘ch pfiístupÛ se
objevuje poÏadavek, aby systém, vytvofien˘ na jeho základech, obsahoval schopnost
„porozumût" prostfiedí, ve kterém se pohybuje. Mnohokrát se badatelé, zastávající ten
ãi onen pfiístup, snaÏili vytvofiit architektury a mechanismy rÛzné úrovnû sloÏitosti, ale
pokaÏdé mÛÏeme o v˘sledku fiíci, Ïe je nedostaãující pro plnohodnotné napodobení
obecné schopnosti inteligence.
Jedním ze zámûrÛ této práce bylo prozkoumat dané pfiístupy právû z hlediska jejich
moÏností a limit pfii simulaci inteligence. Nutno fiíci, Ïe v˘sledky jsou stále uspokojující pouze v rovinû simulace speciálních schopností.
V budoucnu mÛÏe b˘t perspektivní cestou pokus o tvorbu architektury a mechanismÛ, umoÏÀujících umûlému systému moÏnost inteligentnû interagovat s okolním
prostfiedím bez nutnosti zásahu svého tvÛrce. Takov˘ systém nemÛÏe b˘t pouze
mechanick˘m manipulátorem se vstupy prostfiedí, ale naopak, mûl by obsahovat
schopnost vytváfiet si reprezentaãní systém, kter˘ je mu vlastní a zachovává dostateãnou míru shody s prostfiedím, v nûmÏ se pohybuje. Mít moÏnost vytváfiet v˘znam
prostfiedí, chápat obsah, vnímat svût sémanticky.
Tato práce mÛÏe slouÏit jako dobr˘ odrazov˘ mÛstek pro dal‰í studium problematiky
simulace inteligence. Obsahuje shrnutí základních poznatkÛ, umoÏÀujících lep‰í orientaci v oblasti kognitivních vûd. Pokud to bude moÏné, autor této práce by se rád
vûnoval problematice i nadále a smûfioval své pfií‰tí studium právû do oblasti tvorby
v˘znamu, do oblasti sémantick˘ch umûl˘ch systémÛ.
LITERATURA
Ashby, W. R. (1956). An Introduction to Cybernetics. London: Methuen Press.
Barrow, J. D. (1996). Teorie v‰eho. Praha: Mladá fronta.
Boden, M. (1977). Artificial intelligence and natural man (2nd ed.). Cambridge, MA:
MIT Press.
Boden, M. (1988). Computer Models Of Mind. Cambridge: Cambridge University Press.
Braitenberg, V. (1984). Vehicles: Experiments in synthetic psychology. Cambridge, MA:
MIT Press.
Brustoloni, Jose C. (1991). Autonomous Agents: Characterization and Requirements
(Carnegie Mellon Technical Report CMU-CS-91-204). Pittsburgh: Carnegie Mellon
University.
Caudill, M., &Butler, C. (2000). Naturally intelligent systems (5th ed.). Cambridge: MIT
Press.
Crane, T. (2002). The Mechanical Mind: A Philosophical Introduction to Minds,
Machines and Mental Representation. Harmondsworth: Penguin Books.
Dupoux, E. (2001). Language, Brain and Cognitive Development: Essays in Honor of
Jacques Mehler. Cambridge, MA: MIT Press.
Franklin, S.,&Graesser A.(1996) Is it an Agent, or just a Program?: A Taxonomy for
Autonomous Agents. In Proceedings of the Third International Workshop on Agent
Theories, Architectures, and Languages. London: Springer-Verlag.
Gazzaniga, M., Ivry, R., & Mangun, G. (1998). Cognitive Neuroscience: The Biology of
the Mind. New York: W.W. Norton and Co.
Goldszmidt, M.,&Pearl J.(1996) Qualitative probabilities for default reasoning, belief
revision, and causal modeling. Artificial Intelligence, 84, 57-112.
Greenspan, S. I. (1996). The growth of the mind and the endangered origins of intelligence. Reading, MA: Addison-Wesley.
Harnad, S. (1990). The Symbol Grounding Problem. Physica D, 42, 335-346.
Haugeland, J. (1997). Mind Design II: Philosophy, Psychology, Artificial Intelligence
(2nd ed.). Cambridge, MA: MIT Press (A Bradford Book).
Havel, I. M. (2001). Pfiirozené a umûlé my‰lení jako filosofick˘ problém. In Mafiík, O.
(Ed.). (2001). Umûlá Inteligence (3). Praha: Academia.
Hayes-Roth, B. (1995). An Architecture for Adaptive Intelligent Systems. Artificial Intelligence: Special Issue on Agents and Interactivity, 72, 329-365
Hendriks-Jansen, H. (1996). Catching ourselves in the act: Situated activity, interactive
emergence, evolution, and human thought. Cambridge, MA: MIT Press (A Bradford
Book).
Hofstadter, D. R. (1999). Gödel, Escher, Bach : an eternal golden braid. New York :
Basic Books.
Hogan, J. P. (1998). Mind Matters: Exploring the World of Artificial Intelligence. New
York: Del Ray.
Janlert, L. E. (1987). Modeling change: The frame problem. In Z. W. Pylyshyn
(Ed.).(1987) The robot's dilemma: The frame problem in artificial intelligence. Norwood, NJ: Ablex.
Johnson-Laird, P.N. (1980). Mental Models in Cognitive Science. Cognitive Science, 4,
71-115.
Jonák, Z. (2000). Pojem "informace" ve svûtû sdíleného pojetí skuteãnosti. Ikaros
[online], 2000, 2, Retrieved 2000-02-01 from
http://ikaros.ff.cuni.cz/ikaros/2000/c02/veda.htm
Kolodner, J. (1993). Case-Based Reasoning. San Mateo: Morgan Kauffman Publishers
Konar, A. (1999). Artificial Intelligence and Soft Computing Behavioral and Cognitive
Modeling of the Human Brain. New York: CRC Press.
Kosslyn, S. M., &Koenig, O. (1992). Wet Mind: The New Cognitive Neuroscience. New
York: Free Press.
Kotek, Z. a kol. (1983). Teória automatického riadenia II. Bratislava: SNTL, Alfa.
Kozej, P. (2004). Kognícia bez mentálnych procesov. Unpublished master's thesis.
Univerzita Komenského, Fakulta matematiky, fyziky a informatiky, Bratislava, Slovensko.
Kuãerová, H. (2002). Teorie informace.
Retrieved 2004-05-05 from
http://info.sks.cz/users/ku/UIS/inform1.htm
Lorenz, K. (1981). Foundations of ethology. London: Springer-Verlag.
Lucas, J.R. (1961). Minds, Machines and Goedel. Philosophy, 36, 112-127.
Luger, G.F. (1994). Cognitive Science: The Science of Intelligent Systems. Boston, MA:
Academic Press.
Mataric, M. (1997). Learning social behaviors. Practice and Future of Autonomous
Agents. Special issue, R. Pfeifer and R. Brooks (Eds.). Robotics and Autonomous Systems,
20, 191-204.
Mafiík, O. (Ed.). (1993). Umûlá Inteligence (1). Praha: Academia.
Mafiík, O. (Ed.). (1997). Umûlá Inteligence (2). Praha: Academia.
Mafiík, O. (Ed.). (2001). Umûlá Inteligence (3). Praha: Academia.
Mafiík, O. (Ed.). (2003). Umûlá Inteligence (4). Praha: Academia.
Minsky, M. (1967). Computation: Finite and Infinite Machines. Englewood Cliffs, NJ:
Prentice-Hall.
Minsky, M. (1968). Semantic Information Processing. Cambridge, MA: MIT Press.
Minsky, M., and Papert, S. (1969). Perceptrons. Cambridge. MA: MIT Press.
Minsky, M.(1986). The Society of Mind. New York: Touchstone.
Newell, A., and Simon, H. A. (1972). Human problem solving. Englewood Cliffs, NJ:
Prentice-Hall.
Peregrin, J. (1997). Teorie v‰eho, ãeho v‰eho?.
Retrieved 2004-09-08 from
http://jarda.peregrin.cz/mybibl/HTMLTxt/362.htm
Peregrin, J. (2002). âlovûk, pro kterého zítra jiÏ znamenalo vãera.
Retrieved 2004-09-08 from
http://jarda.peregrin.cz/mybibl/HTMLTxt/447.htm
Peregrin, J. (2003). Filosofie a jazyk. Praha: Triton.
Peregrin, J. (2004). Umûlá inteligence bude "zbastlená" - a my jsme poãítaãe, které o
tom ani nebudou vûdût.
Retrieved 2004-09-08 from
http://jarda.peregrin.cz/mybibl/HTMLTxt/448.htm
Pûchouãek, M. (n.d.). Úvod do filosofie umûlé inteligence
Retrieved 2004-02-08 from
http://cyber.felk.cvut.cz/gerstner/teaching/kui/kui-phil.htm
Pfeifer, R. ,& Scheier, C. (2001). Understanding Intelligence. Cambridge,
MA: MIT Press.
Piaget, J. (1998). Psychologie inteligence. Praha, Portál 1998
Pícha, M. (2001). Silná umûlá inteligence. Unpublished master's thesis. Masarykova
Univerzita, Filosofická fakulta, Brno, âeská Republika.
Pick, H.L. Jr., P. van den Broek, & D.C. Knill (Eds.) (1992). Cognition: Conceptual and
methodological issues.Washington, DC: American Psychological Association
Pinker, S. (1997). How the Mind Works. New York: W. W. Norton & Company.
Posner, M. I.,&Keele, S.V. (1968). On the Genesis of abstract ideas. Journal of Experimental Psychology, 77(3,1), 353-363.
PstruÏina, K. (1998). Svût poznávání: k filozofick˘m základÛm kognitivní vûdy. Olomouc: Nakladatelství Olomouc
Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage
and
organization in the brain. Psychological Review, 65, 386-408.
Ross, B.H.: (1996). Category representations and the effect of interacting with
instances. Journal of experimental Psychology:Learning, Memory and Cognition, 22,
1249-1265.
Russell, S. J., &Norvig, P. (1995). Artificial intelligence: A modern approach. Upper
Saddle River, NJ: Prentice Hall.
Sedláková, M. (2004). Vybrane kapitoly z kognitivni psychologie : mentalni reprezentace a mentalni modely . Praha: Grada.
Shannon, C. E., &Weaver, W. W. (1948). The mathematical theory of communication.
Urbana: University of Illinois Press.
Sloman, S. A.,& Rips, L. J. (1998): Similarity as an explanatory construct. Cognition, 65
(2-3), 87-101.
Smith, J.C. (ed.).(1990). Historical Foundations of Cognitive Science. Dordrecht: Kluwer.
Smullyan, R. (2003). Navûky nerozhodnuto. Uvod do logiky a zábavny prÛvodce ke
Godelovym objevÛm. Praha: Academia.
Sternberg, R. J. (Ed.).(1994). Encyclopedia of human intelligence. New York and
Toronto: Macmillan.
Sternberg, R. J. (1996). Kognitivní psychologie. Praha: Portál.
Sternberg, R. J. (Ed.).(1999). The nature of cognition. Cambridge, MA: MIT Press.
Sternberg, R. J. (Ed.).(2000) Handbook of intelligence. Cambridge and New York:
Cambridge University Press.
Sternberg, R. J. (Ed.).(2001). Complex cognition. NewYork: Oxford University Press.
Sutherland, S. (1989). Macmillan dictionary of psychology. London, New York :
Macmillan. / Cit. podle Crick, F. (1997). Vûda hledá du‰i: Pfiekvapivá domnûnka.
Praha: Mladá fronta.
·íma, J., Neruda R. (1996). Teoretické otázky neuronov˘ch sítí. Praha: Univ. Karlova.
Thagard, P. (2001). Úvod do kognitivní vûdy. Praha: Portál.
Vysok˘, P. (2004). C. E. Shannon – prÛkopník informaãního vûku. Vesmír, 83, 472-475.
Wiedermann, J. (2001). Turing Machine Paradigm in Contemporary Computing
[Abstract]. Mathematics Unlimited - 2001 and Beyond. London: Springer-Verlag.
Wiener, N. (1947). Cybernetics. Cambridge, MA: MIT Press.
Wilson, R. A., & Keil, F. C. (Eds.). (1999). The MIT Encyclopedia of the Cognitive
Sciences. Cambridge, MA: MIT Press.
Winograd, T. (1976). Towards a procedural understanding of semantics. Revue Internationale de Philosophie, 3, 117-118.
Wittgenstein, L. (1953). Philosophical Investigations. Oxford: Blackwell.

Podobné dokumenty

KAREL GOTT VZPOMÍNÁ NA JIŘÍHO ŠTAIDLA

KAREL GOTT VZPOMÍNÁ NA JIŘÍHO ŠTAIDLA mi líbí herecká poloha a energie, kterou Bára do interpretace m˘ch knih vloÏila a jsem jí vdûãná, Ïe Helenu, hlavní hrdinku románÛ, provází od zaãátku aÏ do konce. Mám také radost ze souãasného tre...

Více

Stáhnout soubor

Stáhnout soubor „Dostal jsi mû,“ pravil, „ale uznej, Ïe ve slovnání s Vladimílou Pavlíãkovou jsem Demosthénes.“ „To jo…“ V‰imni si: koncová uvozovka je vÏdy aÏ za interpunkãním znaménkem. Chceme-li v pfiímé fieãi dá...

Více

strana 3

strana 3 expozice zábavního vûdeckého parku VIDA v Brnû. V b˘valém pavilonu D na brnûnském v˘stavi‰ti na plo‰e 4600 m2 vyrostly desítky interaktivních exponátÛ, rozdûlen˘ch do 4 tematick˘ch sekcí – Planeta,...

Více

bulletin

bulletin a pfiedev‰ím na mnoha jevech v CNS nejen obratlovcÛ, poãínaje kontrolou tûlesné teploty ãi cirkadiánních rytmÛ a konãe zapojením v procesech pfienosu vzorcÛ chování, pamûti ãi v psychopatologick˘ch p...

Více

Umělá inteligence

Umělá inteligence ho dělal člověk - bychom považovali za projev jeho inteligence. (Minsky, 1967) Umělá inteligence se zabývá tím, jak počítačově řešit úlohy, které dnes zatím zvládají lidé lépe. (Rich, 1991)

Více

Stáhnout - Jurisprudence

Stáhnout - Jurisprudence stav vûci. RovnûÏ jako v Nûmecku15 ãi Rakousku16 platí tato dotazovací povinnost u nás v âeské republice i pro hmotnûprávní otázky. V tûchto pfiípadech totiÏ soud zpÛsobem, jak˘m klade na úãastníky ...

Více

Umělá inteligence

Umělá inteligence • porozumění přirozenému jazyku • tvorba expertních systémů • strojové učení

Více