Logo Zpravodaj ČS fandomu
Předchozí článek Další článek Obsah čísla Index
10-11/2005
(224)


Ukázky z kapitoly 11

Cesty k umělé inteligenci: stroje, testy a zombie

Umělá inteligence je na jednu stranu oborem zcela praktickým, který zahrnuje třeba robotiku nebo tvorbu expertních systémů. Nám však půjde spíše o teoretičtější aspekt věci, respektive obecnou rovinu problému. Kdy můžeme nějaký systém prohlásit za inteligentní?

Soustředíme se na jeden z možných přístupů k této otázce, který představuje Turingův test. Na téma se zkusíme podívat ještě z několika dalších úhlů, na scénu tedy vstoupí Turingovy stroje, Gödelovy věty, paradox Čínského pokoje či všemožné druhy zombií. Na naše otázky odpovídá prof. RNDr. Jaroslav Peregrin, CSc., matematik, vědecký pracovník Filozofického ústavu AV ČR a vedoucí katedry logiky na pražské FF UK. Zabývá se především sémantikou, analytickou filozofií a filozofií logiky.

Jak se díváte na Turingův test po zhruba padesáti letech od chvíle, kdy byl poprvé navržen?

Myslím, že Turingův test rozhodně ani dnes neztrácí na zajímavosti. Pozoruhodné je, že na jedné straně existuje celá řada vědců a filozofů, kteří ho považují za příliš „měkký“ – připsat počítači myšlení jen na základě toho, že tímto testem projde, považují za absurdní. Na straně druhé se naše počítače, navzdory fantastickému technologickému pokroku, který se během padesáti let od Turingovy formulace tohoto problému odehrál, ani zdaleka nepřibližují něčemu, co by toho bylo schopno.

Teď vaší odpovědi úplně nerozumím. Cožpak to, že některé konverzační („chatovací“) programy pokládají jejich partneři za živé lidi, není vlastně splněním testu? Co se přesně musí stát, abychom test prohlásili za splněný (například s ohledem na sázky, které jsou v této souvislosti uzavřeny).

Ukazuje se, že ač hrát úlohu člověka v mnohých omezených kontextech je pro počítač až překvapivě snadné, dokázat „lidsky“ reagovat na jakoukoli představitelnou otázku je zatím daleko mimo dosah jakéhokoli stroje, který bychom dokázali zkonstruovat. Legendární program ELIZA, který simuloval psychiatra, své pacienty úspěšně balamutil, přestože se celý vešel na jedinou disketu. Podobně není velký problém sestrojit třeba program, který bude lidem sdělovat informace o odjezdech vlaků, aniž většina z nich pozná, že to není člověk. V rámci Turingova testu však musí stroj prokázat, že se dovede „lidsky“ bavit naprosto o čemkoli, a to je, jak se ukazuje, neskonale obtížné.

V roce 1991 vyhlásil mecenáš Hugh Loebner, že prvnímu počítači, který Turingovým testem projde, udělí cenu ve výši sto tisíc dolarů, takže o motivaci je postaráno. Od té doby se každoročně koná soutěž; žádný počítač se ale dosud úspěchu v této soutěži ani nepřiblížil. Flexibilita, s níž je člověk schopen reagovat na nejrůznější druhy otázek, je zřejmě mnohem větší, než se na první pohled zdá.

Je relevantním argumentem proti turingovskému pohledu na myšlení Searlův Čínský pokoj?

John Searle patří k těm, kdo se domnívají, že Turingův test je scestný, protože i kdyby jím počítač nakrásně prošel, říkat o něm, že myslí, by bylo absurdní – počítač podle Searla nemůže skutečně myslet, ale myšlení jenom mechanicky napodobovat. Searlův myšlenkový experiment s Čínským pokojem má prokázat právě tento přístup. Stal se asi nejdiskutovanějším tématem filozofie umělé inteligence posledních desetiletí.

Představte si, říká Searle, pokoj, ve kterém sedí člověk vybavený příručkami, podle kterých je schopen sestavit smysluplnou čínskou odpověď na jakoukoli čínskou otázku, kterou mu někdo okénkem podá – a to aniž by sám rozuměl slovo čínsky. Ten pokoj s tím člověkem uvnitř se tedy z hlediska Turingova testu chová docela jako Číňan; ale podle Searla by bylo absurdní říkat, že rozumí čínsky. Takže něco jiného je rozumět a něco jiného je imitovat porozumění.

Já osobně se ovšem domnívám, že slovo „myslet“ fakticky užíváme v tom významu, ve kterém je správnost jeho aplikace na danou entitu čistě záležitostí projevů této entity (pochopitelně – jaká jiná kritéria by připadala v úvahu?) Já jsem si například jist, že lidé, které dobře znám, skutečně myslí (tedy samozřejmě „jist“ v tom smyslu, v jakém si člověk něčím ve světě kolem sebe vůbec jist být může). A kdyby někdo odhalil, že můj nejlepší přítel nemá v hlavě mozek, ale soustavu mikročipů, byl by to pro mě šok, ale kdyby se tento člověk (robot?) nadále choval tak, jak jsem na to zvyklý, jistě bych ho i já nadále bral jako myslící bytost (a jako svého přítele). Z toho se mi zdá zřejmé, že mechanismus, který stojí za chováním, není z hlediska posuzování toho, zda je toto chování rozumné a zda příslušná entita myslí, rozhodující.

Pokud jde o onen Čínský pokoj, mám pocit, že je třeba si uvědomit, jak komplikovaná by pravidla pro sestavování smysluplné odpovědi na jakoukoli smysluplnou otázku musela být. Představa, že by to mohl uskutečnit člověk za pomoci příruční knihovny, se mi jeví být naprosto nerealistická. Zdá se mi, že jedinou možností, jak by to mohlo skutečně fungovat, by bylo, aby dotyčný člověk měl v pokoji nikoliv knihovnu, ale velice výkonný počítač – s velice obsáhlými databázemi a s velice sofistikovaným softwarem. Samotný člověk by tam pak už byl fakticky zbytečný, vše by obstaral počítačový systém, který bych se ale pak já osobně nerozpakoval nazývat umělou inteligencí.

Co říkáte na možnost existence různých druhů zombií, s nimiž někteří filozofové rádi provádějí své myšlenkové experimenty?

Abychom předešli nedorozumění: zombie v tomto smyslu není ten výtvor hollywoodských filmů, s nepřítomným výrazem, popelavou pletí a náměsíčnými pohyby – tady je zombie podle definice entita, která se z vnějšího pohledu ani v nejmenším neliší od normálního člověka. Odlišuje se od něj pouze jaksi zevnitř, tím, že nemá vědomí.

Jak se zombie vztahují k Turingově testu a umělé inteligenci? Jestli totiž může zombie existovat, pak může existovat něco, co projde Turingovým testem, aniž to má vědomí – a tudíž to v normálním slova smyslu nemůže myslet. Otázka, zda existuje tento druh zombií, je tedy ekvivalentní otázce, zda je možné, aby se něco chovalo ve všech ohledech jako vědomá bytost, a přitom to vědomí postrádalo.

Souhlasíte tedy s Turingem (a například i se Stephenem Hawkingem), že vědomí není kvalita, kterou by se měla věda zabývat? Nikdy nemáme jistotu, že všichni kromě nás nejsou zombie. Proto má smysl hovořit pouze o inteligenci, a tu poznáme na základě chování systému navenek. A tudíž – z hlediska konstrukce umělé inteligence – je pro nás Turingův test či počítačová imitace myšlení plně postačující. Jste stejného názoru?

V podstatě ano, ale musíme být opatrní, pokud jde o smysl výrazu „zabývat se vědomím“. Věda se samozřejmě vědomím zabývá – v tom smyslu, že se zabývá určitými projevy organismů, které chápe jako vědomé. Lidé jako D. J. Chalmers ale, jak se zdá, trvají na tom, že i když prozkoumáme všechny možné takové projevy, zůstává stále ještě otázka, zda je vědomí „skutečně přítomno“.

Když se ale podíváte na nějakou knihu, ve které se existencí vědomí zabývají vědci (a nikoli filozofové), jako je například Crickova Věda hledá duši, uvidíte, že stavět otázku tak jako Chalmers jim vůbec nepřijde na mysl. Pro Cricka prostě vědomí nemůže být ničím jiným než určitou formou (objektivně studovatelné) činnosti mozku nebo jiného systému – jde jenom o to přijít na to jakou.

Co s Penrosovou námitkou, podle které počítače nejsou schopny matematického důkazu? Spočívá rozdíl mezi člověkem a strojem trochu paradoxně právě v tak „strojové“ oblasti, jako je matematika?

Mně osobně se ani tato námitka se nezdá být příliš přesvědčivá: podle mne vychází z interpretace Gödelovy věty, která je přinejmenším problematická. Gödel dokázal, že pro formální aritmetiku nemůžeme nikdy stanovit axiomatický systém, ze kterého by byl každý výrok, jenž je v tomto jazyce formulovatelný, dokazatelný nebo vyvratitelný. Z toho se vyvozuje, že existují aritmetické výroky, které jsou pravdivé, ale nedokazatelné. A Roger Penrose z toho dále vyvozuje, že k pravdivosti takových výroků se může dopracovat (nějakými nepopsatelnými cestami) jedině lidský rozum, nikoli stroj, omezený na dokazování.

To je ovšem problematický závěr. Každá učebnice matematické logiky nám dokládá, proč musí být gödelovská formule (to jest formule, která v přesně vymezeném smyslu „sama o sobe říká“, že je nedokazatelná), která není ve standardním axiomatickém systému aritmetiky dokazatelná ani vyvratitelná, pravdivá – nabízí tedy v tomto smyslu její důkaz. Jistě, není to důkaz ve smyslu, v jakém jsme si zvykli termín „důkaz“ v matematické logice používat, avšak tvrdit, že se k její pravdivosti dopracováváme jakýmsi šestým smyslem („nealgoritmicky“, jak říká Penrose), se mi jeví jako absurdní.

Zdá se mi tedy, že při vyvozování takto bezprostředních filozofických důsledků z Gödelovy věty musíme být opatrnější, než je Penrose. Trvá-li však někdo na její bezprostředně filozofické interpretaci, pak mohou nabídnout i jinou než tu Penrosovu: logik Chaim Gaifman nedávno konstatoval, že Gödelova věta namísto Penrosova „nejsme stroje“ ukazuje, že „jsme stroje, které nemohou vědět, že jsou stroje“.

Abych to ještě trochu přiblížil – v dostatečně složitých systémech totiž určité věci dokázat prostě nejdou, například v rámci systému aritmetiky nemůžeme dokázat, že je aritmetika vnitřně konzistentní (bezrozporná). Ba co víc, pokud bychom něco takového v tomto systému náhodou dokázali, ve skutečnosti by to znamenalo opak – tedy že konzistentní není. Takže je docela dobře možné, že jsme-li stroje, není v našich silách to prokázat (což je trochu slabý důvod pro to, abychom se na ty stroje, o kterých víme, že to jsou stroje, dívali skrz prsty). To už ale zabíháme od tématu umělé inteligence spíše do oblasti logických paradoxů.

Přetištěno se svolením autora

Předpokládám tedy, že ani Penrosovu ideu o lidském mozku jako kvantovém počítači nepokládáte za příliš nosnou...

„Kvantovým počítačem“ je v jistém smyslu cokoli – cokoli se totiž skládá ze subatomárních částic, na jejichž úrovni vyvstávají kvantové efekty. Idea kvantového počítače spočívá v tom, že se nám tyto efekty, probíhající v nějakém kusu hmoty, podaří přimět, aby fungovaly v našich službách, aby počítaly to, co my potřebujeme spočítat.

Z tohoto hlediska mi není úplně jasné, co má vlastně ztotožňování mozku s kvantovým počítačem znamenat – má-li být mozek kvantovým počítačem, potom, nakolik tomu termínu rozumím, musejí být kvantové efekty, ke kterým v mozku na subatomární úrovni v každém případě dochází, usměrněny aby pracovaly pro ... ale koho? Majitele tohoto mozku? Ale kdo to pak tento majitel je, není-li jeho mozek jeho součástí, ale jenom jeho nástrojem? Nějaký, jak říkal anglický filozof Gilbert Ryle, „duch ve stroji“?

Jaký máte názor na koncepce, které zdůrazňují „vtělenost“ mysli, jak je prezentuje například kniha Descartesův omyl?

Myslím, že mysl je skutečně v podstatném slova smyslu vtělená. Z tohoto hlediska tedy může být Turingův test přece jenom nemístně omezený – možná, že myšlení skutečně není věcí natolik omezenou na mozek, aby mohl počítač ve skutečném slova smyslu myslet, nemá-li něco srovnatelného s naším tělem.

Ve vybavení počítače takovým druhem těla, jaké máme my, však nevidím principiální problém. Například v rámci projektu COG na Massachusetts Institute of Technology (www–caes.mit.edu/mvp/html/cog.html) se ostatně na něčem takovém usilovně pracuje.

Co si myslíte o funkcionalismu, tedy představě, že vědomí či mysl jsou čímsi na způsob softwaru, který může běžet de facto na libovolném (dostatečně složitém) hardwaru? Myšlení by pak bylo cosi jako výpočet...

To souvisí s předchozí otázkou. Nejsem si jist, zda je v lidském mozku a obecněji v lidském těle možné nějak jasně „hardware“ a „software“ od sebe oddělit. Jak už jsem řekl, nemyslím si, že vědomí nutně předpokládá nějaké organické tkáně a ne třeba silikon; na druhé straně však nejsem přesvědčen, že může být oddělitelné v podobě nějaké „softwarové vrstvy“, která by byla přenositelná do počítače.

Jsou podle vás plodné spekulace o tom, zda je mozek počítačem paralelním nebo sériovým, eventuálně kombinací obou z nich?

Zdá se mi, že mozek jistě nelze vidět jako počítač s von Neumannovou architekturou, to jest počítač tradičního a dodnes standardního typu. Mně osobně se zdá nejatraktivnější tzv. mnohanáčrtový model vědomí navržený Danielem Dennettem v jeho knize Consciousness Explained (Vysvětlené vědomí): podle něj se v určitých částech mozku objevují a mizí různé elektrické aktivity, které spolu soupeří, a ty, kterým se podaří ostatní na chvíli přebít, se stávají vědomými. To, co pociťujeme jako souvislý proud vědomí, by tak byla velice různorodá směs vzájemně se vytlačujících projevů různých procesů.

Pokládáte za nadějnější přístup, který se snaží problémům myšlení porozumět na základě studia lidského mozku, nebo se průlomu podaří dosáhnout prostě tak, že nějaký systém umělé inteligence zkonstruujeme?

Studium lidského mozku je pro umělou inteligenci jistě inspirativní (nelze nevzpomenout na takto inspirovaný vývoj softwarových neuronových sítí); mně se ale zdá, že v dohledné době je třeba očekávat výsledky od pragmatičtěji orientovaných přístupů.

Jaké expertní systémy se podle vašeho názoru nejvíce blíží onomu vágnímu pojmu „umělá inteligence“? Nemám tím na mysli ani tak konkrétní aplikace, ale spíše typy systémů.

Myslím, že nejefektivnější systémy jsou tak jako ostatně i náš mozek a naše mysl heterogenní – přirozený výběr je, zdá se, mistr „bastlení“.

Vezměte si třeba šachové programy. V učebnicích se dočteme, že jsou založeny na kombinaci funkce, která ohodnocuje pozice na šachovnici, a výkonného modulu, který na několik tahů dopředu propočítává hodnoty všech dosažitelných postavení a volí cestu k tomu, které má tu nejvyšší. Skutečně funkční šachový program ale tohle jistě musí kombinovat s komponentami zcela odlišného druhu: třeba s knihovnou zahájení či s modulem pro koncovky, který pracuje na úplně jiném principu atd.

Myslím tedy, že nejperspektivnější jsou skutečně systémy, které ne příliš lahodí oku teoretika – systémy „zbastlené“ z různých principů a technik.

Jaké autory, kteří se zabývají uvedenými problémy, pokládáte za nejvíce inspirativní? Omezme se na knihy dostupné v češtině – nejen populární vědu, ale třeba i beletrii, logicky asi hlavně sci-fi.

Osobně mám slabost pro Daniela Dennetta, česky od něj vyšly například Druhy myslí, které jsem sám přeložil. Tato kniha se zabývá otázkou, kdy a jak se na vývojovém řetězci živých organismů mohlo něco jako vědomí vůbec objevit.

Také si myslím, že nikdo, kdo si láme hlavu tím, zda by stroje mohly myslet (a k čemu by to vedlo), by si neměl odepřít potěšení vnořit se do klasického díla otce-zakladatele literárního žánru kyberpunk Williama Gibsona Neuromancer a že nikdo, komu leží v hlavě otázka, zda by lidské myšlení mohlo být neseno něčím jiným než lidským mozkem, by neměl vynechat knihu Grega Egana Město permutací.

Na závěr snad ještě jeden dotaz. Mohl byste se pokusit o určitou prognózu? Tedy kdy třeba bude splněn Turingův test? Kdy se systémy umělé inteligence stanou běžnou součástí našich životů? Eventuálně – kdy člověka nahradí?

Kdosi z těch, kdo pracují na umělé inteligenci (už si bohužel nepamatuji, kdo konkrétně to byl), jednou napsal, že tím nejpřekvapivějším na jeho výzkumech bylo, že problémy, které se na první pohled zdály být komplikované, se ukázaly mít velice jednoduchá řešení a že těžko řešitelné se naopak ukázaly být problémy, které vypadaly na první pohled jednoduše.

Zdá se mi, že problém s vybudováním umělé inteligence dnes přestává být v tom, že bychom si s něčím nevěděli principiálně rady – myslím, že všechny potřebné ingredience v podstatě máme. Problém je teď, domnívám se, v tom, že síť pojmů, poznatků a dovedností, které dělají lidskou mysl tím, čím je, je tak komplikovaná, že přestože nám nic principiálního nebrání ji pomocí počítače napodobovat, je to práce tak nepředstavitelně mravenčí (a přitom nikoli zcela mechanická), že je pro nás v dohledné době víceméně nezvládnutelná.

Zkusím to ilustrovat na problematice strojového překladu. S tím, aby nám stroje překládaly například angličtinu do češtiny, není žádná zásadní potíž a programy, které překlady velice hrubě dělají, jsou již také zcela běžné. Avšak udělat program, který bude překládat tak dokonale, jako (dobrý) lidský překladatel, znamená rozebrat a popsat fungování každého jednotlivého slova; a pravidla, kterými se inteligentní uživatel jazyka implicitně řídí, když takové slovo užívá, se často ukazují být nesmírně složitá a různorodá.

Tohle je všechno samozřejmě řešitelné tak, že stroji nevtělíme přímo tato pravidla, ale schopnost naučit se je způsobem, jakým je zvládá lidský subjekt. To však, myslím, stále ještě dobře udělat neumíme. Tudy nicméně, domnívám se, v každém případě vede cesta, kterou je třeba jít. (Ale mé názory je tady třeba brát s jistou rezervou: jsem logik, nikoli počítačový expert.)

Jinou cestou, zdá se mi, by mohlo být budování umělé inteligence „zezdola“: kdyby každý člověk dokonale zanalyzoval fungování jednoho lidského slova a potažmo jím vyjadřovaného pojmu, měly bychom „mapu“ lidské pojmové výbavy hotovou brzy. To je samozřejmě utopie, protože něco takového nemůže dělat nekvalifikovaný člověk. Lze si přesto představit, že by se taková mapa poskládala prostřednictvím nějakého „internetového aktivismu“ podobnému tomu, na jehož bázi dnes probíhá hledání mimozemských civilizací v rámci projektu SETI. A lze si samozřejmě představit i to, že se něco takového spontánně vynoří z nějakých aktivit, které budou na internetu probíhat – stejně jako například mnohé současné encyklopedické přehledy různých věcí nevznikly proto, že by je někdo centrálně naplánoval, ale tak, že někdo dal dohromady spontánně vznikající údaje o příslušných dílčích oblastech.

Z tohoto důvodu je, myslím, jakýkoli časový odhad velice ošidný. Zatím to sice nevypadá na nijak blízkou budoucnost, zdá se mi nicméně, že může přijít kvalitativní průlom, který to vše změní.

Turingův test

Matematik a kybernetik Alan Turing přišel s myšlenkou, že za „myslící/inteligentní“ můžeme stroj prohlásit tehdy, pokud jeho chování nedokážeme odlišit od chování živého člověka. V omezeném prostředí aspirují dnes na splnění Turingova testu například některé automatické konverzační systémy. Turingův test je behavioristický v tom smyslu, že se nezabývá vnitřními stavy zkoumaného systému, ale pouze jeho navenek pozorovatelným chováním.

Čínský pokoj

Filozof John Searle přišel s námitkou proti počítačovému myšlení; stojí na přesvědčení, že pokud podle nějakých pravidel dokážeme manipulovat se symboly (například jako reakci na čínské znaky podstrkované pode dveřmi uzavřeného pokoje vracet zpět jiné čínské znaky), ještě to neznamená, že jsme nadáni nějakou inteligencí, porozuměním nebo vědomím (například vůbec nemusíme rozumět čínsky). Searlův argument dnes většinou není pokládán za příliš přesvědčivý.

Zombie, Chalmersova zombie

D. J. Chalmers a další filozofové zabývající se problematikou mysli a vědomí přišli s koncepcí tzv. zombií, tedy bytostí, které se chovají „rozumně“, aniž by však zažívaly jakékoliv vnitřní stavy „vědomí“. V provokativně vyostřené podobě tohoto myšlenkového experimentu usuzujeme, že jisti si můžeme být pouze svým vlastním vědomím. Nakonec tedy nelze vyloučit, že všichni ostatní kolem nás (programy, roboti, zvířata, lidé...) jsou zcela bezduché automaty.

Gödelova věta

Logik Kurt Gödel dokázal, že v rámci jakéhokoli přijatelného formálního systému aritmetiky (a v důsledku toho v rámci každého jazyka, který je natolik netriviální, že v něm lze aritmetiku vyjádřit) bude vždy existovat výrok, který je pravdivý, ale nikoliv dokazatelný. Někteří filozofové mysli z toho vyvozují například to, že člověk se dokáže dobrat pravdy principiálně jinými cestami, než jaké mohou být k dispozici stroji.

Vznik vědomí podle Dennetta

Daniel Dennett vysvětluje vznik vědomí na první pohled nezvykle – přírodním výběrem. Dennett chápe vědomí jako cosi na způsob trenažéru pro testování hypotéz; než zemřít sám, je lépe nechat zemřít hypotézu. Dennett v této souvislosti sestavil hierarchii organismů o několika stupních.

Na první úrovni fungují pouze čisté, natvrdo zadrátované automatismy. Další úroveň patří tzv. skinnerovským tvorům, jejichž příkladem jsou třeba pavlovovští psi. Ti již mohou podle výsledků minulého jednání modifikovat své jednání budoucí. Pokud se spálíme o rudě rozžhavenou plotnu, příště si na ni dáme pozor.

Jak poznamenává Dennett, problémem většího uplatnění skinnerovských tvorů v rámci přírodního výběru je, že s tímto přístupem budeme velmi brzy zabiti. Před šavlozubým tygrem nestačí prchnout napodruhé – tedy na základě proběhlé zkušenosti, že nás poprvé sežral.

„Popperovští tvorové“, kteří stojí na další příčce pomyslného žebříčku, proto nechají místo sebe raději umírat hypotézy. Než věc zkoušet přímo, pokusí se následky svých činů si nejprve představit. Jak na to? V mozku si vytvoříme reprezentaci vnějšího světa a nadále pracujeme v rámci modelu.

Přítomnost takového modelu pak podle Dennetta nějak souvisí i s vědomím sebe sama. Na určitém stupni je již mentální reprezentace natolik složitá, že do sebe musí zahrnout i sebe samu, „uvědomí si“ svoji existenci. Lehce odlišné přístupy zdůrazňují, že k tomu, aby si člověk uvědomil sebe sama, bylo klíčové vytvořit si v mysli reprezentace věrně popisující chování ostatních jedinců.

Pavel Houser


Předchozí článek Další článek Obsah čísla Index