Site Overlay

Omyl jako součást života

Proč musíme studovat jaderné elektrárny, abychom pochopili bankovnictví

Nassim Taleb, autor slavné Černé labutě, jež právě vychází i v češtině, o Harfordově knize píše, že je úžasná – a má pravdu. Kniha překvapí svou pestrostí. Představuje zdánlivě nesouvisející problémy jako je strategie vedení války v Iráku, (ne)efektivnost státní podpory výzkumu, (ne)úspěšnost rozvojové pomoci Západu, boj s globálním oteplováním nebo předcházení finančním krizím, aby vysvětlil, jak obdobné jsou příčiny selhání ve všech těchto snahách. Harford jde ve stopách Hayekových a ukazuje z mnoha čtivě a zábavně psaných úhlů pohledu, jak málo ve skutečnosti víme o tom, co si myslíme, že dokážeme naplánovat.

Slepota a hloupost

Ať si to někdo je ochoten připustit, či nikoli, společnost je velmi komplikovaný organismus, který čelí nejistotě budoucnosti. A i ve sféře podnikání, kde lidé typicky mají veškeré motivace vyhýbat se omylům, vidíme, že úspěšně plánovat nelze. Jednou úspěšní podnikatelé či úspěšné strategie se mění ve svůj opak, krachují a mizí. Empirické studie  četnosti krachů zavedených firem prokazují, že „firmy jsou mnohem více slepé, než si myslíme“. Úspěchu se tedy nedočká ten, kdo neudělá chybu, ale spíše ten, kdo své chyby přežije a poučí se z nich. Adaptace je klíčem k úspěchu, neomylnost je chimérou. Jakou katastrofu představuje pak snaha plánovat a držet se připravené strategie v systémech s omezenou zpětnou vazbou ukazuje Tim Harford na průběhu americké intervence v Iráku. Roky trvající neochota technologů války adaptovat se stála mnoho životů a změnu přinesla až bottom-up strategie, se kterou přišli velitelé-disidenti. Jejím základem byla adaptace v reálném čase, jež měla podobu jakési Wikipedie průběžně aktualizované lidmi v prvních liniích.

Pluralismus jako cesta k inovacím

Kniha nabízí řadu epizod  z historie technologií a ukazuje, jak nepravděpodobný se zdál úspěch řady objevů, které se následně staly klíčovými pro rozvoj civilizace. Experti se totiž až příliš často zásadně mýlí v tom, co „je nejlepší“ a co nastane, a je proto mnohem rozumnější spoléhat na pluralismus přístupů a experimentování. A to ať se týká nestátní podpory výzkumu pomocí cen či odměn za dosažení průlomového poznatku, která – oproti státním grantům vědeckým týmům – nastavuje správné motivace a otevírá prostor pro konkurenty vědeckému establishmentu; nebo praktikování myšlenky importu právního řádu, tj. „dovozu důvěryhodnosti“ v rámci projektů tzv. charter cities, o nichž se dnes soudí, že mohou být zárodkem úspěšných strategií hospodářského rozvoje a jejichž kouzlo  spočívá taktéž v umožnění konkurence, namísto jednoho důmyslného plánu, a víře v pluralismus jako klíčům k úspěchu. Každý úspěch vždy stojí na stovkách omylů, ale co je úspěch a co omyl, nevíme ex ante, a proto se neúspěšnému experimentování nevyhneme. Naopak, potřebujeme ho, protože neúspěch je prvním krokem k budoucímu úspěchu. Co ale v situaci, kdy není možné uskutečnit množství malých experimentů a poučit se z chyb? Co když chyba by byla „nepřežitelná“?

Krachy bank a jaderné katastrofy

Stejně jako selhává snaha sebedůvtipnějšího designéra o plánování složitých systémů shora v případě války či vědeckého pokroku, není funkční – jak ukazuje autor knihy na desítkách příkladů – ani snaha „uhlídat“ složité systémy. Regulátoři, auditoři ani ratingové agentury nás nevarovali před dnešní finanční krizí  a jsou  to opět spíše lidé z prvních linií jako zaměstnanci či novináři, kteří nebezpečí identifikují první. Ze studia průmyslových katastrof, jejichž průběh nám v mnoha podobách barvitě Tim Harford představuje, navíc vidíme, že sebedokonalejší systém centrální kontroly se nevyhne chybám, obvykle v důsledku fungování jiného bezpečnostního opatření. Přidáváme-li totiž nová bezpečnostní opatření, vytváříme nové možnosti, jak ke katastrofám může dojít. Stojíme tedy před obecným problémem managementu rizika a je  jedno, hrozí-li katastrofa finančního systému, jaderné elektrárny nebo ropné plošiny. Princip zajištění bezpečnosti musí být stejný, neboť chyba, která by vedla ke katastrofě velkého rozsahu, by mohla být osudová.

Boris Jelcin kdysi trefně poznamenal v reakci na otázku jednoho redaktora, že myšlenka socialismu je možná zajímavá, ale že by byl raději, kdyby se nejprve vyzkoušela na něčem menším, než byl Sovětský svaz. Experimentování ve velkém je přesně cestou ke katastrofě. Chyby, ke kterým nutně dojde, nesmí způsobit kolaps celého systému. Systém musí být navržen tak, aby jednotlivé segmenty byly na sobě co nejvíce nezávislé a funkčně oddělené. Řídící a kontrolní centra jednotlivých systémů proto nesmí být sloučena v jednom místě (což byl třeba případ nedávné havárie ropné plošiny v Mexickém zálivu), banky by neměly mít možnost hazardovat s depozity obyvatel (tak jako dnes při neexistenci rozdílu mezi depozitním a úvěrovým bankovnictvím), decentralizace a evoluce by měly být koncepty, jimž bude dopřáno sluchu více než termínům jako je centralizace a plánování. Evoluce je totiž chytřejší než pokus sebeinteligentnějšího designéra.

Adapt: why successs always starts with failure

AUTOR: Tim Harford

VYDAL: Little Brown, 2011

ROZSAH: 309 stran

Redakčně upravená verze tohoto textu vyšla v časopise Euro v roce 2010