Texty o konzervatismu i konzervativní texty přetékají napomenutími typu „Nikdy neodstraňujte plot, pokud nezjistíte, proč byl původně postaven.“ (G. K. Chesterton) Snad nejradikálněji konzervativní zásadu obezřetnosti či předběžné opatrnosti vyjádřil lord Falkland: „Není-li nutné měnit je nutné neměnit.“ Mohli bychom si postesknout, že zatímco prakticky všichni lidé tuto rozumnou zásadu uplatňují ve svých oborech (ano, všimněte si prosím: čím více člověk něčemu rozumí, tím konzervativnější v tom je… ostatně viz první ze tří zákonů formulovaných Robertem Conquestem: „Každý je konzervativní ohledně toho, čemu rozumí nejlépe.“), zejména ve společenských a politických otázkách je až příliš mnoho našich bližních jako utržených ze řetězu. Když přijde na společnost, jsou zkrátka zmíněné konzervativní poučky (a jim podobné) předmětem výsměchu – to v lepším případě – či rovnou zcela ignorovány. Debata se vede v duchu toho, jaké že názory se hodí či naopak nehodí do 21. století, které jsou „středověké“, jak je potřeba mýtit předsudky a tak… však to znáte.
To Umělá inteligence (Artificial Intelligence, AI), to je jiná káva. Je to módní disciplína (což nemá být odsudek – ona za to nemůže…) a tak je kolikrát snaha ji využívat i tam, kde to není nutné či kde je to přímo nepatřičné (protože kontraproduktivní). Ale nebudu odbíhat. Každopádně bych chtěl vidět takového progresivního levičáka, který by zpochybňoval výsledky dosažené právě aplikací AI. No, zdá se to absurdní, jednak jak by se k tomu dostal a proč by to dělal, že, a pak také to chce nějaké alespoň základní porozumění. K tomu prvnímu se dostatneme a k tomu druhému: i mezi lidmi točícími se kolem automatizace jistě jsou i ti (společensky a politicky) progresivní – hledal bych je např. mezi Piráty…
Jak to vypadá, když je někdo stran AI zcela mimo, se lze poučit z rozhovoru Daniela Kaisera s Věrou Jourovou „Historie ukáže, kdo měl pravdu“ (Týdeník Echo, 27. ledna 2022, č. 4/2022, str. 16-21):
„Co přesně má tento koordinátor na práci? Posuzovat stížnost uživatele, že ho smazali neprávem?
Úkolem koordinátora je prosazovat zákon jako celek. A ten je mnohem širší než jen moderování obsahu. Ano, koordinátor skutečně může jít i po mazání obsahu, který spadá pod ochranu slova. Měl by také jít po algoritmech, které uživatele dostávají do diskriminovaného postavení. Algoritmy bývají personalizované a určují, co my čteme a vidíme. Personalizované ceny na digitálním trhu – i to se děje. Zatím jsme neměli puvoár, abychom se jim do toho mechanismu podívali. Od Facebooku i dalších docela často slyšíme, že oni sami nevědí, jak ty algoritmy fungují. Čemuž nikdo z nás nevěří, takže chceme možnost kterýkoliv algoritmus auditovat. Koordinátoři musejí být schopni podívat se firmám do systému.“ (zvýrazněno J.K.)
Jenže pravda je taková, že oni opravdu nevědí, jak ty algoritmy fungují – neboť jsou založeny právě na principu AI. Jsme u jádra věci. Pokud pomineme tu spoustu bouřlivého rozvoje, který tento obor zaznamenal v uplynulých dekádách, základem přístupu je neuronová síť o jisté struktuře a data, jejichž prostřednictvím se tato síť trénuje / učí (jistě, nemusí to být úplně přesně tak…). Tato data jsou, řekněme, něco jako otázky spojené s příslušnými správnými odpověďmi. Jejich dostatečné množství a adekvátní výběr (zejména jejich variabilita) je přinejmenším tak složitým krokem, jako vhodně (s ohledem na problém, který má být takovým systémem řešen) nastavená struktura zmíněné neuronové sítě. Každopádně platí, že stejná síť naučená jiným daty bude ve výsledku odpovídat jinak… a stejně tak síť o jiné struktuře trénovaná stejnými daty. Zkrátka to, jak výsledný systém založený na AI funguje, závisí jak na struktuře neuronové sítě, tak na datové sadě použíté k jejímu učení.
Známe tedy strukturu té sítě, známe data, kterými jsme tu síť natrénovali (i když ne nutně zcela detailně, neboť se klidně můžeme pohybovat řádově v TB…), ještě můžeme znát data (otázky se známými správnými odpověďmi), která jsme předem oddělili od těch trénovacích, abychom je pak použili jako testovací. Přesto ale neznáme způsob, jak přesně takto vzniklý systém pracuje. Prakticky nikdy (zejména pokud je řešen problém od určité míry komplexity výše…) nebude systém pracovat se 100% přesností (té dosáhneme výhradně tehdy, když otázku vyřešíme analyticky…), než se začne konstruovat neuronová síť, než se začnou shromažďovat data pro její učení, je rozumné mít jasno v tom, zda stojíme před problémem, který potřebujeme řešit spíš jen tak zběžně (třeba s tím, že odpovědi, které bude systém poskytovat, budou přesné na 95%), nebo před takovým, v jehož rámci se chyba připouští třeba jen v jednom případě z milionu. (Typicky když jde o lidské životy. Takto na přesnost náročné úlohy nalezneme např v letectví. Tam je třeba systémy certifkovat – a je docela problém certifikovat systém, o kterém nedokážete přesně říct, jak funguje… pouze víte, že funguje…)
Systémy, které nějak fungují a my přesně nevíme jak, se někdy označují jako „černá skříňka“ (blackbox). Systém může být „černou skříňkou“ pro někoho, kdo jej nekonstruoval, ale ten, kdo jej sestrojil (dnes většinou naprogramoval) do něj vidí, pro něj „černou skříňkou“ není – dokáže do něj v případě potřeby zasáhnout, umí jej opravit. Systémy založené na AI jsou však takovou „černou skříňkou“ z principu – od počátku a pro všechny, včetně těch, kteří je vytvořili. Opakuji to zásadní: pokud dáme systému založenému na AI „otázku“ (kombinaci dat), kterou doposud nikdy neměl zadanou, nikdy nedokážeme se 100% jistotou předpovědět, jakou odpověď nám vrátí – můžeme jen hůře či lépe odhadovat. Přísně vzato prostě nevíme, jak ten systém funguje. Pokud nám ale ten systém v zásadě poskytuje adekvátní službu, používáme jej nadále i přesto, že občas selže.
Rozdíly mezi systémem založeným na AI a mezi společností spočívají v tom, že AI systém je výtvorem záměrné činnosti člověka a že jeho trénování trvá řádově kratší dobu. Jinak jsou si ale oba systémy pozoruhodně podobné. Moudrost vydobytá zkušeností generací a vtělená do řady předsudků funguje také statisticky – vždy nalezneme výjimky, speciální případy, ve kterých takto nastavený rozhodovací mechanismus selhává. Jinak ale slouží dobře; společnost, která jej používá, zaznamenává prosperitu a rozvoj. Zásadní rozdíl ale dnes vidíme v přístupu k oběma systémům: zatímco fungující systém založený na AI by nikoho nenapadlo vyhodit na smetiště jen proto, že se v rámci tolerované (ne)přesnosti občas zmýlí, tradiční rozhodovací mechanismy společnosti, celkově veskrze přínosné, mají být kompletně opuštěny právě kvůli takovým výjimkám. Jasně, progresivní levičák může opáčit, že těch omylů v rámci tradičních pravidel je ve společnosti příliš mnoho, že nejde o tolerovatelné výjimky ale o hustou síť (systémové) nespravedlnosti. Jenže je tu ten čas – pokud odložíme jeden systém AI, o kterém zjistíme, že se mýlí příliš často, můžeme mít jeho náhradu k disposici v horizontu měsíců (místo snahy – s vysokými náklady a s velmi nejistým výsledkem – existující systém „opravit“ se nabízí prostě konstruovat jinou strukturu a nabídnout jí bohatší množinu dat k učení…). Učení společenského systému je však otázkou staletí, možná tisíciletí – žádnou potenciálně lepší náhradu nemáme ani zdaleka dostatečně po ruce a snahy o sociálně-inženýrské zásahy do systému, o kterém ve skutečnosti nevíme, jak přesně funguje, bývají pravidelně značně kontraproduktivní. Progresivní levice, nebo alespoň ti její příslušníci, kteří mají blízko k matematickým a/nebo informatickým oborům, by se, domnívám se, zkrátka měli na společenské otázky podívat očima Umělé inteligence – možná by to pro ně byl argument pro to, aby alespoň trošku ubrali plyn.
Tomáš Pavelka v textu „Ruce pryč od pohádky“ (KonzervativníNoviny.cz, 27. ledna 2022) napsal: „Když to není rozbité, neopravuj to. Staré dobré konzervativní heslo. Díky své praktické zkušenost je přijali za své i softwaroví inženýři, nenápadní lidé v první linii současného technologického pokroku. Základními stavebními bloky všech dnešních technologických divů je tzv. černá skříňka: dílčí program, který někdo dlouho ladil a piloval. A dnes už jen víme, co do něj vložit a co spolehlivě vyleze ven. Někde uvnitř něco spolehlivě funguje. Nepotřebujeme vědět jak. A nikdo při zdravém rozumu do toho nebude vrtat.“ Přesně tak.
Závěrem se omlouvám za zjednodušení, kterých jsem se nutně dopustil.
Autor je matematikem (DEA v oboru automatizace) a předsedou Konzervativní strany.
Konzervativní noviny nabízí všechny články zdarma. Náš provoz se však neobejde bez nezbytné finanční podpory. Pokud se Vám Konzervativní noviny líbí, budeme vděčni za Vaši pomoc. Číslo účtu: 2701544173 / 2010 Děkujeme