Futuristický počítač - budoucnost příštích let

1. 2. 1998

Sdílet

Opět se píše nový rok, a to je většinou okamžik, kdy za sebou máme takovou malou rekapitulaci toho, co jsme chtěl...





Opět se píše nový rok, a to je většinou okamžik, kdy za sebou

máme takovou malou rekapitulaci toho, co jsme chtěli (a zase

budeme chtít) dokázat. Za počítačovou oblast to PC WORLD vlastně

již za vás provedl v minulém čísle. Možná je ale na čase povolit

si více bezpečnostní pásy a podívat se dále do budoucnosti –

koneckonců milénium není daleko – co za technologie, dnes

přítomné v podobě prototypů a úvah, nás čeká. Takové zamyšlení

nemusí být nutně vážné a seriózní a předpovědi není možné brát

za bernou minci. Stejně tak ale z něj může plynout určité

uklidnění, že není zas tak veliký důvod k stresování se nad

firemními technologickými strategiemi a nákupy – z globálního

hlediska budou mít naše i špatná rozhodnutí jen jepičí život a

následky. Ať už nakoupíme/nainstaluje dobře nebo špatně, během

čtyř až sedmi let bude v počítačové realitě všechno úplně jinak.

Dnes se soustředíme na oblast hardwaru a někdy příště se

podíváme, co se děje, plánuje či možná bude dít a plánovat v

oblasti aplikačního softwaru (pokud takové kategorie budou ještě

v budoucnosti existovat), umělých systémů a samozřejmě čehosi

zvaného operační systémy. Budeme také postupovat poněkud

obráceným směrem, když se po úvodu podíváme až do daleké

budoucnosti, a do té bezprostřední budoucnosti konce tisíciletí

jaksi „zacouváme.“

Podle předpovědí rešeršních firem IDC a Dataquest můžeme v roce

2000 očekávat osobní počítače, které budou na běžných cenových

hladinách vybaveny průměrnými 128 MB RAM, 400MHz hlavním

procesorem a 10GB pevným diskem. Nakolik jsou tyto předpovědi

realistické, můžeme posuzovat podle vlastního postoje k nim.

Zatímco ještě před dvěma roky by kohokoli 32 MB paměti v

počítači určeném k osobnímu užívání ohromilo, dnes je u

některých značkových výrobců obtížné získat model se slabším

vybavením. Totéž platí o 200MHz procesoru či 2GB disku. Při

porovnání z hlediska průměrné rychlosti vývoje v tomto století

jsou pokroky v počítačové technice prostě ohromující. Časy se

ovšem změnily natolik, že dnešní uživatel si spíše klade otázku,

zda je dynamika vývoje dostačující. Často se totiž může zdát, že

problémů a nároků přibývá rychleji, než je možné je řešit. Je

ovšem mnohem snadnější zdesetinásobit velikost vaší pracovní

databáze, než zdvojnásobit rychlost vašeho pracovního počítače,

a podobných analogií bychom mohli nalézt spoustu.

V poslední době také přibývá hlasů, že se tempo vývoje zpomaluje

a stále více odborníků mluví o blížících se hranicích možností

současných technologií. Zpochybňována je udržitelnost platnosti

Moorova zákona, mluvícího o zdvojnásobení rychlosti procesoru

každých 18 měsíců (zpochybňována je samotným autorem), stejně

jako třeba možnosti rozvoje kapacity úložných zařízení. Je ovšem

pravda, že o technologických hranicích se mluvilo již u 50MHz

procesorů 80486 a Bill Gates samotný zpochybnil potřebu paměti

větší než 640 KB (možná jeho nejpopulárnější a nejoriginálnější

výrok). Přesto na těchto pochybnostech může být něco pravdy.

Dnešní velikosti tranzistorů v moderních procesorech již dávno

„minuly“ vlnovou délku viditelného světla a nezadržitelně se

blíží do molekulárních dimenzí. Nejenže je stále obtížnější je

vyrábět, ale u elektronů pohybujících se jednotlivými kanály již

začínají převažovat vlnové stránky jejich povahy – jejich vlnová

klubka v podstatě přesahují až k „sousedům,“ které mohou

ovlivňovat. (Co byste také čekali od současných prototypů obvodů

s velikostí elementárních prvků 100 nanometrů a pracujících na

frekvenci 1 GHz?)

Jak se zdá, stojíme na přelomu nejen tisíciletí, ale také

technologických epoch, jejichž střídání je neodvratným dějem. Je

přitom zajímavé, že analogii současného dění můžeme najít na

přelomu minulého a našeho století, i když tehdejší „deprese“

byla přece jen větší. Klasická fyzika se zdála mrtvá, či alespoň

konceptuálně dokončena a nadějným studentům se doporučovaly

sociální vědy či alespoň chemie, kde ještě nějaké kombinace

sloučenin zbývalo vyzkoušet. Ředitelé patentovacích ústavů

odcházeli do penze, protože již „všechno bylo vynalezeno.“

Dnes se to může zdát absurdní, ale podobné úvahy měly svoje

důvody a naše pozice je prostě o to lepší, že „víme, jak to

dopadlo.“ Kvantová fyzika v čele s principem neurčitosti

zpochybnila platnost klasické mechaniky ve světě malých dimenzí,

teorie relativity na to zase šla od lesa velmi vysokých

rychlostí. Dnešní svět je ovšem především světem polovodičů,

tedy něčím mezi vodičem a polovodičem.

Současný vývoj naznačuje, že příští století možná bude světem

genetického inženýrství (manipulací?). Možná je skutečně načase

pozastavit honbu za lepším počítačovým hardwarem, kde stále

větší (miliardové) investice přinášejí stále méně výrazná

zlepšení, a prostě si jen nechat vypěstovat lepší mozek (nebo

alespoň něco jako logický ko-mozek). Je pravděpodobné, že

dalších sto let bude světem především biologů a lékařů. V tomto

století prostě vyměnili ruční pilky za kotoučové (a na shrnování

kůže z lebky stejně potřebují pomocníka), vynalezli chemickou a

radiační terapii (v některých výkladových slovnících uváděno

jako vyhánění čerta ďáblem). V tom příštím nám „hydroponicky“

(až do uznání patentu odmítám podávat vysvětlení) vypěstují nové

končetiny místo těch useklých. Ke konci 21. století si budeme

moci potomka postavit podle vlastní představy z na dobírku

získatelné genové stavebnice a naše děti nás budou nenávidět za

to, že jsme jim nepořídili módní uši typu „Spock.“ To nás ale

nepochybně očekává další období pochybností, zda možnosti

„rozumné“ genové variability nebyly vyčerpány.

To jsme se však již příliš vzdálili (dobrá, vzdálil jsem se) od

našeho tématu a pravděpodobného zájmu čtenáře. Stejně jako na

počátku tohoto století můžeme pro to příští očekávat radikálně

nový pohled na možnosti jednotlivých věd a technologií a využití

jejich dnes neexistujících „průniků“ či mezí platnosti. Velmi

jsme se přiblížili k době, kdy zvládneme elementární základy

práce s geny a molekulární elektronikou. Mimo dnes tolik

populární pokusy s klonováním ovcí či genetickou manipulací žab

(viz pulci bez hlav) a myší (pokud jste přehlédli, tak viz

japonská myš se světélkující kůží) se menší pozornosti

veřejnosti těší fakt, že laboratoře pro idenfikaci svých

produktů používají podpisy ve formě genových sekvencí, stejně

tak, že v jiných laboratořích pracují prototypy „molekulárních

tranzistorů“ a tzv. molekulárních pamětí. Budeme se tedy držet

poměrně při zemi, když prohlásíme, že nás několik let dělí od

obvodů (OGC – organic grown circuit) tvořených molekulárními

součástkami a principy, vytvářených biochemickými postupy. Z

tohoto pohledu jsou ty dnešní IC (integrated circuit) vytesávány

dlátem (pomocí fotomasek a laserového paprsku, pro ty

následující budeme možná potřebovat lžíci.

Takovými prostředky lze dojít nejen k velmi malým procesorům a

pamětem o extrémních hustotách, ale tyto obvody budou velmi

rychlé díky svým schopnostem autonomního učení a masivního

paralelního provádění operací již na základě své podstaty,

nikoliv podle jim uměle vnucovaného algoritmu z o mnoho vrstev

výše vzdáleného operačního systému.

Nenechme se přitom zmýlit pojmem obvod. Nemusí jít jen o

procesory a klasické „dočasné“ paměti. Půjde také o čisté

polovodičové náhrady dnešních disků, CD-ROMů a dalších zařízení,

které jako obvody určitě nevnímáme, ale v budoucnosti se to

změní.

V poslední době můžeme často vídat tvrzení o mezi pro růst

hustot/kapacit pevných disků okolo roku 2005. To nás ovšem vůbec

nemusí nijak traumatizovat, protože již samotná myšlenka

ukládacího zařízení postaveného na pohybujících částech je

naprosto absurdní. Je možné, že dnešní magnetorezistentní hlavy

pevných disků jsou špičkovou technologií, stlačujících gigabajty

dat do čtverečního palce, stále je ale nutné gramy (v těchto

dimenzích tuny) jejich hmoty přesouvat ze stopy na stopu. Proto

se ostatně vyhledávací doby disků příliš nezlepšují a zůstávají

někde u řádu několika milisekund, na časové míle daleko od

současných polovodičových paměťových obvodů.

Rychlost otáčení ploten s magnetickým povrchem přitom nic

neřeší, protože přispívá k¦obvodovým, a tudíž přenosovým

rychlostem. (Právě mi na mysl přišel zábavný koncept, kdy by

plotny rotovaly ještě okolo jedné „vnější“ osy tak, aby snímací

hlavička postupně protínala všechny stopy. V takovém případě by

rychlost tohoto otáčení přímo ovlivňovala přístupové časy, ovšem

zase s přenosovou rychlostí by to dělalo ošklivé věci.) Pravdou

ale zůstává, že v ne tak vzdálené budoucnosti budou s výjimkou

závěrečné archivace pro ukládání dat sloužit vysokapacitní

polovodičové paměti, a nemusíme hned uvažovat futuristické

technologie. Jestliže dnes v rámci prototypů existují

jednogigabitové čipy (v dnešních pamětech se používají 16– a

64megabitové čipy), potřebujeme 8 těchto „brouků“ k uložení 1 GB

dat na destičku velikosti diskety, při přenosových rychlostech

na úrovni stovek megabajtů za vteřinu a přístupových dobách

desítek nanosekund. Tento výhled do budoucnosti je nepochybně

optimistický, třeba jen z důvodu umělé inteligence, která možná

více než na rychlosti zpracovávání závisí na možnosti

efektivního ukládání naučených vědomostních a myšlenkových vzorů.

Pokud budeme uvažovat v rámci termínů z počítačové současnosti,

velikosti RAM (random access memory) nenaráží na žádné

principiální stropy, protože paměťové moduly (DIMMy či SIMMy)

jsou kumulativní – prostě se jen skládají do slotů vedle sebe.

Dnes je to jen otázkou dostatečného počtu paměťových slotů –

dražší osobní počítače, určené jako servery, dnes osadíme až 1

GB RAM. Z toho pohledu můžeme považovat 128 MB jako standardní

paměťové vybavení v roce 2000 za naprosto realistický údaj.

Umožní to také výrazný pokles cen za uložení jednoho bitu

informace, např. díky posledním úspěchům firmy Intel na poli

množství bitů uložitelných – což nemusí být nutně jeden – v

elementární buňce (tvořené několika kondenzátory a tranzistory)

paměti.

Na poli rychlosti pamětí to již není tak snadné, přes všechny

nové typy pamětí (dnes je nastupujícím typem především SDRAM, v

budoucnosti je možná architektura RAMBUS a další) se pohybuje v

rámci jednoho řádu 10 – 60 ns. I takové rozdíly ale hrají roli,

a pokud uživatelé stále ještě žijí ve světě EDO SIMMů či DIMMů,

budou se muset velmi rychle přeorientovat, protože nové 75 –

100MHz motherboardy takové pomalé čipy akceptovat nemohou, či

alespoň ne bez značného zpomalení jejich činnosti.

Vliv rychlosti paměti na výsledný výkon počítače v poslední době

přece jen eliminovaly nové typy vyrovnávacích pamětí,

pracujících přímo na rychlosti procesoru a sdílejících s ním

jeho sběrnici. Z pohledu dnešního uživatele neexistují, protože

sdílejí jedno pouzdro s procesorem, pokud už nejsou přímo na

tomtéž čipu. (Konkrétněji např. Pentium II a Pentium Pro, nebo

celá nová řada PowerPC 750.)

Pro diváky nejvděčnější je ale boj procesorů o co největší

rychlost. Jak již vyplynulo z článku, ač se nám při zachování

ceny dostupné procesory – a tedy i počítače – urychlí dvakrát

každých 18 měsíců, nemají šanci proti neustále rozpínajícím se

masám dat. Podobných oblastí bychom ale našli spoustu, průměrná

velikost souborů a WWW stránek na Internetu také roste (kdy jste

naposledy viděli demoverzi hry pod 20 MB?), zatímco rychlosti

domácích modemů rostou jen pomalu 28,8 → 33,6 → 56 kb/s a

možná → 112 kb/s.

Ale nazpět k rychlostem procesorů: v roce 1997 bylo rozložení

sil (u reálně prodávaných produktů) Pentium II:300 MHz, PowerPC:

350 MHz, Alpha: 600 MHz. Tyto hodnoty nám garantují pro letošek

osobní počítače v rozumných cenových relacích frekvenční rozmezí

200 – 400 MHz, pro rok 1999 300 – 500 MHz, a jsme na přelomu

tisíciletí, u počítače za 2 000 dolarů s průměrnou rychlostí 400

MHz. Samozřejmě se vnucuje otázka multiprocesorových počítačů,

které mohou elegantně nabízet „škálovatelnost“ výkonu podle

potřeby, jak je to obyčejem u sálových počítačů. Problémy jsou

bohužel v technologické nedospělosti operačních systémů i

hardwaru. „Domácí“ systémy jako Windows 9× či Mac OS 8 prostě

symetrický multiprocessing nenabízejí a u procesorů typu Pentium

II či PowerPC 750 je také možná kooperace více čipů značně

chabá.

Principiální problém leží rovněž ve sdílení operační paměti mezi

několika aktivními procesory, kde si pro budoucnost nacvičte

pojmy jako je NUMA (nonuniform memory access), což je technika

paralelního přístupu do paměti, vůči níž se snad s výjimkou SGI

všichni výrobci počítačů včetně mainframů prozatím chovají

značně nejistě. Jasně vyložené karty jsou ale již u nového typu

procesoru, odvozeného od technologie VLIW (very long instruction

word). Po několika odkladech můžeme již najisto pro konec roku

1999 počítat se 64bitovým procesorem IA-64 (dříve Merced) firmy

Intel, jehož jádro by mělo běžet na 1 GHz a měl by mít schopnost

zpracovávat „makroinstrukce“ načítané v jednom kroku z paměti

jejich rozkládáním do až několika set „mikroinstrukcí“ (více

zjednodušující vysvětlení principu VLIW za tyhle peníze

neseženete).

Na 1 GHz mezi – kterou jsme z úvah o osobních počítačích tohoto

století/tisíciletí vědomě vynechali – ale Merced určitě nebude

sám. Podle neoficiálních zdrojů má IBM na odborné konferenci již

v únoru tohoto roku předvést svůj 1GHz procesor (označení

naznačuje, že bude nejspíše určen na pomoc sálovým počítačům).

Měli bychom si přitom uvědomit, že překonání nové frekvenční

hranice nebývá u procesorů podmíněno přepracováním architektury,

ale prostým automatickým výsledkem vylepšení výrobního procesu,

který je dnes na úrovni součástek 0,18 – 0,25 mikronu a má do

konce století klesnout na 0,1 mikronu. Klíčovým je zde zdroj

záření, pomocí nějž je na fotocitlivý materiál vytvářena maska,

přes kterou se potom napařují jednotlivé polovodičové vrstvy.

Dnes jsou výrobci tlačeni do ultrafialové oblasti a v rámci

spolupráce firem Advanced Micro Devices, Intel a Motorola se

odehrává boj s rengenovými zdroji, které by v následujících dvou

desetiletích přinesly až 0,03mikronové procesy.

Co se týká proudů tekoucích takovýmito kanály, současná

polovodičová technologie je postavena na pohybu bloků několika

set tisíc elektronů. Již více než rok ale běží v Cambridge

University rešeršní projekt, zaměřený na „jednoelektronové

paměti a další polovodičová zařízení“, během kterého již byl

skutečně postaven tranzistor pracující na bázi průchodu jediného

elektronu. Komerční aplikace je samozřejmě ještě desetiletí

daleko, na druhé straně, kdo ví…

Vložený krátký text s doporučenými texty