Jak chytře investovat do úložných řešení

15. 2. 2015

Sdílet

Autor: © animind - Fotolia.com
Nasazení flash pamětí do úložných systémů by mělo předcházet pečlivé prozkoumání vlivu této technologie na současné i budoucí potřeby.

Úložiště využívající SSD představují slibnou technologii, která se v příštím desetiletí bude nasazovat v téměř všech datových centrech. Primární nevýhodou je ale cena, která je, navzdory tvrzení dodavatelů, 3× až 10× větší než cena rotačních médií (HDD).

Objasníme vám dva základní způsoby, které lze použít k analýze současných i budoucích požadavků a k porozumění tomu, jaké zátěže budou mít prospěch z úložišť tvořených právě prvky SSD.

Jedním z nejlepších způsobů, jak porozumět požadavkům nasazení, je mít přesný model představující aktuální profily vstupně-výstupních operací úložiště. Takový model lze použít k otestování nových architektur, produktů a přístupů.

Cílem je umožnit vývoj dostatečně realistického modelu zátěže, aby bylo možné srovnávat různé technologie, zařízení, konfigurace a verze softwaru i firmwaru, které se mají nasadit v infrastruktuře.

Prvním krokem k efektivnímu modelování zátěže je znát klíčové charakteristiky přenosů úložiště, které mají největší potenciální dopad na výkon. U každého nasazení je důležité pochopit špičkové zátěže, specializované zátěže, jako jsou například zálohování a vzorce zátěže ke konci měsíce a roku, a vlivné události, jako jsou například smrště úkonů přihlašování či odhlašování.

Existují tři základní oblasti, které je potřebné uvážit při charakterizování zatížení. První je popis velikosti, rozsahu a konfigurace samotného prostředí. Druhá je porozumět přístupovým vzorům – jak často a jakými způsoby se k datům přistupuje. A třetí je pochopit zátěžové vzory v průběhu času.

Prostředí různých úložných systémů (NAS, tedy souborový a SAN, blokový) mají své jedinečné charakteristiky, které se musí dobře pochopit, aby bylo možné vytvořit přesný model zátěže.

Například v prostředí NAS je nutné určit odpovídající počet klientů a serverů, množství klientů na server, rozložení velikostí souboru, podadresářů, hloubku stromů apod.

V prostředí SAN je zase nezbytné stanovit počet fyzických iniciátorů (HBA/NIC), průměrný počet virtuálních iniciátorů na jeden fyzický iniciátor, průměrné množství aktivních virtuálních iniciátorů na fyzický port, počet logických jednotek na HBA a nastavení hloubky fronty pro serverové HBA nebo iSCSI LUN.

Přístupové vzory jsou také klíčem k pochopení toho, jak často a jakým způsobem se k úložišti přistupuje. Je důležité zohlednit několik případů použití, jako jsou průměrné, špičkové a při speciálních podnikových událostech. Správné stanovení charakteristiky přístupových vzorů je také odlišné pro souborová a bloková úložiště.

Prostředí NAS

V prostředích NAS souvisejí informace o každém souboru s adresářem a počítačem včetně údajů, jako jsou název souboru, umístění, datum vytvoření, čas posledního zápisu, přístupová práva a stav zálohy. Tyto informace, nazývané jako metadata, často tvoří velkou část všech příkazů přístupu k souborům a přenosů úložiště.

Některé přístupové vzory aplikací obsahují více než 90 % metadat a méně než 10 % patří zápisu a čtení dat samotných. Pro přístup k souborům je důležité znát procentuální rozložení pro každý příkaz.

Freewarové nástroje jako Iometer (které mnoho dodavatelů flash technologií používá pro posuzování hodnoty IOPS) jsou v prostředích s ukládáním souborů nepoužitelné, protože nedokážou modelovat příkazy pro metadata.

Ty ale umožňují pochopit, jak aplikace zatěžuje úložnou infrastrukturu a zpracování, které se vyskytuje v každém počítači, a to nejen v souborovém systému.

Testování by mělo také odrážet komprimovatelnost, vzory a jak dobře lze data deduplikovat. Abychom rozuměli, jak dobře funguje rozpoznávání vzorů v prostředí, musí testování obsahovat datové typy reprezentující aplikace, které používají úložiště souborů.

 

Prostředí SAN

TOP100

V prostředí SAN udržuje každá aplikace svá vlastní metadata. Z hlediska přenosů úložiště vypadá přístup k metadatům jako aplikační přístup s výjimkou toho, že se oblast metadat obvykle více zatěžuje a přístup je tam častější než v oblastech, kde se nacházejí data aplikací.

Kompletní článek zahrnující spoustu dalších poznatků, trendů a zajímavostí si můžete přečíst v Computerworldu 15/2014.