Srovnejte datové centrum do latě! Díky automatizaci

Automatizaci používáme desítky let a pronikla prakticky do všech oblastí podnikání. Není proto nic divného na faktu, že se automatizuje i provoz něčeho tak složitého, jako je datové centrum. I když se pohybujeme ve světě jedniček a nul, přináší automatizace stejné výhody jako třeba v průmyslu: zrychlení všech operací, odstranění rutinních manuálních činností, zvýšení bezpečnosti či vyřešení nedostatku specialistů

Proč do systému, kde na první pohled procesy běží bez zásahu člověka, zavádět automatizací? Laikovi se může zdát, že pokud vše běží hladce, datové centrum přece manuální zásahy nepotřebuje a lidský faktor nastupuje většinou až v případě krize, havárie, výpadku.

Ale filozofie a architektura dnešního IT světa se v posledních letech natolik proměnila, že to bez automatizace skoro nejde. „Mohou“ za to cloudy, konzumace služeb v režimu SaaS a především nové přístupy k vývoji a nasazování všudypřítomných aplikací. Každá firma, která to myslí s digitalizací vážně, musí zavést automatické postupy, protože se starou infrastrukturou prostě v byznysu neuspěje.

Automatizace datového centra je zajištěna softwarem, který zajišťuje centralizovaný přístup ke konfiguraci většiny zdrojů. Díky tomu lze tyto technologií a zdroje ovládat a spravovat jednoduše, a mnohdy bez znalosti technických detailů. Zpřístupňování požadovaných služeb je pak mnohem jednodušší a rychlejší. Z řádu dní a týdnů, které si požadavky na nové aplikace obvykle vyžádaly v minulosti, se posunujeme k jednotkám minut.

Moderní aplikace potřebují automatizaci

K využití automatizačních nástrojů firmy nejčastěji „donutí“ přechod do cloudu nebo do hybridního prostředí, snaha rychle vyvíjet a nasazovat aplikace, či potřeba zrychlit implementaci nových prostředí a snížit závislost na lidských zdrojích.

Doba, kdy se aplikace vyvíjela a testovala v řádu týdnů, či dokonce měsíců je nenávratně pryč. Dnešní aplikace se staví z velkého množství menších celků (tzv. mikroservices), z nichž každý lze nezávisle měnit či upgradovat. A vývoj, testování i nasazování vyžaduje automatizovanou infrastrukturu, která dovoluje rychlé změny a úpravy.

Dalším častým scénářem, který vyžaduje automatizaci, je přechod firmy do cloudu nebo ještě častěji do hybridního prostředí, které kombinuje využití cloudu a on-premise infrastruktury. Zatímco cloudy jsou již na automatizaci připraveny, je třeba i prostředí vlastního datacentra automatizovat a obě prostředí propojit vztahy mezi oběma světy.

A konečně, k nasazení automatizace motivuje snaha o zrychlení implementace nových prostředí a vyřešení problému lidského faktoru. Nedostatek špičkových expertů v IT je dnes všeobecný, takže se ukazuje jako strategicky výhodné, pokud je datové centrum co nejméně závislé právě na tom, jestli někdo firmu opustí či neopustí, zda dělá či nedělá chyby.

Infrastruktura jako kód

Cesta k automatizaci v podání Soitronu vede přes budování platforem pro automatizaci, prostřednictvím kterých se danému prostředí datacentra (cloud, hybridní, on-premise) definují automatizační postupy. Jde vlastně o uplatnění podobného principu, jakým se vytvářejí zdrojové kódy u aplikací. Přepsání celé infrastruktury do kódu (Infrastructure as a code) přináší oproti manuálnímu vytváření prostředí mnoho výhod.

Ve chvíli, kdy je definována pomocí skriptů, se při každém nasazení vytváří stejné prostředí. Tento postup se nejlépe uplatňuje, pokud má zákazník prostředí, které potřebuje centrálně řídit a chce dynamicky měnit jednotlivá aplikační prostředí. Pomocí skriptů lze jednoduchým způsobem provádět změny napříč celou infrastrukturou. Například firma pro všechny databáze definuje, že se budou zálohovat 10 x denně a že ke každé z nich mohou přistupovat předem určení administrátoři. Pak ovšem založí novou pobočku a změní se podmínky. V takovém případě může společnost jednoduše s pomocí skriptů nastavit například zvýšení počtu denních záloh nebo přidat další administrátory s přístupem.

Dokumentace vytváří zálohu infrastruktury

Další výhodou automatizace představuje dokumentace. Prostředí je definováno pomocí kódu, což umožňuje snadno vyčíst, co je v něm nasazeno a jak je vše konfigurováno. Nasazení lze kdykoliv znovu opakovat (jde vlastně o zálohu infrastruktury) třeba v případě havárie nebo lze vytvořit paralelní testovací prostředí.

„Dokumentace navíc řeší i problém personální nahraditelnosti či závislosti, protože ve chvíli, kdy máte kódově definovanou infrastrukturu, může s ní pracovat podstatně širší okruh lidí než jediný ajťák, který si zrovna pamatuje, jak jste to kdysi dělali,“ vysvětluje Zbyszek Lugsch, business development director Soitronu.

Prostředí standardizované pomocí skriptů dovoluje pracovat s ním dalším lidem, kteří mohou zadávat parametry specifické pro konkrétní stroj nebo aplikaci. Skriptování současně dovoluje aplikovat stejnou bezpečnost v celém systému například i při instalaci nových serverů.

Automatizace je projektem na míru

Automatizace datového centra je vždy do značné míry unikátním projektem, protože každá firma používá trochu jiné technologie a nachází se v různém stádiu podpory automatizace. Další postup určuje záměr, například potřeba vytvářet vhodné prostředí pro vývojáře nebo snaha z on premise centra postavit hybridní architekturu apod. Následuje návrh na výměnu, doplnění funkcí, komponent či vrstev datového centra, na což navazuje implementace automatizační platformy a vytvoření skriptů. Vlastní nasazení probíhá tak, že se postupně překlápějí stávající systémy do nového prostředí až do chvíle, kdy je možné „staré“ prostředí vypnout.

A rozjet práci v prostředí, které umožňuje rychlý vývoj a nasazování aplikací, má nižší nároky na personální obsazení a zároveň nabízí vysokou míru bezpečnosti.

#Cisco ExpertTip Martina Diviše, systémového inženýra společnosti Cisco: Nasaďte ICO

Jedním z nejkomplexnějších automatizačních nástrojů je Cisco Intersight Cloud Orchestrator (ICO). ICO představuje platformu poskytovanou jako služba (SaaS), která dovoluje spravovat širokou škálu technologií, jako jsou servery, síťová zařízení, úložiště dat a další napříč celou infrastrukturou firmy.

Hlavní předností ICO je multidoménový a multivendorský přístup, který umožňuje nástroj používat bez ohledu na aktuální implementaci. ICO obsahuje rozsáhlou knihovnu předem připravených úloh, které lze nasadit pro opakující se úkoly nebo procesy ve spravovaných infrastrukturách. ICO pracuje v low code/no code designu a dovoluje úlohy nastavovat a spouštět pomocí drag and drop (táhnutí myší). Je navržen s maximálním důrazem na uživatelskou jednoduchost, což zpřístupňuje automatizační operace velkému okruhu členů IT týmu.

Bez softwarově definovaných datových center se firmy neobejdou

Ve firmách i státních institucích se informační technologie podílejí už téměř na veškerých procesech. Složitost komunikačních systémů roste, infrastruktura se musí měnit stále rychleji, a především přizpůsobovat aktuálním potřebám. Řešením jsou softwarově definovaná datová centra (SD DC). Konkrétně se dnes zaměříme na komunikační toky v datových centrech.

CO JE TO SDx A JAK DO TOHOTO KONCEPTU ZAPADÁ SD DC

Podívejme se nejprve na princip SDx jako takového. Pokud chceme něco v tradičních datových centrech konfigurovat, musíme každý komunikační prvek nastavovat samostatně, zařízení po zařízení tak abychom dosáhli požadované funkcionality celku. U SDx vše provádíme z jednoho centrálního bodu – orchestrátoru. Do něj zadáme pravidla, která má daná síť splnit. A centrálně řízený orchestrátor jednotlivé prvky nakonfiguruje.

Takto můžeme přistupovat například k routing a přes SD WAN orchestrátor konfigurovat, spravovat a optimalizovat přenosové trasy i mezi kontitenty. Anebo můžeme SDA orchestrátor využít k optimalizaci a nastavování oživatelských přístupů, v LAN sítích, klidně i ve vice geografických lokalitách.

V případě datových center nám orchestrátor umožní automatizační konfiguraci jednotlivých komunikačních prvků v prostředí, které může zahrnovat jednu, ale I vice lokalit (distribuční DC). Případně část datového centra může být v cloudu/cloudech různých poskytovatelů.

U SDx je také podstatné, že máme oddělenou trasu pro konfiguraci a pro data. Ve starším legacy světě toto neexistovalo. Jednoduše řečeno, v SDx světě jsou poprvé konfigurační vrstvy (control plane)konfigurační trasy oddělené od těch datových (data plane) přenosových. Další podstatná věc je, že se to vše děje z jednoho místa. Tím pádem je nám jedno, kolik zařízení v dané síti máme – zda pět nebo padesát.

ÚVOD DO LEGACY DC SVĚTA

Představte si, že budujeme datové centrum a chceme postavit jednoduchou webovou aplikaci, která má nějaké logické vrstvy. První vrstva aplikace bude frontend, ke kterému se připojují lidé z internetu. Samoté zpracovávání zařizuje ve většině případů druhá vrstva – backend. Ta zpracovává požadavky z frontendu a využívá vstupy z databázové vrstvy. Takto si můžeme reálně nějakou aplikaci představit – je složená s frontendu, beckendu a databáze.

Na každou z těchto vrstev jsou kladené trochu jiné požadavky. U databáze jsou vyžadovány jiné nároky z oblasti zabezpečení, protože do ní mají přístup jen důvěryhodné systémy. Naopak frontend je otevřený do internetu. Tam musíme bezpečnostní přístup řešit úplně jinak.

Aby byl v tradičním datacentru obsah ochráněn, je nutné data zabezpečit, aby komunikace, která na frontend přichází, byla za síťovým firewallom, za aplikačním firewallom a za nějakým balancerem. Do cesty je tak nutné postavit tři hardwarové síťové prvky. Ve standardním světě se nastavují příslušné síťové prvky, a IP adresy tak, aby pakety mohly přes tyto tři prvky procházet. Tím lze zakázat, aby uživatel přes internet tyto tři prvky obešel a rovnou se dostal na
frontendový server.

ROZDÍL MEZI LEGACY A SDx SVĚTEM

Nyní se dostáváme k tomu zásadnímu, co legacy svět odlišuje od SDx. V SD světě jednoduše řečeno nepotřebujeme konfigurovat jednotlivé prvky. Ukažme si to na příkladu ostrovů v oceánu. Každý ostrov je častí aplikace. Máme ostrov frontend a ostrov database, například z roku 2019. V současnosti se rozhodneme aplikaci aktualizovat a přibude další ostrov – backend. I na něm je potřeba vše zabezpečit – firewall, loadbalancer atd. Musíme obrazně zrušiť staré plavební trasy a vybudovat nové. Jak na to? Z jednoho místa z orchestrátoru zařídím, aby lodička neplula cestou internet-frontend, následně frontend-databáze. Ale trasu frontend-databáze zruším a přes orchestrátor lodičce povím, že do databáze nebude plout přímo, ale nejprve zamíří na ostrov backend. A z něj se vybuduje další trasa na databázi. V případě velkého množství návštěvníků nám orchestrátor dokáže měnit velikost lodičky, aby dokázala přivést všechny návstěvníky (dynamické přídávání zdrojů – server – kontejnerů). Možná se zdá, že je to jednoduchý process, ale pokud se dostaneme na úroveň reálné konfigurace síťových prvků tak je to velký zásah do života daného datacentra.

Ve světě SD si danou cestu budujeme softwarově. Jen orchestrátoru zadáme příkaz, že chceme cesty takto pozměnit a orchestátor plošně provede rekonfiguraci po jednotlivých prvcích. Administrátor přitom vůbec nemusel fyzicky do datacentra docházet, nic růčně konfigurovat, provádět změny v kabeláži, či měnit VLAN nebo IP adresaci, směřování (routing) v síti atd. U SD se I na komunikační trasy díváme z pohledu aplikace. S tím souvisí otázka geografického umístění datových center.

VZDÁLENÁ DATOVÁ CENTRA SPOLU KOMUNIKUJÍ EFEKTIVNĚJI

Uveďme si příklad – zákazník si vybuduje datacentrum a má ho na jednom místě. Pokud tam má kritické informace, může přijít povodeň či jiná živelná pohroma a je problém. Přijde o své jediné datacentrum a o sto procent všechny informace. V takovém případě zákazníci provedou to, že si vybudují dvě či vice datacenter, která jsou geograficky oddělená. Vzdálenost zde nehraje roli. Je jedno, zda jsou od sebe 10 či 50 kilometrů.

Uveďme si příklad, v jednom datacentru nám běží aplikace. Dojde k živelné pohromě a datacentrum „zhasne”. V takovém případě potřebujeme v reálném čase prepnout na službu v druhém datacentru. Není problem ji tam „zapnout”. Otázka je, co udělat s daty?

U klasických datových center se mezi databázemi budují samostatné datové trasy. DB tak fungují obrazně v jedné síti a mohou se synchroně replikovat. V SD světě toto umíme zabezpečit bez toho, aby tam musel být fyzický přepoj. Nepotřebujeme přímé propojení mezi dvojicí datových center. Můžeme využít jakýkoliv transport, který máme k dispozici. Může to být internet, MPLS atd. Nad tím dokážeme datová centra propojit takovým způsobem, jako byla umístěná v jedné síti. Pokud půjdeme od tohoto konceptu trochu dale, proč by to to druhé datové centrum nemohlo být cloud? Tím jsme chtěli říct, že softwarově definované datové centrum a způsob, jakým se konfiguruje prostřednictvím orchestrátoru, dokáže zabezpečit i propojení geograficky vzdálených datových center. A to vše jednoduše přes běžnou IP síť.

JAKÁ JE BODOUCNOST?

Vlastní datová centra byla dříve neefektivními monstry, která vyžadovala práci řady odborníků. Byla navíc velmi nákladná, takže si je mohli dovolit jen korporace, státní instituce či armáda. To se postupem let měnilo. Nástup virtualizace serverů někdy na přelomu tisíciletí byl přelomový a datová centra si mohly dovolit i menší subjekty. V následujících desítkách let nebude výjimkou, aby jeden IT specialista obstarával klidně tisíce serverů najednou. Na to si ale budeme muset ještě chvíli počkat.

Softwarově definované datové centrum (SD DC), také někdy nazývané jako virtuální datové centrum (VDC) je marketingový pojem, který rozšiřuje virtualizační koncepty, jako je abstrakce, sdružování a automatizace, na všechny zdroje a služby datového centra za účelem dosažení IT jako služby (ITaaS). V softwarově definovaném datovém centru jsou všechny prvky infrastruktury (sítě, úložiště, CPU a zabezpečení) virtualizovány a dodávány jako služba.