Upgrade síťové infrastruktury v našich datacentrech (část 1.) – 2x 100Gbps mezi pražskými datacentry

V tomto a také v jednom z příštích blogpostů bych se rád věnoval síťových upgradům ve všech třech našich datacentrech. Na letošní rok jsme si totiž naplánovali poměrně velké zásahy do infrastruktury. Koronakrize nám způsobila značné komplikace v realizacích. Původní plán navrhnout a pořídit potřebný materiál (ODF, transceivery, metalickou a optickou kabeláž apod.) během prvního kvartálu a začít s realizacemi hned na jaře vzal za své. Vzhledem ke značným výpadkům ve výrobě některých komponent byly dodací lhůty násobně delší a tak jsme museli jednotlivé realizace přeorganizovat. Fyzicky jsme mohli začít pracovat v datacentrech až v černu. Dnešní část se bude věnovat navýšení kapacity linek mezi našimi primárními datacentry v Praze.

Původní zapojení okruhů – 2x 10Gbps

Mezi datacentry ČRA Tower a CE Colo v Praze máme pronajaté dva nezávislé dvouvláknové okruhy od různých dodavatelů, které jsou vedené odlišnými trasami. Oba okruhy jsou tzv. „Dark Fiber“, tedy nenasvícená optická vlákna. To znamená, že není definována rychlost, jakou budeme na linkách využívat. Rychlost je definována použitými transceivery na obou koncích okruhů. Původní zapojení mělo kapacitu 2x 10Gbps, kdy každý okruh byl zapojen do jednoho ze dvou páteřních switchů v dané lokalitě. Celkově jsme tedy měli díky LACP (Link Aggregation Control Protocol – neboli metodě kombinující více fyzických síťových připojení do logické linky, jež poskytuje odolnost proti výpadku a zvyšuje rychlost) mezi pražskými datacentry k dispozici 20Gbps.

Původní zapojení CE Colo – ČRA

Tato kapacita však již nebyla dostatečná, neboť realizací privátního sálu v ČRA Tower a novou koncepcí sítě jsme díky postupné obměně access switchů začali zapojovat všechny servery dvěma 10Gbps uplinky. Jako první bylo (nepočítaje DNS anycast) tímto způsobem zapojeno produkční prostředí registru FRED a servery pro provoz služby mojeID v datacentru ČRA Tower a neveřejné lokalitě. Dalším podstatným důvodem bylo, že v obou lokalitách provozujeme dva velké 100Gbps DNS stacky.

Nové zapojení okruhů – CWDM a něco navíc

Začali jsme tedy uvažovat nad upgradem na 2x 100Gbps. Na tom by nebylo nic těžkého. Díky průběžným upgradům i páteřních switchů v obou lokalitách jsme měli k dispozici dostatek 100Gbps portů. Stačilo by tedy na současných okruzích vyměnit 10Gb SFP+ LR transceivery za 100G QSFP28 LR. Ale tak jednoduché to nebylo. V nové koncepci sítě jsme totiž začali zcela oddělovat MGMT síť, tedy síť, kam jsou připojené remote-managementy serverů, switche, konzolové switche apod. Tuto MGMT síť jsme začali jako první používat právě v privátním sálu v ČRA Tower, kde jsme společně s optickou infrastrukturou natáhli i metalickou kabeláž mezi páteřními a access MGMT switchi. Aby byla dostupná i v datacentru CE Colo a také v neveřejné lokalitě, řešili jsme to pomocí technologie Q-in-Q, díky které je možné tzv. „zabalit“ vybrané VLANy do jiné a tuto jedinou „poslat“ mezi lokalitami. Řešení je to sice pěkné, ale popírá to náš záměr mít MGMT zcela oddělenou.

Bylo tedy potřeba najít takové řešení, jak po pronajatých okruzích provozovat 100Gbps a další kanál s 1Gbps čistě pro MGMT síť. Jelikož v obou lokalitách používáme modulární ODF, které umožňuje osazení různými typy modulů, oslovili jsme dodavatele, zda-li jsou takové řešení schopni dodat.

A skutečně takový modul měli k dispozici na bázi tzv. „band splitteru“ pro 1310/1550 nm. Pro 100Gbps by se tedy použil segment 1310nm a pro přenos 1/10Gbps pak 1550nm. Pro obě trasy bychom museli mít logicky celkem čtyři kusy těchto modulů.

Takové řešení by sice uspokojilo naše aktuální potřeby, ale nechtěli jsme být limitováni jen jedním dalším kanálem. Proto jsme uvažovali další možnosti rozšíření. Dostali jsme tedy nabídku na dvě rozšíření. 1) CWDM-MUX se čtyřmi kanály + 1310nm pro 100Gbps a 2) CWDM-MUX s osmi kanály + 1310nm pro 100Gbps. Dali jsme přednost ekonomičtější variantě, tedy řešení se čtyřmi kanály, které se dodává v jedné kazetě.

Jak to vlastně funguje? Uvnitř každého modulu je MUX. Ten kombinuje více optických signálů v jednom optickém vlákně za použití různých vlnových délek – barev. Jeho úkol je jednoduchý. Z připojeného okruhu „rozdělí“ vlnové délky na jednotlivé LC konektory. Stejně jako v původní variantě 100Gbps + 1Gbps, musíme mít v každém datacentru dva moduly, každý pro jeden okruh.

Schéma MUXu

Jak ukazuje schéma níže, do prvního LC konektoru je přiveden TRUNK, tedy vlákno jednoho okruhu. Na druhém konektoru je k dispozici 100Gbps na standardní vlnové délce 1310nm. Na zbylých čtyřech pak vlnové délky 1470, 1490, 1510 a 1530nm pro použití 1/10Gbps. Takto jsou zapojeny všechny moduly.

Zapojení CWDM modulů

My tedy reálně využijeme zatím 1310nm pro 100Gbps a 1470nm pro 1Gbps MGMT síť.

Obrázek níže ukazuje nové zapojení okruhů mezi datacentry při využití CWDM technologie.

Nové zapojení CE Colo – ČRA

Transceivery a zprovoznění

Ale to není všechno, ještě zbývá použít vhodné transceivery. Standardní 100G QSPF28 transceiver a různě „barevné“ 1G SFP transceivery jsou běžně k dostání. Je však důležité sledovat ještě jeden důležitý parametr každého transceiveru. A tím je power budget, tedy do jakého maximálního útlumu výrobce garantuje jeho funkčnost. Velikost útlumu je závislá na prvcích, které jsou po cestě, ale také na délce tras (včetně celkové délky přímo v datacentrech).

Museli jsme tedy zjistit, jako jsou útlumy na trasách a k nim připočítat útlumy i na MUX modulech.

Útlumy tras s náměrem po datacentrech vycházely následovně:

Trasa1:

* 1310nm – 7.65dB

* 1550nm – 5.48dB

Trasa 2

* 1310nm – 7.66dB

* 1550nm – 5,01dB

Připočtením 2x 1,4dB útlumu na MUX modulech se dostáváme na nejhorší útlum cca 10,46dB. Což už je poměrně hodně. Pro srovnání, u běžného 100Gbps LR transceiveru pro délku 10 km se pohybuje power budget okolo 4-5dB. Museli jsme tedy najít výkonnější transceiver, byť délka 10 kilometrů by dostačovala. Vybírali jsme mezi různými dodavateli, včetně dodavatele MUX modulů. Nakonec jsme pořídili transceivery 100G QSFP28 ER4 with dual CDR, 40 km, LC-Duplex, λ1296-1309 nm s power budgetem 18dB od dodavatele, který nabídl nejnižší cenu a právě nejvyšší power budget. Máme celkem pět kusů, abychom měli jeden náhradní. Jelikož se jedná o poměrně drahé a nepříliš běžné transceivery, mohou mít delší dodací lhůtu. Pro MGMT síť jsme pak vybrali 1G SFP CWDM EX, 40 km, LC-Duplex, λ1470nm s power budgetem 19dB. Pořídili jsme samozřejmě také 5 kusů.

Oba propoje jsme díky LACP mohli postupně přepojit během dne a bez dopadu na celou infrastrukturu. Vlastně jeden dopad to přeci jen mělo, namísto 2x 10Gbps jsme „rozsvítili“ 2x 100Gbps! Na obrázku níže jsou nové 100G transceivery ty s tím červeným držákem.

Páteřní switche v CE Colo

V příští části o upgrade síťové infrastruktury shrnu všechny zbylé letošní úpravy v datacentru CE Colo a také novinky v naší neveřejné lokalitě.

Autor:

Zanechte komentář

Všechny údaje jsou povinné. E-mail nebude zobrazen.

Tato stránka používá Akismet k omezení spamu. Podívejte se, jak vaše data z komentářů zpracováváme..