Strona główna » Architektura systemów IT » Budowa data-center
Popularyzajca usług świadczonych w formie t.zw. chmury wpłynęła w ostatnich latach na zmianę podejścia do projektowania centrów danych. Firmy, które z różnych względów nie decydują się na utrzymywanie własnej infrastruktury serwerowej w zewnętrznych centrach danych implementują rozwiązania będące ich odpowiednikiem na mniejszą skalę – t.zw. chmury prywatne. Serwerownie składające się z dużej ilości sprzętowych serwerów, z których każdy świadczy określoną usługę i stanowi swego rodzaju „wyspę” z punktu widzenia sieci, systemu dyskowego, zasobów sprzętowych i zarządzania odeszły już do historii. Współczesne serwrownie stanowią jeden skomplikowany ale elastyczny i wygodny w zarządzaniu organizm, którego zasoby można zwiększać stosownie do rosnących potrzeb biznesu bez niepotrzebnych przerw technologicznych. W głównej mierze przyczynił się do tego rozwój technologii wirtualizacji (VMware, HyperV, Citrix) oraz pamięci masowych (macierze, sieci SAN).
Wirtualizacja systemów serwerowych i wykorzystanie macierzy jako współdzelonych zasobów dyskowych pozwala wyeliminować szereg problemów, z którymi borykano się przez wiele lat w centrach danych bazujących na fizycznych serwerach-„wyspach”. Do głównych zalet wirtualizacji i konsolidacji pamięci masowych zaliczyć należy:
Maksymalne wykorzystanie zasobów sprzętowych i poniesionych kosztów:
W tradycyjnym podejściu zakup każdego nowego serwera wiązał się ze sporym nakładem finansowym, który wykorzystywany był tylko w niewielkim stopniu. Ocbiążenie typowego serwera świadczącego jedną usługę nie przekraczało 10-20%, co oznaczało, że spora część poniesionych kosztów nie przynosiła żadnego efektu z biznesowego punktu widzenia. Dzięki wirtualizacji możliwe jest uruchamianie od kilku do kilkunastu serwerów wirtualnych na jednym serwerze fizycznym, którego zasoby wykorzystane mogą być na maksymalnym poziomie, pozostawiając jedynie minimalną rezerwę na wypadek nieplanowanego wzrostu obciążenia.
Wyeliminowanie przestojów spowodowanych awarią:
Stosowane dotychczas serwery w ujęciu tradycyjnym – sprzęt + system operacyjny stanowiły duży problem z punktu widzenia odtwarzania ich funkcjonalności po awarii. Awaria sprzętowa wiązała się często z koniecznością instalacji od zera systemu i usług na nowym sprzęcie, różniącym się często parametrami i wymagającym innych sterowników i konfiguracji. Przestój z tym związany, nawet jeżeli utrzymywane były zapasowe serwery lub części zamienne był nie do zaakceptowania z punktu widzenia ciągłości procesów biznesowych. Dostępne w systemach wirtualizacji rozwiązania typu HA (High Availability) umożliwiły niezauważalne dla użytkowników końcowych lub minimalne przerwy w dostępie do usług nawet w przypadku awarii znacznej części zasobów sprzętowych.
Zwiększenie wydajności i bezpieczeństwa systemów dyskowych:
Macierze dyskowe stanowią dużo wydajniejszą i bezpieczniejszą alternatywę dla lokalnych systemów dyskowych w serwerach. Tradycyjny system dyskowy dostępny w serwerze chroni nas wyłącznie przed awarią dysku chronionego mechanizmem RAID. Sam kontroler i jego sterownik, przewody, płyta główna stanowią już pojedyńcze punkty awarii, których wymiana wiąże się z przestojem w pracy serwera. Ponadto każdy lokalny system dyskowy wymaga pewnej nadmiarowości związanej z ochroną RAID i dyskami typu spare. Mnożąc te nadmiarowe dyski przez liczbę serwerów otrzymujemy całkiem pokaźną pulę dysków, których nie jesteśmy w stanie efektywnie wykorzystać, a za które musieliśmy zapłacić konkretne pieniądze. Również wydajność lokalnych systemów dyskowych w serwerach stanowi raczej stałą wartość, na którą nie mamy wpływu. Wszystkie te niedogodności wyeliminować możemy przez konsolidację zasobów na macierzach dyskowych. Oferują one dużo większą wydajność, którą można skalować poprzez zwiększanie ilości dysków. Jednocześnie dyski są wykorzystywane w bardziej efektywny sposób, gdyż partycje udostępniane różnym serwerom korzystają ze wspólnych dysków nadmariowych na potrzeby RAID i spare. Nieporównywalnie większa jest również niezawodność osiągana dzieki redundancji na poziomie portów dyskowych, kontrolerów, portów w kontrolerze, okablowania i portów w kartach HBA serwera. Uszkodzenie któregokolwiek lub nawet kilku z tych elementów nie musi już oznaczać przerwy w dostępie do zasobów dyskowych.
Zmniejszenie wykorzystywanej przestrzeni dyskowej i zwiększenie efektywności backupu:
W środowiskach, w których ilość składowanych danych może być problematyczna i trudna w utrzymaniu możliwe jest zastosownie systemów pamięci masowej oferującej funkcje deduplikacji. Dzięki jej zastosowaniu możliwe jest zmniejszenie wykorzystywanej przestrzeni dyskowej o kilkadziesiąt do kilkuset procent. Jest to bardzo przydatne, zwłaszcza w sytuacji, gdy tak duże ilości danych muszą być archiwizowane, backupowane i przechowywane przez długi okres.
Struktura i zależności występujące w nowoczesnym środowisku informatycznym powodują, że ilość zadań stojących przed administratorami na ogół znacznie przekracza możliwości zespołu IT. Dziesiątki serwerów fizycznych i wirtualnych, urządzenia sieciowe, pamięci masowe, zarządzanie kopiami zapasowymi, dziesiątki aplikacji to środowisko codziennej pracy ludzi odpowiedzialnych za system IT. Infrastruktura informatyczna jest jednym z ważnych elementów umożliwiających realizację podstawowych procesów biznesowych, natomiast awarie infrastruktury zagrażają ciągłości biznesowej przedsiębiorstwa.
Biblioteka ITIL (Information Technology Infrastructure Library) to zbiór dobrych praktyk zarządzania systemami IT uznawany za standard w wielu firmach. W opublikowanej w 2007 roku wersji 3 ITIL składa się z 5 działów:
W ramach powyższych opracowań realizowane są następujące procesy:
Jak widać zapewnienie zgodności ze standardami ITIL wymaga przestrzegania procedur i prowadzenia odpowiedniej dokumentacji. Wskazane jest w związku z tym, aby narzędzia wspomagające zarządzanie IT również były zgodne z zasadami ITIL. Stosowanie się do standardu podnosi jakość obsługi użytkowników, wspiera ciągłość pracy przedsiębiorstwa oraz pozwala na późniejszą analizę funkcjonowania działu informatyki.
Niezależnie od wsparcia dla ITIL ważne jest również by wykorzystywane oprogramowanie dobrze integrowało się ze współczesnymi złożonymi systemami informatycznymi, w których współegzystują zasoby fizyczne i wirtualne, występuje wiele systemów operacyjnych, sieci lokalne i rozległe, rozproszone zasoby datacenter, oraz wiele innych.
W ramach naszej współpracy z Klientami wdrażamy różnorodne systemy zarządzania infrastrukturą informatyczną – od darmowych rozwiązań open-source (np. OTRS) do odpłatnych systemów zarządzania firm Cisco, Microsoft, vmware. Warto dodać, że w wielu przypadkach w ramach realizacji naszych umów serwisowych korzystamy z uprzednio wdrożonych systemów.