Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Centralizacja pamięci w firmowym centrum danych bez wątpienia jest racjonalnym rozwiązaniem, szczególnie w przypadku informacji, które muszą być cały czas dostępne dla pracowników w centrali, w oddziałach firmy oraz dla często podróżujących menedżerów. Replikacja kluczowych danych między wieloma firmowymi centrami danych ma również sens, jeśli nie chcemy utracić informacji. Podobnie jak przeprowadzana w czasie rzeczywistym, systematyczna transmisja kopii zapasowych do odległego zaplecza Disaster Recovery.

Jeszcze kilka lat temu tego rodzaju ciągłe przesyłanie dużych ilości danych przez sieć byłoby całkowicie niepraktyczne. Teraz jest to praktycznie konieczne.

Dla przykładu, skuteczna strategia Disaster Recovery wymaga, aby wszystkie dane były przechowywane w wielu fizycznych lokalizacjach. W wypadku awarii, która zniszczyłaby dane przechowywane w jednym miejscu, zawsze w innym będzie druga, dodatkowa kopia utraconych danych. Taka strategia daje pewność, że najgorszy nawet kataklizm, np. pożar, powódź czy awaria zasilania, nie zniszczy wszystkich posiadanych przez firmę danych.

Tradycyjne techniki, takie jak tworzenie conocnych kopii zapasowych i zapisywanie ich na taśmy lub inne fizyczne nośniki, a następnie przewożenie taśm do bezpiecznych lokalizacji, zaczynają być co najmniej niepraktyczne. Ilość danych wzrosła do tego stopnia, że często nie da się zakończyć tworzenia kopii zapasowej w ciągu jednej nocy. Jednocześnie przedsiębiorstwa nie mogą pozwolić sobie na utratę nawet kilku godzin firmowych danych lub ryzykować, że taśmy zaginą podczas transportu. Te czynniki sprawiają, że przyrostowe kopie tworzone w czasie rzeczywistym (w ciągu dnia) są o wiele lepszą alternatywą.

Jednakże zmiana sposobu przechowywania danych nie jest pozbawiona swoich własnych komplikacji. W szczególności jeśli nie jest odpowiednio zarządzana, to rozciągnięta na dużej przestrzeni pamięć sieciowa może przyczynić się do przeciążania połączenia w sieciach rozległych (WAN). To z kolei powoduje niską wydajność transferu plików i replikacji protokołów oraz aplikacji od nich zależnych. Jednocześnie obwód sieci WAN, który jest przeciążony z powodu tworzącej się kopii zapasowej, może mieć problemy z zapewnieniem wydajności potrzebnej do sprawnego działania pozostałych aplikacji.

>> Czytaj także: Symantec: Tylko 42 proc. polskich firm robi kopie zapasowe danych z laptopów

Wraz z pojawieniem się usług cloud storage do tworzenia kopii zapasowych i odzyskiwania danych efektywne wykorzystanie możliwości sieciowych staje się jeszcze ważniejsze. Dzieje się tak, ponieważ usługi te, jako zależne od internetu, są jeszcze bardziej narażone na przeciążenie i latencję, niż aplikacje w firmowej sieci WAN.

Dobra wiadomość jest taka, że wyzwania te nie pozostają nierozwiązane. Technologia optymalizacji sieci WAN jest w stanie wydobyć większą wydajność z dowolnej przepustowości pasma sieciowego. Często technologia ta przyjmuje postać urządzenia – narzędzia sieciowego prekonfigurowanego tak, aby zarządzał oprogramowaniem optymalizującym. W środowiskach mocno zwirtualizowanych oraz w chmurze może także przyjmować formę jedynie oprogramowania, które można wgrać na wirtualną maszynę, podobnie jak każdą inną aplikację.

Podczas gdy wybór formy wdrożenia w dużej mierze zależy od naszych preferencji, warto mieć na uwadze, że niektóre z zaawansowanych urządzeń z wyższej półki dają korzyści, takie jak szyfrowanie koprocesorów w celu przyspieszenia szyfrowania SSL, przekraczające możliwości samego oprogramowania.

Podstawowe techniki optymalizacji sieci WAN polegają na kompresji, deduplikacji danych oraz optymalizacji działania protokołów.

Podobnie jak wiele innych firmowych aplikacji, systemy do zarządzania plikami w sieci, jak np. Windows Common Internet File System (CIFS), powstały w oparciu o lokalne sieci (LAN). Innymi słowy, zostały stworzone do przesyłu plików w obszarze budynku lub na terenie uczelnianego kampusu, a nie na przestrzeni całego świata. W wyniku tego często są one niepotrzebnie "gadatliwe" – są nastawione na prowadzenie ciągłych i szybkich konwersacji między klientem a serwerem za każdym razem, gdy dochodzi do transmisji danych.

>> Czytaj także: Backup danych online - wygodny, ale niewykorzystywany

Jednym sposobem obejścia tego problemu jest wdrożenie na każdym z końców połączenia WAN urządzenia optymalizującego, które monitorując te konwersacje, usprawnia transer danych oraz minimalizuje skutki opóźnień w sieci. Najlepsze z tego typu urządzeń są w stanie zmniejszyć nadmierną transmisję połączeń w sieci o 65-98%.

Szukajmy produktów, które wspierają różne systemy plików sieciowych oraz protokołów replikacyjnych, wliczając te powiązane ze specyficznymi produktami do przechowywania danych w sieci. Przykładowo, użytkownicy systemów przechowywania danych EMC Symmetrix V-MAX oraz DMX będą potrzebowali wsparcia dla SRDF/A. Jest to protokół EMC do replikacji plików asynchronicznych, często używany do replikacji między centrami danych lub do zapleczy Disaster Recovery.

Obok usprawniania "gadatliwości" protokołów, narzędzia optymalizujące sieć WAN znacznie ograniczają ilość przesyłanych danych, co przyspiesza transmisję oraz zmniejsza obciążenie sieci. Przepustowość pasma wymagana do transferu pliku może być zmniejszona nawet o 60-95%.

Jest to osiągane przez połączenie technik kompresji i deduplikacji danych. Dla przykładu załóżmy, że robimy kopię zapasową zbioru dokumentów tekstowych, wśród których znajduje się wiele wersji roboczych tej samej notatki prasowej. Nasze urządzenie WAN potrafi wykryć, kiedy jakiś pakiet danych jest identyczny do tego, który już został przez nie przesłany. W takim wypadku, zamiast ponownie przesyłać te dane, wysyła ono odnośnik, który może być wykorzystany przez urządzenie na drugim końcu połączenia do uzyskania tych danych ze swojej pamięci podręcznej.

>> Czytaj także: Laptop wysadzony w powietrze przez antyterrorystów i inne przypadki utraty danych w 2010 roku

Optymalizacja protokołów i deduplikacja, działając razem, często pozwalają na transfer pojedynczego pliku w sieci WAN ponad 250 razy szybciej, niż byłoby to możliwe bez tej optymalizacji. Cała biblioteka plików może być przesłana niemalże 20 razy szybciej, przy zmniejszeniu wymaganej przepustowości pasma do 98%.

Korzyści z tych ulepszeń czerpiemy za każdym razem, gdy np. pracownik w oddziale firmy pobiera podręcznik procedur z firmowego centrum danych lub gdy aplikacja planująca w fabryce otrzymuje najnowsze prognozy popytu na sprzedaż z centrali przedsiębiorstwa. Jeśli kluczowy dla firmy serwer upadnie i musi zostać przywrócony z kopii zapasowej przechowywanej poza siedzibą firmy, optymalizacja sieci WAN zdecydowanie się opłaci – dzięki niej odzyskanie danych z tej kopii przebiegnie o wiele szybciej, a powrót do prowadzenia działalności biznesowej będzie natychmiastowy.

Wszystko to jest możliwe dla osób, które odpowiednio planują swoje strategie zarządzania siecią i przechowywania danych.

Wojciech Gołębiowski, Riverbed Technology


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *