Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Jak popyt na edge computing wpływa na branżę IT?

31-07-2019, 19:37

Rośnie ruch generowany przez urządzenia mobilne oraz transfer związany ze strumieniowym wideo i grami online. Coraz więcej danych nie tylko pobieramy z internetu, ale także przesyłamy. Do tego dochodzi rosnąca popularność urządzeń, które generują i przetwarzają ogromne ilości informacji, jak np. samochody autonomiczne. Wszystko to przekłada się na wzrost popytu na lokalne przetwarzanie danych na brzegu sieci (edge computing).

Administratorzy IT w przedsiębiorstwach w niemal każdej branży widzą potrzebę zmniejszania „dystansu” pomiędzy użytkownikami i ich urządzeniami, a lokalizacją, w której są przechowywane i przetwarzane dane. Ta zmiana jest konieczna ze względu na rosnącą liczbę osób i urządzeń połączonych z siecią oraz ogromne ilości generowanych i pobieranych danych.

Bartłomiej Raab, Country Manager z Vertiv Polska, twierdzi, że ową potrzebę zaspokaja koncepcja edge computingu, polegająca na tym, że dane są przetwarzane i gromadzone w urządzeniach końcowych, takich jak komputery, sprzęt mobilny czy lokalne serwerownie, a więc na brzegu sieci. Nie są przesyłane w całości do dużych centrów danych, gdzie znajduje się rdzeń sieci. Tam trafiają tylko wyniki obliczeń lub dane szczątkowe, potrzebne do późniejszych analiz.

“Generacja C” połączona z internetem

W miarę jak na brzegu sieci przetwarzanych jest coraz więcej danych, konieczne staje się przeanalizowanie, kto jest ich faktycznym użytkownikiem. Główną siłą napędową tego zjawiska jest tzw. „Generacja C”, czyli przede wszystkim millenialsi – osoby, które w wysokim stopniu interesują się tworzeniem, organizowaniem, przesyłaniem treści oraz mediami społecznościowymi. Jest ona potężną siłą kultury konsumpcyjnej.

Michael Tobin, autor książki „Live, Love, Work, Prosper”, opisuje “Generację C” w odniesieniu do zachowania, a nie wieku osób. Członkowie tej grupy, kiedy nie pracują, nie robią zakupów lub nie korzystają z bankowości online, udzielają się w mediach społecznościowych. To pokolenie ocenia przedsiębiorstwa poprzez pryzmat firmowej strony internetowej i obecności na Twitterze, Facebooku oraz Instagramie.

Osoby z "Generacji C" wyznaczają trendy, które wpływają na media społecznościowe i pozostają cały czas połączone z internetem. YouTube i Netflix są dla nich źródłem rozrywki, a wideo na żądanie – codziennością. Prawie 90% z nich posiada profil w mediach społecznościowych, a trzy czwarte aktualizuje jego treść codziennie oraz przesyła zdjęcia i filmy.

Zmiana kierunku przesyłu i ilości danych w egde computingu

Obecnie ok. 80-90% generowanego w sieci ruchu to „konsumpcja” informacji przez użytkowników. Trend ten jednak niedługo się zmieni - ilość danych pobieranych i wysyłanych wyrówna się. Do tego dojdzie mnóstwo urządzeń internetu rzeczy, które będą głównie produkowały dane, a nie je pobierały. Charakter danych przetwarzanych na brzegu sieci spowoduje, że obszar ten nabierze krytycznego znaczenia, i to z wielu perspektyw. Według ekspertów Vertiv infrastrukturę sieciową należy projektować i budować tak, aby mogła wspierać transmisję danych, wobec których istnieje ryzyko wystąpienia czterech negatywnych zjawisk opisanych poniżej:

Nadmiar informacji – w wielu przypadkach ilość generowanych danych sprawia, że ​​przesyłanie ich przez sieć do głównego centrum danych jest niepraktyczne ze względu na objętość, koszty lub problemy z przepustowością. Przykładem mogą być tu informacje produkowane przez systemy w inteligentnych miastach, fabrykach, domach/budynkach czy nagrania wideo w dużej rozdzielczości.

Opóźnienia wpływające na komfort pracy użytkownika – w wielu rodzajach aplikacji charakter interakcji z nimi wpływa na komfort użytkownika. Dlatego opóźnienia w transmisji danych nie są akceptowane w przypadku takich narzędzi jak sklepy internetowe, urządzenia do współpracy z rozszerzoną rzeczywistością czy aplikacje przetwarzające w czasie rzeczywistym język naturalny.

Opóźnienia w transmisji danych między urządzeniami – liczba rodzajów zastosowań rozwiązań internetu rzeczy jest wręcz nieskończona, nic dziwnego więc, że wśród nich pojawiają się takie, które nie „tolerują” opóźnień. Maszyny są w stanie przetwarzać dane znacznie szybciej niż ludzie, więc powolne ich dostarczanie wiąże się z konkretnymi konsekwencjami. Na elektronicznych giełdach ceny wahają się w ułamkach sekundy, więc potencjalne zyski mogą zmienić się w straty. Podobnie jest w przypadku wszelkiego typu rozwiązań o zastosowaniu militarnym czy wykorzystywanych do analizy w czasie rzeczywistym.

Ryzyko dla zdrowia i życia – istnieje cały szereg sytuacji, w których urządzenia odpowiadają za bezpieczeństwo ludzi. Oprócz rozwiązań medycznych do tej kategorii zaliczyć można także autonomiczne samochody, sterowany centralnie, inteligentny transport publiczny, drony i roboty. Ingerencja w ich działanie lub przerwa w transmisji danych mogą skończyć się tragicznie. 

Bartłomiej Raab. twierdzi, iż e przyszłości zadania stawiane przed sieciami, w których coraz więcej danych przetwarzanych jest na brzegu sieci, zostaną rozszerzone. Rosnąca ilość wysyłanych przez użytkowników danych wymusi wprowadzenie modułów zarządzających ruchem, zapewniających bezpieczeństwo oraz szeroko rozumianą analitykę. Konieczne będzie więc stworzenie sieciowej infrastruktury IT wspierającej różnego typu podmioty, np. handel detaliczny, firmy telekomunikacyjne czy ośrodki uniwersyteckie. Kluczowe znaczenie dla powodzenia tego projektu będą mieć takie czynniki, jak niskie opóźnienia w transmisji danych czy odporność na awarie, które przełożą się na wysoki poziom zadowolenia użytkowników.

Źródło: Vertiv


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca

              *