Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Big Data a „Bug Data”. Przeterminowane i fałszywe dane problemem dla firm

Tomasz Lachowski 29-11-2016, 20:57

„Bug Data” czyli kopie informacji zarchiwizowanych przez firmę, które nie zostały zaktualizowane i tym samym straciły swoją biznesową wartość. Według szacunków firmy analitycznej IDC „Bug Data” to już problem globalny.

robot sprzątający

reklama


Ponad 60 proc. danych przechowywanych dziś w przedsiębiorstwach stanowią kopie zapasowe przeterminowanych informacji. „Bug Data” w firmach to już ponad 3 eksabajty zbędnych danych. Do końca tego roku koszt ich utrzymania przekroczy próg 50 mld dolarów. To niemal 8 razy tyle, ile firmy przeznaczają na przechowywanie danych typu Big Data.

Kosztowny nadmiar informacji

Według Data Geonomics Index, 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych od 3 lat, zaś 12 proc. w ciągu 7 minionych lat nigdy nie zostało otwartych. Światowi liderzy IT twierdzą, że jedynie 20 proc. zbieranych przez nich danych wykorzystuje się do usprawniania procesów biznesowych, a 33 proc. z nich klasyfikuje się jako ROT, czyli Redundant, Obsolete or Trivial: zbędne, przestarzałe i nieistotne. To wszystko wskazuje na wagę prowadzenia odpowiedniej klasyfikacji danych i przyporządkowania dostępu do nich poszczególnym pracownikom, którzy powinni rozumieć politykę danych przedsiębiorstwa dzięki regularnym szkoleniom. 

Z naszych wyliczeń wynika, że budowa i utrzymanie serwerowni o powierzchni 100 mkw. pochłonie 17 mln zł na przestrzeni 10 lat. Choć outsourcing – kolokacja w centrum danych – będzie znacząco tańszy, bo wyniesie 7 mln zł, to zakładając, że ponad 30 proc. danych stanowią informacje zbędne i tak okaże się, że firmy tracą miliony złotych z powodu przechowywania niepotrzebnych danych – zwraca uwagę Robert Mikołajski z Atmana. 

Warto jednak zwrócić także uwagę na aspekt bezpieczeństwa. Liczba danych, które będą musiały zostać objęte cyberochroną, wzrośnie do końca dekady pięćdziesięciokrotnie – wynika z najnowszych prognoz firmy analitycznej Cybersecurity Ventures. Same straty finansowe wynikające z działalności cyberprzestępców wzrosną dwukrotnie – z 3 bilionów dolarów w 2015 roku – do 6 bilionów dolarów w 2021 roku. 

W gąszczu „porzuconych” danych mogą znaleźć się wrażliwe informacje, związane z personaliami czy historią operacji finansowych spółki, które w przypadku dostania się w ręce cyberprzestępców mogą spowodować dotkliwe straty zarówno finansowe, jak i wizerunkowe – zauważa Ewelina Hryszkiewicz z Atmana. 

 

Zobacz także:

Naczelny Algorytm. Jak jego odkrycie zmieni nasz świat

Książka uchyla rąbka tajemnicy i pokazuje, jak działają maszyny uczące, dzięki którym funkcjonują Google, Amazon i nasze smartfony. Autor prezentuje pięć głównych szkół uczenia maszynowego, z których każda daje różne odpowiedzi na te same, fundamentalne pytania o uczenie się, o pozyskiwanie wiedzy i jej wykorzystanie. W przystępny sposób wyjaśnia, jak może wyglądać projekt Naczelnego Algorytmu i co jego odkrycie przyniesie naszej cywilizacji.*

Boom na technologie związane z Big Data sprawił, że firmy na całym świecie zaczęły przywiązywać coraz większą uwagę do analityki, gromadzenia i wykorzystywania danych w celach biznesowych. Dane stały się dziś nową walutą biznesową, a ich liczba w Sieci rośnie z roku na rok o blisko 40 proc. Wedle raportu „The Value of Our Digital Identity”, autorstwa Boston Consulting Group, wartość wszystkich anonimowych informacji zgromadzonych o internautach z obszaru całej Unii Europejskiej, w 2020 roku zbliży się do okrągłego biliona euro. Oznacza to, że finansowo dane te będą równoważne blisko 8 proc. PKB, generowanych przez wszystkie państwa Wspólnoty. 

Taka skala danych może zatem przyczynić się do realnego przyspieszenia globalnej gospodarki. Dowodem jest choćby badanie „Going beyond the data. Turning data from insights into value”, przeprowadzone przez firmę KPMG International. 82 proc. przebadanych w nim firm przyznaje, że korzystanie z aktualnych danych i wdrożenie zaawansowanych mechanizmów z zakresu analityki Big Data w chmurze obliczeniowej, pozwala na lepsze zrozumienie potrzeb i preferencji ich klientów, a także ma znaczący wpływ na perspektywę biznesową przedsiębiorstwa. 

Jak wynika z raportu „Welcoming Innovation Revolution”, autorstwa GE Global Innovation Barometer 2016, skala inwestycji w narzędzia do analityki wielkich zbiorów danych nad Wisłą wzrosła z poziomu 49 proc. w 2014 roku – do 68 proc. w roku ubiegłym. W każdym z tych przypadków kluczową rolę w monetyzacji cyfrowych informacji odgrywa jakość i aktualność danych, czyli tzw. data quality

Dane ze znakiem jakości

Bez aktualizowanych na bieżąco baz danych, stanowiących źródło wiedzy o kliencie, firma może utonąć w potopie „Bug Data”.

Z raportu Economist Intelligence Unit (EIU) wynika, że wykorzystanie analityki danych stało się głównym motorem napędowym przychodów w przeszło 60 proc. przebadanych firm z sektora IT. Z kolei 83 proc. przedsiębiorstw twierdzi, że dzięki danym ich produkty oraz usługi stały się bardziej opłacalne i zaczęły przynosić większe profity firmie. Ponad połowa respondentów (59 proc.) określiło Big Data jako „kluczowy element” funkcjonowania ich organizacji, zaś 29 proc. uznało ją za „niezwykle istotną” dla rozwoju firmy. Blisko połowa firm (47 proc.) przyznała, że ogranicza się do monetyzacji danych zgromadzonych wyłącznie w ramach przedsiębiorstwa, np. z wewnętrznych systemów BI (ERP, CRM), relacji z klientami czy danych z aktywności reklamowej firmy w Sieci. 

Aktualność i świeżość danych jest podstawą ich monetyzacji. Jednak firmy z Europy mają z nią poważny problem. Dowodzi tego badanie EIU, w którym udział wzięło 476 przedstawicieli działów IT z całego świata. Wśród kontynentów najlepiej monetyzujących dane prym wiodą firmy z Azji: aż 63 proc. azjatyckich przedsiębiorstw deklaruje, że potrafi generować zysk z gromadzonych przez siebie danych. Oznacza to zatem, że to właśnie rynek azjatycki najlepiej radzi sobie z problemem „Bug Data”. Drugie miejsce zajęły firmy ze Stanów Zjednoczonych, ze wskaźnikiem 58 proc. skuteczności w monetyzacji wielkich zbiorów danych. Ostatnie miejsce przypadło zaś Europie, w której korzyści z monetyzacji cyfrowych informacji czerpie 56 proc. przebadanych firm.

Ostatnie miejsce firm ze Starego Kontynentu w monetyzacji danych dowodzi, że europejskie przedsiębiorstwa mają poważny problem z odseparowaniem Big Data od „Bug Data”. Ich głównym problemem jest dziś ocena przydatności i wiarygodności zasobów Big Data, podobnie jak ocena przydatności danych ze źródeł zewnętrznych, których do tej pory firmy nie brały pod uwagę. Problemy z monetyzacją danych zgłasza 58 proc. przedsiębiorców przebadanych przez firmę KPMG, a blisko połowa respondentów zwraca uwagę na problemy z dostępnością odpowiednich danych. 

 

Zobacz także:

Analiza danych w biznesie. Sztuka podejmowania skutecznych decyzji

Unikalny podręcznik, który pomoże Ci sprawnie opanować nawet najtrudniejsze zagadnienia związane z analizą danych. Dowiedz się, jak zbudowany jest proces eksploracji danych, z jakich narzędzi możesz skorzystać oraz jak stworzyć model predykcyjny i dopasować go do danych. Obowiązkowa lektura dla wszystkich osób chcących podejmować świadome decyzje na podstawie posiadanych danych.*

– Dostęp do odpowiednich, aktualnych danych często decyduje o uzyskaniu rynkowej przewagi przez firmę. Big Data, będąc cyfrowym kapitałem przedsiębiorstwa, staje się jednocześnie jej kapitałem strategicznym i rozwojowym. Dlatego tak istotne są zarówno jakość, jak i rozdzielczość, a przede wszystkim: aktualność danych, jakimi dysponuje dzisiaj biznes. Europejskie przedsiębiorstwa muszą zadbać o to, aby użytkowane przez nie dane zawsze były odzwierciedleniem faktycznego stanu wiedzy o rynku i konsumencie. Ta wiedza nie jest jednak osiągalna bez otwarcia firmowych systemów BI na platformy DMP. Jeśli to otwarcie i integracja danych z różnych źródeł nie nastąpi, to firmy będą nieustannie obracać się na jałowym biegu, bazując nie tyle na Big Data, co na „Bug Data” – dodaje Piotr Prajsnar, CEO Cloud Technologies.

Cena błędu 

 „Bug Data” może również przyczynić się do wygenerowania realnych strat w sektorze e-commerce. Zwłaszcza wówczas, gdy e-sklepy bazują na nieaktualnych informacjach cenowych, które pobierają z Sieci. Rzesze internautów każdego dnia poszukując okazji u e-sprzedawców, a swoje decyzje zakupowe najczęściej podejmują w oparciu o porównywanie cen tego samego produktu i wybór najkorzystniejszej oferty. Jaki ma to związek z „Bug Data”? 

– „Bug Data” w kontekście cen online, to nic innego jak nieaktualne informacje zaciągnięte ze stron sklepów internetowych, porównywarek cenowych i portali aukcyjnych przez firmy, wedle których przedsiębiorstwa następnie układają swoją strategię cenową. To jednak mylne posunięcie, ponieważ liczba produktów oferowanych w sprzedaży online stale rośnie, a ich ceny zmieniają się niezwykle dynamicznie, niezbędnym jest wykorzystanie w monitoringu cenowym firmy mechanizmów uczenia maszynowego. Takie mechanizmy dostarczają firmom danych o cenach w czasie rzeczywistym i – co najważniejsze – danych aktualnych.  Pozwalają tym samym firmie na kształtowanie optymalnej polityki cenowej, która może być dopasowywana do cenowych realiów na bieżąco. Dzięki takiemu posunięciu firmy doprowadzają do niezwykle kosztownych dla siebie wojen cenowych – mówi Jakub Kot, CEO Dealavo. 

Praca u podstaw

Dr Vinton Gray Cerf, wiceprezydent Google, nazywany powszechnie „Ojcem Internetu”, w trakcie zgromadzenia American Association for the Advancement of Science w San Jose, mówił o konieczności prowadzenia bieżącej pracy nad danymi zgromadzonymi przez firmy. Przestrzegał biznes przed zafiksowaniem wyłącznie na gromadzeniu danych, za którym nie idzie w parze ich aktualizacja ani regularne oczyszczanie z nieistotnych treści, wskutek czego z Big Data stają się one „Bug Data”.

– Digitalizujemy  rzeczy, ponieważ myślimy, że dzięki temu je uchronimy. Nie rozumiemy jednak, że jeśli nie podejmiemy kolejnych działań, to zdigitalizowane przez nas informacje mogą okazać się gorsze od swoich rzeczywistych pierwowzorów. 

Vinton Cerf, mówiąc o kolejnych krokach bieżącej pracy nad danymi, miał na myśli przede wszystkim ciągłą weryfikację prawdziwości i aktualności danych, czyli jednej z czterech składowych tworzących Big Data: „Veracity”. Bez takich działań firmy będą kręciły się w kółko, operując wyłącznie na cyfrowych archiwach, a nie aktualnych informacjach.

Przede wszystkim jednak „Ojciec Internetu” ostrzegał przed nadchodącymi „cyfrowymi, ciemnymi wiekami”. Jako główny katalizator „Digital Dark Age” wymienił implozję danych (Big Data), zdominowanych przez dane nieuporządkowane, nieustrukturyzowane, nieprzetworzone, surowe, a przez także dane archiwizowane, czyli kopie informacji, które firmy przechowują na swoich serwerach. Cerf twierdzi, że to właśnie inwazja danych tego typu stanie się największym wyzwaniem stojącym przed analitykami danych w kolejnych latach. 

 

Autor: Tomasz Lachowski, inPuls Media

 

*  Linki afiliacyjne. Kupując książki poprzez te linki wspierasz funkcjonowanie redakcji Dziennika Internautów.


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *              

Więcej w tym temacie:



    Ostatnie artykuły:


    fot. DALL-E



    fot. DALL-E



    fot. Freepik



    fot. DALL-E



    fot. DALL-E