Analityka Big Data w Polsce. Jak polskie firmy wykorzystują #BigData, aby efektywnie konkurować na rynku

17-08-2017, 12:17

Umiejętność pozyskiwania właściwych informacji z dużych zbiorów danych to podstawa przewagi konkurencyjnej we współczesnej gospodarce. Dane to surowiec, z którego można wydobyć wiele informacji. Jednak aby były one naprawdę skuteczne, potrzeba zindywidualizowanych rozwiązań uwzględniających specyfikę konkretnej branży. Big Data staje się najcenniejszym, strategicznym wręcz zasobem, który firmy mogą spieniężyć i wykorzystać do przewidywania przyszłych zdarzeń czy kreowania długo- i krótko-falowej strategii przedsiębiorstwa.

Big Data oznacza zbiory danych, które są zbyt duże dla tradycyjnych systemów przetwarzania danych. Wymagają one nowych technologii przetwarzania (m.in. Hadoop, HBase i MongoDB). Jak dowodzą badania, stosowanie Big Data wspomaga firmy poprzez wzrost efektywności. Big Data to jednak nie tylko wielkie zbiory danych, ale również zdolność do przechwytywania, przechowywania, zarządzania i analizowania tych danych. W perspektywie przedsiębiorstw Big Data jest koncepcją, która obejmuje ogólny zbiór zagadnień dotyczących działań związanych z szerokimi zagadnieniami od przechowywania, przetwarzania aż po wizualizację danych. Posiadanie tych umiejętności może przyczyniać się do podejmowania lepszych decyzji. Koncepcja Big Data w zarządzaniu przedsiębiorstwem dotyczy nowoczesnego podejścia do analizy danych, obejmującej możliwości ich gromadzenia, przetwarzania i wizualizacji. Jej zastosowanie spełnia szerokie potrzeby w różnych dziedzinach funkcjonowania przedsiębiorstwa.

 

Firmy na całym świecie odmieniają dziś Big Data przez wszystkie przypadki. Słyszymy o tym, że każde przedsiębiorstwo wykorzystuje dziś wielkie zbiory danych, jednak deklaracje i medialna popularność Big Data, a jej powszechność biznesowa, często ze sobą nie korespondują. Wciąż nikła implementacja narzędzi do analityki Big Data spowodowana jest tym, że firmy nie wiedzą, jak przystąpić do analizy tak dużych wolumenów informacji i wyselekcjonować spośród nich dane najcenniejsze biznesowo. Nie posiadają również biznesowego know-how, które pozwalałoby im te dane przetworzyć i zmonetyzować. Dużym wyzwaniem dla Big Data na polskim rynku jest błędne przekonanie przedsiębiorców, że analityka danych to rozwiązanie zarezerwowane dla dużych graczy. Tymczasem z powodzeniem mogą z niej skorzystać również firmy z sektora MŚP, a nawet mikroprzedsiębiorstwa. Wielkość firmy nie odgrywa tu znaczenia. Analityka Big Data to technologia elastyczna, którą można dopasować do skali działalności każdego przedsiębiorstwa. Sama firma decyduje, jakiego rodzaju danych i o jakim stopniu szczegółowości potrzebuje. Rozdzielczość i unikalności takich danych determinuje całkowity koszt tego przedsięwzięcia.

 big data

Barierą dla firm z polskiego rynku jest również przekonanie, że „analityka danych jest za droga”. Wiąże się ono z niepewnością: czy inwestycja w Big Data się zwróci? Tymczasem z badania przeprowadzonego przez Computing Technology Industry Association (CompTIA) wśród ponad 400 specjalistów IT z firm z całego świata, którzy faktycznie wdrożyli u siebie analitykę danych, aż 72% stwierdza, że efekty technologii służących analityce Big Data w chmurze obliczeniowej sprostały ich oczekiwaniom firmy lub nawet je przerosły. Analityka wielkich zbiorów danych pozwala usprawnić pracę przedsiębiorstwa w sposób fundamentalny. Umożliwia firmie monetyzację informacji, rozbudowę systemów typu BI, a także budowanie pozytywnego wizerunku w Sieci, np. za sprawą personalizowanej reklamy internetowej, skierowanej do konkretnych grup internautów, nawet tych interesujących się mocno niszowymi usługami i produktami. W „The Industrial Insights Report for 2015” aż 75% firm przyznało, że odnotowały wzrost przychodów właśnie dzięki wdrożeniu analityki danych. Podobnych wniosków dostarcza ankieta „18th Global CEO Survey”, przeprowadzona przez PwC. Aż 80%. prezesów firm określiło w niej analitykę i przetwarzanie danych jako istotne działania z punktu widzenia strategii przedsiębiorstwa. 

 

Wdrożenie analityki Big Data w procesach biznesowych czy projektach prowadzonych przez firmę, pozwala jej również na znaczące zredukowanie kosztów operacyjnych. Jak wynika z badania „Internet Trends Report 2015”, w przypadku firm, które zastosowały u siebie technologie związane z przetwarzaniem wielkich zbiorów danych, koszty utrzymania infrastruktury IT w skali roku zmniejszyły się o 33% Koszty przechowywania danych przedsiębiorstwa zmalały natomiast o 38%.

 

Jak z kolei wynika z badań przeprowadzonych przez Forrester, do końca 2016 roku firmy wykorzystujące analitykę danych w swoich procesach biznesowych zarobiły dzięki temu ponad 400 mld dolarów. Do 2020 roku ich zysk sięgnie już ponad 1,2 bln dolarów. Ten globalny trend wpływa również na sytuację polskich firm. Papierkiem lakmusowym w tym obszarze jest choćby rozwój i kurs giełdowy warszawskiej spółki Cloud Technologies, która zaopatruje w dane firmy z branży marketingu internetowego jak również coraz więcej podmiotów z innych segmentów rynku.

 

Cloud Technologies, warszawska spółka, która stworzyła platformę OnAudience, jest największą hurtownię danych typu Big Data w Europie. Prace nad rozwojem platformy OnAudience trwały ponad rok i zostały oparte na doświadczeniach zebranych w ciągu pięciu lat działalności Cloud Technologies S.A. Nowe rozwiązanie technologiczne z zakresu analityki Big Data pozwoli polskiej spółce na przetwarzanie nawet 100-krotnie większych zbiorów danych. OnAudience ma przyczynić się do rozwoju biznesu w obszarze Big Data marketingu i uczenia maszynowego (machine learning) zarówno w Polsce, jak i za granicą - OnAudience, potrafi uczyć się zachowań internautów. Kolejnym projektem Cloud Technologies jest nowej generacji platforma zarządzania danymi (Data Management Platform – DMP). Ma ona umożliwić spółce znacząco zwiększyć ilość i rozdzielczość przetwarzanych danych. Do niedawna Cloud Technologies przetwarzał 100 mln profili użytkowników (cookies). W 2016 roku Cloud Technologies wyrosła na największą hurtownię danych w Europie. Przetwarza już blisko 4 mld profili internautów. Taki wolumen analizowanych informacji sytuuje ją również w gronie największych hurtowni Big Data na świecie. Warto odnotować, że to właśnie firma zajmująca się analityką danych kolejny rok z rzędu zaliczana jest do bluechipów giełdy NewConnect: w ciągu 3 kwartałów 2016 roku wypracowała 32,42 mln zł przychodów ze sprzedaży oraz 12,95 mln zł zysku netto. Oznacza to wzrost odpowiednio o 39,92% i 22,98% w ujęciu rocznym. 

Innym przykładem jest firma Algolytics, która stworzyła platformę Algoline.  Algolytics od 2001 roku tworzy i dostarcza rozwiązania z zakresu zaawansowanej analityki biznesowej. Firma rozwija autorskie oprogramowanie do analiz predykcyjnych, zarządzania relacjami z klientem, zarządzania ryzykiem oraz Machine Learning i Data Mining; świadczy także 
zaawansowane usługi analityczne. Platforma Algoline umożliwia przewidywanie zdarzeń biznesowych w czasie rzeczywistym. Algoline, dzięki zastosowaniu technologii Big Data, może być wykorzystana wszędzie tam, gdzie wymagana jest wysoka wydajność i szybkość w przetwarzaniu danych, przykładowo do analizy zachowań klientów serwisu internetowego w trybie rzeczywistym. Algolytics posiada w swojej ofercie narzędzia do analizy Big Data, zaprojektowane z uwzględnieniem czterech głównych parametrów charakteryzujących tego typu zasoby danych:

  • Różnorodność: możliwość pracy z danymi różnego rodzaju za pomocą narzędzi do text-mining, analizy sieci społecznych i integracji danych, które umożliwiają wykorzystanie danych ustrukturyzowanych i nieustrukturyzowanych
  • Objętość: przetwarzanie ogromnej ilości danych za pomocą wbudowanej analitycznej bazy danych (dla danych ustrukturyzowanych) i łącznika z systemem Hadoop (dla danych nieustrukturyzowanych)
  • Prędkość: przetwarzanie szybko przyrastających zasobów danych za pomocą takich narzędzi jak silnik scoringowy i automatyczne modelowanie w środowisku analitycznym
  • Wiarygodność: praca z danymi o różnym stopniu wiarygodności dzięki modułowi jakości danych i kontroli jakości danych.

 

big data

W Polsce powstaje coraz więcej firm oferujących usługi w obszarze analityki Big Data. Przykładem może tu być ICM, czyli Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego UW, jednostka naukowo-badawcza, jak i centrum obliczeniowe komputerów dużej mocy oraz ośrodek data science – gromadzenia, udostępniania oraz przetwarzania danych. ICM świadczy kompleksowe usługi z zakresu data science dla nauki, biznesu i sektora publicznego. Specjalizuje się w całokształcie problematyki dotyczącej wielkich danych (Big Data). Oferta ICM obejmuje zarówno rozwiązania standardowe, jak i dostosowane do indywidualnych potrzeb klientów. Do analiz Big Data używa komputerów o dużych mocach obliczeniowych (HPC – High Performance Computing), dzięki czemu prace analityczne przeprowadzane w ICM cechuje bardzo wysoka wydajność (HPDA – High Performance Data Analytics). Podczas realizacji prac związanych z eksploracją danych ICM wykorzystuje metodologię CRISP-DM (Cross-Industry Process for Data Mining), stworzoną specjalnie na potrzeby projektów prowadzonych między różnymi gałęziami przemysłu.

 

Obecnie również sektor bankowy bardzo poważnie podchodzi do narzędzi oraz możliwości jakie dają Big Data. Nowe podejście do zarządzania danymi w bankowości stawia nacisk na trzy główne obszary, jak: kompleksowe zarządzanie ryzykiem, cyberbezpieczeństwo oraz zarządzanie wiedzą o kliencie. Nie tak jak w dotychczasowym ujęciu, jako oddzielnie traktowane obszary biznesowe, a kompleksowa wiedza o kliencie dostarczana w rzeczywistym czasie. Około 44% banków na świecie już zainwestowało w przetwarzanie i wykorzystywanie Big Data. Jak pokazują statystyki takie zintegrowane podejście do analityki Big Data daje o 60% wyższy zwrot z inwestycji. W nowym podejściu wszystkie te obszary mają wspólny mianownik, a elementem spajającym jest szczegółowa i kompleksowa wiedza o kliencie dostępna w czasie rzeczywistym. Ta sama informacja, ale wykorzystywana w różnych ujęciach pozwala na bardziej elastyczne zarządzanie ryzykiem kredytowym, płynności i operacyjnym, skuteczniejsze wykrywanie nadużyć i cyberzagrożeń czy lepsze, kontekstowe dopasowanie klientowi portfela produktów.

 

Taką drogą strategicznego wykorzystania analityki Big Data podąża PKO Bank Polski, co pozycjonuje go w gronie najbardziej innowacyjnych instytucji finansowych. Wszystkie trzy wymienione powyżej obszary są obecnie w końcowej fazie modernizacji w oparciu o analitykę Big Data. Strategicznym partnerem Banku jest SAS Institute, który dostarczył niezbędną technologię oraz know-how i najlepsze praktyki ze swoich wdrożeń na świecie. W PKO Banku Polskim postawiono na rozwiązanie zintegrowane. Dla przykładu zaawansowane algorytmy poprzez eksplorację terabajtów danych zgromadzonych w Banku identyfikują podejrzane powiązania i prezentują je graficznie w postaci sieci powiązań. Dzięki wizualizacji możliwe jest szybsze i bardziej efektywne diagnozowanie nowych form i sposobów wyłudzeń. Jednocześnie analityka, wykorzystywana w czasie rzeczywistym do monitorowania transakcji pod kątem ryzyka wystąpienia nadużyć, pozwala na podjęcie trafnej decyzji o ewentualnej blokadzie transakcji, zanim środki finansowe zostaną wyprowadzone z rachunku klienta.

 

Podobne podejście, ale w zupełnie innym celu przyświeca modernizacji systemu do zarządzania relacjami z klientem. Kluczem jest kompleksowa wiedza o nim i możliwość jej wykorzystania w odpowiednim momencie, w czasie rzeczywistym. Współczesny klient większość swych kontaktów z bankiem realizuje w kanałach cyfrowych, a ich częstotliwość jest nieporównywalnie większa od tradycyjnych. Zaawansowane algorytmy analityczne umożliwiają budowę szczegółowego profilu klienta, jego potrzeb, preferencji i możliwości. Wykorzystanie tych algorytmów na ogromnym wolumenie danych transakcyjnych pozwala na odkrywanie czasem nieintuicyjnych ścieżek i interakcji klientów, które prowadzą do zdarzeń pożądanych (np. zakupu produktu) i tych, którym Bank chce przeciwdziałać (np. rezygnacji). Spersonalizowana oferta uzależniona jest od aktualnego kontekstu i kanału kontaktu. Dla klientów Banku PKO BP oznacza to zintegrowaną i komfortową obsługę. Dla przykładu klient, który właśnie przekroczył próg określonego rodzaju wydatków w danym miesiącu może otrzymać natychmiast propozycję „pomostowego” kredytu konsumpcyjnego lub czasowego powiększenia salda debetowego.

 

Trzeci z obszarów – zarządzanie ryzykiem – również w istotnym stopniu opiera się o detaliczną wiedzę, zarówno o portfelu posiadanych instrumentów, jak również o kliencie, co jest kluczowe zwłaszcza w obszarze zarządzania ryzykiem kredytowym. W obszarze zarządzania aktywami i pasywami, w tym zarządzania ryzykiem płynności i ryzykiem stopy procentowej oraz wyceny instrumentów finansowych, do przeliczeń są obecnie wdrażane silniki analityczne SAS działające na zgromadzonych danych Big Data. Zaawansowane podejście do analiz symulacyjnych oraz testów warunków skrajnych w połączeniu z monitorowaniem zarówno wewnętrznych, jak i obligatoryjnych wskaźników ryzyka wraz z możliwością zejścia od wyników ogólnych do poziomu pojedynczej transakcji zapewni, iż decydenci na czas uzyskają kompleksową wiedzę niezbędną do podejmowania decyzji biznesowych w zakresie struktury portfela. Dzięki wprowadzeniu wysokich standardów zarządzania ryzykiem operacyjnym oraz automatyzacji procesów operacyjnych i wykorzystaniu analityki SAS w zakresie ryzyka operacyjnego PKO Bank Polski uzyskał zgodę regulatora na wykorzystanie metody zaawansowanej szacowania kapitału (AMA), która daje Bankowi większą elastyczność inwestycyjną i bardziej efektywne wykorzystanie, jakże cennego w dzisiejszych niestabilnych czasach, posiadanego kapitału.

big data

Coraz więcej firm z innych sektorów niż szeroko pojęte finanse wykorzystuje także w swojej działalności analitykę Big Data. Przykładem może być Inter Cars S.A. największego w Polsce dystrybutora części samochodowych i akcesoriów. Oferta obejmuje głównie dystrybucję zamiennych części do aut: osobowych, ciężarowych oraz dostawczych, ale i wyposażenie warsztatów, głównie w zakresie urządzeń obsługowych, naprawczych samochodów i części motocyklowych oraz tubingu. Wdrożenie analityki Big Data pozwoliło spółce efektywnie zarządzać dostępnością towaru. Analityk przewiduje ile i jakich części będzie potrzeba w każdej placówce, co pozwala na optymalną dystrybucję. Zamiast prowadzić wojny cenowe z konkurencją, spółka postawiła na wysoką dostępność swoich towarów w cenie premium. Okazało się, że trafili w dziesiątkę. Klienci warsztatów w większości wolą zapłacić nieco więcej i mieć swój samochód naprawiony jeszcze tego samego dnia. Sieć dystrybucyjna Inter Cars jest sterowana potężnym silnikiem analitycznym, który na bieżąco oblicza przyszłe zapotrzebowanie na każdą z ponad dwóch milionów części umieszczonych w katalogu firmy.

 

Analiza Big Data wykorzystywana jest także w Wirtualnej Polsce po to, by możliwie jak najbardziej trafnie dopasować do odbiorców zarówno wyświetlane treści – artykuły, materiały wideo itp. - jak i reklamy. W przypadku pozycjonowania materiałów redakcyjnych najpierw redaktorzy i wydawcy ustalają, jakie treści mogą trafić na stronę główna WP, a następnie algorytmy Big Data dopasowują je do poszczególnych użytkowników. Automat podejmuje działania na podstawie zebranych wcześniej informacji o użytkownikach, a także w oparciu o ich aktualne zachowania, decydując nie tylko o tym co, ale i w jakim miejscu zostanie wyświetlone. Procesy analityczne zachodzą w czasie rzeczywistym, automat może zatem błyskawicznie zareagować na zainteresowanie użytkownika określonym tematem. Mechanizmy Big Data, a konkretniej uczenia maszynowego (ang. machine learning) pozwalają także analizować, czy użytkownicy przypisani do jednego segmentu nie przejawiają także zachowań podobnych do osób przypisanych do któregoś z pozostałych segmentów, co pozwoli w przyszłości jeszcze celniej kierować do nich komunikację, która potencjalnie mogłaby ich zainteresować. Segmentować, czyli profilować można według rozmaitych kryteriów. W rozmaitych przypadkach daje to mniejsze lub większe, a bywa, że nawet stuprocentowe prawdopodobieństwo, iż użytkownik jest zainteresowany daną ofertą.

 

Mechanizmy analizy Big Data wykorzystywane przez Wirtualną Polskę przetwarzają z roku na rok coraz więcej informacji  z coraz większą precyzją wspomagają działania marketingowe. Dziś w szczycie serwis przetwarza aż 7 GB na sekundę. Baza danych co miesiąc rośnie o circa 130 TB, licząc już po kompresji. Personalizowanie ofert dzięki analizie Big Data, w tym uczeniu maszynowemu, znacznie zwiększa skuteczność działań marketingowych. Efektywność reklamy bazującej na Big Data w porównaniu do reklamy niewykorzystującej analizy wielkich ilości danych jest zawsze wyższa: od kilkunastu do nawet kilkuset procent, zależnie od branży, kreacji i czasu emisji. W 2016 r. optymalizowane było dzięki analizie Big Data 3,5 razy więcej kreacji reklamowych niż w 2015 r. Do takich obliczeń niezbędny jest bardzo wydajny, niezawodny sprzęt. Infrastruktura odpowiedzialna za analizę Big Data w Wirtualnej Polsce jest na najwyższym poziomie. To klaster złożony ze 120 komputerów z 240 procesorami Intel® Xeon® E5, zaprojektowanymi specjalnie z myślą o takich właśnie obliczeniach. Łączna pojemność HDFS wynosi 2 PB, a RAM  5,08 TB.

 

Kolejnym przykładem jest Poczta Polska. W Poczcie Polskiej implementacja rozwiązań Big Data koncentruje się na optymalizacji transportu listów i paczek. Jak wskazuje Marek Ziemiańczyk, dyrektor zarządzający w spółce Poczta Polska: „Poczta dostaje kilka milionów listów i kilkaset tysięcy paczek dziennie. Uruchamiamy 10 tysięcy połączeń samochodowych dziennie i dwadzieścia kilka tysięcy listonoszy. To jest wielkie pole do popisu dla Big Data. Musimy brać pod uwagę nie tylko aspekty logistyczne, ale też takie czynniki jak informacje o pogodzie czy korki, by skuteczniej, szybciej i taniej dostarczać przesyłki. Poczta Polska wchodzi też bardzo mocno w e-commerce, bo wolumen listów powoli spada. Big Data może pomóc w trosce o spersonalizowane doświadczenie klienta lub w wielokanałowym zbieraniu danych, tak by dopasować ofertę do klienta”

 

Ciekawym przykładem wykorzystania Big Data jest Empik. Analityka ta znalazła tu dwa zastosowania. Pierwszy z nich to narzędzie, które pozwala oszacować efekt wykorzystania różnych kanałów i narzędzi marketingu. Wprowadza się do niego dane typu: pogoda, ogólne wskaźniki ekonomiczne i liczba wizyt klientów w centrach handlowych, aktywność konkurencji, oferty, sezony. Dzięki analizie wszystkich danych można dość precyzyjnie oszacować, które narzędzie marketingowe najskuteczniej zachęca klientów do odwiedzania sklepów. To z kolei pozwala zracjonalizować narzędzia i zastanowić się, czy budżet na ulotki reklamowe, gazetki, zwłaszcza w tradycyjnym handlu, jest właściwy. Jaki powinien być, żeby zoptymalizować efekty marketingowe. Druga kwestia to łączenie Big Data z tradycyjnymi badaniami. Okazało się, że zapraszając klientów do salonów, wcale nie trzeba posługiwać się wyłącznie argumentami ekonomicznymi. Bardzo ciekawym obszarem jest informowanie klientów o nowościach, inspirowanie, mówienie o tym, co będzie się działo w kulturze. To sprawia, że klienci częściej otwierają maile, poprawia się też efektywność kampanii. Takie podejście znacznie poprawiło wyniki kampanii bezpośrednich.

 

Również branża medyczna coraz śmielej sięga po rozwiązania analityczne wykorzystujące duże zbiory danych. W celu lepszego dopasowania terapii i ograniczenia uciążliwości leczenia, lekarze mogą porównać informacje dotyczące choroby oraz indywidualnych cech pacjenta z wynikami analiz podobnych przypadków medycznych oraz danymi dotyczącymi skuteczności zastosowanego leczenia. Przykładem wykorzystania analityki Big Data jest platforma informatyczna ONKO.SYS wdrożona w Centrum Onkologii – Instytucie im. Marii Skłodowskiej-Curie w Warszawie. Centrum Onkologii od początku postawiło przed projektem ONKO.SYS bardzo ambitne cele. Krótkofalowo zakładał on utworzenie platformy do gromadzenia, przetwarzania oraz udostępniania danych klinicznych, histopatologicznych, epidemiologicznych i molekularnych. W dłuższej perspektywie system ma służyć lepszemu zrozumieniu procesów, wcześniejszemu wykrywaniu chorób nowotworowych i poprawie wyników leczenia chorych na raka. Istotnym wyróżnikiem tego systemu jest wykorzystanie narzędzi text mining do analizy tekstu cyfrowych notatek lekarskich, które są jednym z cenniejszych źródeł informacji.

 

Jak wskazuje prof. Magdalena Chechlińska, inicjator i koordynator utworzenia platformy ONKO.SYS „Analityka pozwala np. skuteczniej leczyć rzadkie nowotwory. Dzięki Big Data możemy np. szybciej zidentyfikować osoby, które charakteryzują się daną cechą, a więc są w grupie ryzyka. Możemy precyzyjniej dobierać najlepsze sposoby leczenia. Takie analizy były do niedawna niemożliwe lub niezwykle czasochłonne. Dla lekarzy, którzy po raz pierwszy korzystają z dobrze zorganizowanych danych jest zaskoczeniem, że w pół dnia mogą rozwiązać problem, nad którym wcześniej musieliby ślęczeć przez kilka miesięcy w archiwum”.

 

Z podanych przykładów wynika, że zakres wykorzystywania technologii Big Data jest nie do wyczerpania. Tylko od firmy zależy do jakich celów będą wykorzystywać dane i w jaki sposób będą analizowane. Technologia Big Data to jednak olbrzymie wyzwanie, ale korzyści, jakie przynosi, w pełni je usprawiedliwiają. Trudno dziś wyobrazić sobie prowadzenie poważnego biznesu w Internecie bez sięgania po precyzyjne narzędzia analityczne przetwarzające strumienie nieustająco zmieniających się danych. Skala działań oraz wymóg błyskawicznego podejmowania decyzji wymusza automatyzację tych procesów - i nie ma innej alternatywy. Polskie firmy muszą zatem sięgnąć po analitykę Big Data, jeżeli chcą efektywnie konkurować na rynku. W Polsce bowiem dużo większe niż samo wykorzystanie, jest zainteresowanie tym tematem.

 

Autor: dr Łukasz Kryśkiewicz, pracownik Ministerstwa Cyfryzacji

 

Źródła:

  1. Analityka Big Data strategicznym narzędziem rozwoju nowoczesnego banku na przykładzie PKO Banku Polskiego, http://manager.inwestycje.pl/rynek_manager/Analityka-Big-Data-strategicznym-narzedziem-rozwoju-nowoczesnego-banku-na-przykladzie-PKO-Banku-Polskiego;291191;0.html
  2. Analityka BIG Data u postaw marketingu w Sieci, https://www.intel.pl/content/www/pl/pl/it-managers/big-data-w-marketingu.html
  3. Big Data w firmie: popularna w teorii, śladowa w praktyce, http://inwestycje.pl/firma/Big-Data-w-firmie-popularna-w-teorii-sladowa-w-praktyce;289672;0.html
  4. http://algolytics.pl/rozwiazania/rozwiazania-analityczne-big-data/
  5. http://inwestor.intercars.com.pl/pl/press-room/media-o-nas/europa-musi-postawic-na-innowacyjnosc/
  6. http://itwiz.pl/analityka-sprawi-ze-na-nowo-bedziemy-sie-uczyc-klienta-pacjenta-obywatela/
  7. http://www.cloudtechnologies.pl/centrum-prasowe
  8. http://www.softwareag.com/pl/Press/pressreleases/20151006_page.asp
  9. https://fintek.pl/big-data-dla-duzych/
  10. https://icm.edu.pl/pl/o-icm/kompetencje/przetwarzanie-i-analiza-danych/
  11. https://www.erp24.pl/business-intelligence/controlling-w-empik-u.html
  12. Jeszcze więcej danych - polska spółka największą hurtownią Big Data w Europie, https://tech.wp.pl/jeszcze-wiecej-danych-polska-spolka-najwieksza-hurtownia-big-data-w-europie-6034825330525313a
  13. Sukces polskich analityków. Firma Algolytics najbardziej innowacyjna w dziedzinie Big Data, http://innpoland.pl/126453,sukces-polskich-analitykow-firma-analytics-najbardziej-innowacyjna-firma-w-dziedzinie-big-data
  14. W 2017 roku analityka Big Data nie zwolni tempa, a wartość rynku to już 130 mld dolarów, http://interaktywnie.com/biznes/artykuly/biznes/w-2017-roku-analityka-big-data-nie-zwolni-tempa-a-wartosc-rynku-to-juz-130-mld-dolarow-254494

Komentarze
comments powered by Disqus
To warto przeczytać







fot. Geralt









fot. Geralt


  
znajdź w serwisie

RSS - Interwencje
RSS - Porady
Porady  
RSS - Listy
Listy  
« Listopad 2017»
PoWtŚrCzwPtSbNd
 12345
6789101112
13141516171819
20212223242526
27282930 
Jak czytać DI?
Newsletter

Podaj teraz tylko e-mail!



RSS
Copyright © 1998-2017 by Dziennik Internautów Sp. z o.o. (GRUPA INFOR PL) Wszelkie prawa zastrzeżone.