Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Badanie marzeń - jaki będzie nowy Megapanel opowiada Andrzej Garapich (wideo)

26-11-2010, 20:06

Rozmawiamy z Andrzejem Garapichem, Prezesem PBI, o badaniu Megapanel, różnicach pomiędzy badaniem polskiego i zachodniego rynku, wskaźniku Real User, prowadzonych w 2010 roku konsultacjach branżowych i ich wpływie na przyszły kształt badań polskiego internetu.

Skrót wideo:

Wywiad z Andrzejem Garapichem z PBI z kanału Dziennika Internautów w serwisie vimeo

Transkrypcja pełnego wywiadu poniżej:

Krzysztof Gontarek, Dziennik Internautów: Dlaczego PBI rozpoczęło proces konsultacji branżowych?

Andrzej Garapich: Z samym procesem konsultacji zbieraliśmy się od jakiegoś czasu, bo wiadomo, że o każdy produkt rynkowy trzeba co jakiś czas pytać klientów. Tak naprawdę myśmy się nigdy nie pytali rynku w ogóle o to, jak to powinno wyglądać, czego potrzebuje. Wierzyliśmy, że nasza intuicja jest tutaj najlepszym drogowskazem. Pewnie była, zwłaszcza że kiedy startowaliśmy z projektem Megapanel, to silnych podmiotów, takich które miałyby w ogóle pojęcie jak wyglądać powinny wyglądać badania było niewiele, a te które były, to były skupione w PBI, to w związku z tym nie bardzo było kogo (pytać). Ja pragnę zwrócić uwagę na to, że jednak dzięki Megapanelowi szereg firm internetowych umocniło się, czy znalazło swoją niszę rynkową.

Oczywiście Megapanel jako kierowany do reklamodawców pokazuje ten prawdziwy obraz oglądalności polskiego internetu. Reklamodawcy nigdy nie wydadzą pieniędzy w żadnym medium, jeśli nie mają dobrego dowodu, dobrej "podkładki" pod wydawane pieniądze. Megapanel właśnie taką podkładką jest, dzięki temu różne podmioty internetowe, różni wydawcy internetowi mogli pokazywać: zobaczcie mam tylu użytkowników, w związku z tym jestem dla was dobrym medium reklamowym. Więc dzięki Megapanelowi oczywiście właściciele PBI, ale także inne podmioty rynkowe mogły swoją pozycję na tym rynku zbudować. Trochę zatem jesteśmy autorem tego, że mamy tylu wydawców, którzy mogą pochwalić się sukcesem. Normalną rzeczą jest, żeby raz na jakiś czas ich zapytać, czego wy tak naprawdę potrzebujecie, w jakim kierunku powinniśmy iść.

W międzyczasie Megapanel był jednym z pierwszych tego typu projektów na świecie. Natomiast dzisiaj nie ma kraju, w którym nie byłoby jakiegoś badania internetu. Te badania są robione na różnym poziomie, w różnych modelach organizacyjnych, w różnych modelach finansowych, czyli organizowane przez różne podmioty i my zdajemy sobie sprawę z tego, że nie ma tutaj jakiegoś jednego gotowego modelu, jak to powinno wyglądać. Nie mamy za sobą stu kilkudziesięciu lat motoryzacji, dzięki czemu wiadomo jak powinien wyglądać samochód. Tutaj jeszcze to wszystko się uciera, no i chcieliśmy po prostu zapytać rynek: Słuchajcie, ale czego wy tak naprawdę potrzebujecie, bo możemy iść tą drogą lub tą drogą, wszystkie te drogi są poprawne metodologicznie i organizacyjnie, ale też wypowiedzcie wasze zdanie, co o tym myślicie.

DI: Czyli nie dało się iść na skróty, żeby przyjąć jakiś wzorzec zachodni?

AG: Nie, oczywiście że się dało. Problem jest taki, że na zachodzie też to wygląda inaczej, to znaczy mamy kraje, gdzie badanie jest robione podobnie jak w Polsce, czyli w modelu takim, że JIC (Joint Industry Community) organizuje, czy finansuje badania robione przez zewnętrzny podmiot. Są takie kraje, w których to JIC bezpośrednio te badania robi. Są też takie modele, jak w USA, ale to jest nieporównywalny rynek, gdzie robi to kilka firm. Wreszcie badanie internetu jest na tyle produktem z jednej strony badawczym, tzn. to trochę jest produkt podobny do badań prasy, radia i telewizji, ale z drugiej strony jest procesem technologicznym, tzn. tam wymagana jest o wiele wyższa niż w innych badaniach znajomość technologii internetu.

Stąd firmy, które pojawiają się na tym rynku, wywodzą się z dwóch źródeł - albo są to klasyczne firmy badawcze, które nauczyły się badać internet, albo to są z kolei firmy technologiczne, które mają duże kompetencje w zakresie sprytnego wyciągania danych, natomiast nigdy nie były takimi sensus stricte firmami badawczymi. Oczywiście najlepiej jest kiedy te dwie kompetencje się łączą i tak to się dzieje na świecie, tzn. zwykle duże światowe firmy badawcze kupują lokalne firmy bardziej technologiczne niż badawcze, które specjalizują się w jakiejś konkretnej rzeczy. Więc nie ma czegoś takiego jak jeden model badań jak na zachodzie, bo jak mamy w Europie dwadzieścia kilka krajów, w których takie badanie funkcjonuje, to ciężko mi będzie wymienić dwa, w których to się dzieje na identycznych zasadach, no może w Finlandii i Szwecji jest podobnie, ale już w Norwegii nie.

DI: PBI jest zaangażowane w międzynarodową inicjatywę MIA Project

AG: To jest projekt paneuropejski, w którym uczestniczyli różni ludzie z różnych krajów Europy, zajmujący się badaniami internetu, który miał za zadanie uświadomienie reklamodawcom, że są te różnice. Trzeba pamiętać, że internet jest w fazie nastolatka, nie jesteśmy prasą, która od stu lat doczekała się swoich standardów badawczych, czy telewizją - kilkadziesiąt lat, i często pod tym samym pojęciem mamy zupełnie różne definicje. To był taki projekt przygotowany pod auspicjami IAB i IAA, takiej organizacji reklamodawców paneuropejskich, który miał na celu może nie ujednolicanie, bo ja to porównywałem do przeliczania kursów walut.
To nie jest wprowadzenie euro, tylko opublikowaliśmy kantorową tablicę przeliczania kursów walut. Przykład: duże znaczenie może mieć dla wyniku witryny miejsce wstawienia kodu reklamowego. To czy ta wstawka jest na górze czy na dole ma znaczenie, bo czasami użytkownik nie czeka na załadowanie się całej strony, tylko leci dalej. Jeżeli kod jest na dole strony, to ta strona, przez którą przeszedł użytkownik nie będzie nigdy zaliczona. Jeżeli z kolei kod będzie na górze to może się okazać, że strona zatrzyma się na wstawce, będzie zaliczona odsłona, ale nic z tego nie wyniknie. Takich niuansów technologicznych są naprawdę dziesiątki, jak nie setki. To był projekt, który miał za zadanie pokazania różnic w badaniach jakie stosują w różnych krajach. Natomiast warto byłoby zwrócić uwagę, że w różnych krajach mamy różną granicę wieku, od której w ogóle zaczynamy badanie internautów. W Anglii to badają bodajże nawet 3 latki, w Polsce badamy 7+, a w Niemczech dopiero od 14 roku życia. Jeżeli mamy witrynę, która np. ma milion użytkowników to może się okazać, że istotny procent to są użytkownicy między 3 a 10 lat, którzy akurat dla danego reklamodawcy mogą nie mieć żadnego istotnego znaczenia.

DI: Jakie są podstawowe różnice między Megapanelem a badaniami w innych krajach europejskich?

AG: My przede wszystkim łączymy dwa badania w jedno. Źródła wiedzy o internecie są dwa. Jeden to jest tak zwany panel, czyli grupka ludzi dobrze opisana demograficznie, dobrze zdefiniowana pod względem wieku, płci, zawodu, wieku, miejsca zamieszkania, itd. i ona udaje taką mikro Polskę w pigułce. Te osoby mają zainstalowane specjalny programik, ktory instaluje się dobrowolnie (te osoby są specjalnie wynagradzane), zgadzają się na to, żeby ich działania w internecie były oczywiście anonimowo monitorowane, i na podstawie zachowań tej grupki przenosimy naszą wiedzę na ogół Polaków. To jest metoda klasyczna, stosowana w innych mediach - tak samo się to robi w prasie, telewizji, tak samo się robi w radiu i tak samo się robi badania wyborcze czy preferencji marketingowych. Bierzemy po prostu grupę ludzi, którą uznajemy za reprezentatywną  dla reszty kraju i na podstawie tego co oni robią, jej wyniki ekstrapolujemy na resztę populacji. I to jest jedno źródło informacji, drugie źródło informacji to są z kolei dane samych witryn. Same witryny tak naprawdę wiedzą ile UU, ile cookiesów wchodzi na ich witryny, ile tam wykonują klików, ile czasu spędzają na witrynach, natomiast nie mają pojęcia o strukturze demograficznej tych odwiedzających i o tych cechach, które wynikają z panelu. Stąd unikatową rzeczą w naszym badaniu jest łączenie tych dwóch badań.

W większości krajów sprawa wygląda w ten sposób, że osobno podawane są wyniki tzw. site-centric, czyli badania realizowanego po stronie wydawców, czyli zliczania parametrów technologicznych (odsłon, czasu), a osobno podawane są wyniki z panelu, właśnie te demograficzne i bardziej psycho-behawioralne użytkowników. Rzeczą która odróżnia nasze badanie od większości europejskich, jest właśnie to, że oni podają te badania osobno, my podajemy razem. Poza tym, to jest pewna figura statystyczna, która udało nam się wspólnie z Gemiusem wypracować. U nas coś co się nazywa Real Userem (RU), czyli użytkownikiem to nie cookies, bo to jest użytkownik z krwi i kości, w związku z tym (ta figura) powinna być porównywalna do czytelnika gazety, czy telewidza i takie założenie tkwiło u początku powstania tej metodologii.

DI: Ale to właśnie Real User wzbudza w dotychczasowej metodologii badań największe kontrowersje

AG: W Polsce ten wskaźnik (RU) sobie dobrze radzi. To znaczy reklamodawcy są do niego przyzwyczajeni, trochę jest problem z rozumieniem go przez tzw. światowe brandy, które opierają się na badaniach, gdzie tego Real Usera nie ma, gdzie po prostu są albo wyniki z panelu, albo z site-centric, i mamy tutaj trochę różnice w obliczaniu użytkowników czy potencjału reklamowego stron i niektórzy z reklamodawców takich, których budżety planowane są poza Polską mają problem z wytłumaczeniem się. Dają sygnały: prosimy o jakiś wspólny mianownik dla różnych rynków. To jest pytanie czy my jesteśmy bardziej zaawansowani czy mniej zaawansowani, ale dla bardzo dużych reklamodawców, którzy działają na skali globalnej to różnice w metodologii, która ma miejsce na różnych rynkach są raczej problemem, niż dodatkową wartością. Innymi słowy oni wolą, żeby badanie było sprowadzone do wspólnego, chociaż kiepskiego mianownika, niż żeby te dane były gdzieś bardziej wysublimowane.

DI: Czy PBI da im ten wspólny mianownik w nowym badaniu?

AG: Należy unikać pewnego nieporozumienia, że to jest opis nowego badania. To jest na razie opis potrzeb. Pozwoliłem sobie użyć pewnego porównania na konferencji (Forum IAB 2010), że gdybyśmy spytali się potencjalnych użytkowników samochodów - jakiego potrzebujemy samochodu, to podejrzewam, żeby nam wyszło, że pożądany samochód miałby takie cechy: byłby duży, że by był bezpieczny, tani i mały, żeby się wszędzie mieścił, i oszczędny ale też bardzo mocny, żeby mógł przyspieszyć, powinien być sportowy, bo to fajne, ale też kombi, żeby można było dużo osób władować, terenowy i van też, żeby było można jeździć z rodziną, ale też mieć napęd 4x4, itd. Wiadomo, że można by znaleźć mnóstwo sprzecznych parametrów. Stąd to (konsultacje) jest pewien opis potrzeb, czego się domaga rynek, branża, opinia publiczna, natomiast to, na ile to zostanie przekute w realny produkt rynkowy? Nikt nie będzie ryzykował, żeby robić produkt rynkowy tylko na podstawie badań, to powinien być pewien drogowskaz, to jest jeden z wsadów intelektualnych do konstrukcji nowego badania. Więc to nie jest opis nowego badania, tylko bardziej płaszczyzna do dyskusji dla tych, którzy to badanie finansują. Albowiem trzeba wyraźnie powiedzieć, że największy wpływ na metodologię będą mieli ci, którzy będą za to badanie płacić, stąd jest to jeden z elementów układanki do tego, żeby to badanie konstruować.

DI: Liczba parametrów "badania marzeń", która została zaprezentowana w dokumencie podsumowującym oczekiwania branży, jest ogromna.

AG: Są dwie osobne szkoły na ten temat. Pierwsza mówi badajmy, podawajmy jak najwięcej parametrów, bo to może się nam do czegoś przydać. Natomiast ciekawa uwaga została zgłoszona przez uczestników grupy klienckiej, czyli grupy w której brali udział duzi reklamodawcy i domy mediowe. Oni powiedzieli: my tego nie chcemy wcale, nam to nie jest potrzebne, my chcemy mieć mało, ale dobrych. Do czego doprowadza sytuacja, w której mamy mnóstwo różnych współczynników? Możemy robić całą serię rankingów, np. po liczbie odsłon, czasie spędzonym na witrynie, liczbie klików, itp. Możemy mieć z dziesięć różnych rankingów, każdy wygląda trochę inaczej i reklamodawca zapyta się nas: który to jest ten właściwy? Robimy po prostu 30 kategorii, żeby w każdej, był kto inny pierwszy?
Uczestnicy z grupy klienckiej powiedzieli nam, my chcemy mieć jak najmniej parametrów, ale takich, żeby były one maksymalnie porównywalne z innymi metodami.

DI: To co z tym Real Userem, który jest unikalnym parametrem dla Megapanelu, który ma być idealny dla reklamodawcy, ale jednak mówił Pan, że trudno go porównać do parametrów z innych badań?

AG: Jak mówiłem na początku, w samym dokumencie są sprzeczności. Z jednej strony reklamodawcy mówią, że chcą mieć parametry porównywalne z innymi mediami, z drugiej strony właściciele serwisów ogłoszeniowych mówią, że dla nich bardzo ważne jest podawanie ile jest ogłoszeń na stronach. Od tego zatem są specjaliści i właściciele, żeby się zastanowić czy spełnić oczekiwania tej grupy czy innej.

DI: Czy w grupach konsultacyjnych pojawiły się jakieś propozycje zmian w metodzie liczenia tego parametru?

AG: Pojawił się element, żeby polepszyć panel. Dobry panel, rekrutowany offline'owo, z wysokim poziomem kontroli charakteru tego panelu powinien wyeliminować wszystkie wady tego Real Usera, czyli RU robiony na bazie tego panelu powinien być dużo, dużo, dużo lepszy.

DI: Czyli parametr Real User można polepszyć?

AG: Real User jest pewną formułą statystyczną, która oblicza liczbę fizycznych osób odwiedzających daną stronę. Na pewno wadą RU jest czas jego obliczania - on pojawia się dosyć późno (po 2 miesiącach - przyp. red.), natomiast trochę z nim jest tak, jak z tą demokracją w powiedzeniu Churchilla - może nie najlepszy, ale trudno znaleźć coś lepszego. Pewnie, że chcielibyśmy mieć lepsze, szybciej publikowane dane, ale problem jest taki, że nie bardzo takie technologie są. Możemy oczywiście obliczać z panelu zamiast Real Usera, ale wtedy wiąże to się z ekstrapolacją wyników panelistów na resztę populacji, czyli jakimś błędem statystycznym wynikającym z samej statystyki.

DI: Grupa zajmująca się site-centric, w przeciwieństwie do innych grup, postawiła mnóstwo pytań i praktycznie żadnych odpowiedzi bądź życzeń. Dlaczego?

AG: To jest zwrócenie uwagi na pytania, na jakie powinna odpowiedzieć firma, która będzie to badanie robiła. Site-centric to jest produkt czysto technologiczny, w związku z tym osoba, która prowadziła tę grupę, Radek Kita przyjęła taką konwencję, że oczywiście mogę wypisać listę wszystkiego, czego potrzebuję, ale takiej firmy nie znajdę. Zatem wolę dostać od nich listę co mają i porównać sobie i wybrać te parametry, które mi najbardziej odpowiadają, niż dać im listę co muszą mieć, żeby stwierdzili, tego nie mamy i żeby to był powód do kwestionowania ich jakości.

DI: Czy będzie większa liczba panelistów?

AG: To z kolei zależy od pieniędzy, bo też chodzi o liczbę, ale poza gołą liczbą panelistów, kluczową informacją jest to ile musi daną witrynę odwiedzić panelistów, żeby ona weszła do badania. Jeden z problemów badania polega na tym, że powinniśmy dostarczać pełną informację o danej witrynie - o strukturze demograficznej, o zachowaniach, o ruchu użytkowników na tej witrynie i oczywiście wnioskujemy to na podstawie zachowań panelistów. Teraz ilu tych panelistów powinno być, żeby można było takie wnioskowanie przeprowadzić? Oczywiście im więcej panelistów, tym wnioskowanie to jest bardziej poprawne. Więc pytanie jest takie, jak wysoko powinna być postawiona poprzeczka, by witryna weszła do badania? W tym momencie jest to 45 panelistów, natomiast my mamy bardzo dużą liczbę witryn w badaniu. Proszę zwrócić uwagę, że my badamy obecnie ponad 5 tysięcy witryn, kiedyś było nawet 6 tys. Oznacza to, że mam tzw. long tail (długi ogon) witryn, które nie mają dużej oglądalności, które nie mają chyba dużego znaczenia dla rynku reklamowego.

Rynek reklamowy kończy się na którejś tam setnej witrynie, nie ważne czy to jest 7-setna, 5-setna, czy 3-setna, ale to duże witryny mają znaczenie dla reklamodawców. Mówię teraz o reklamie typu display. Kiedy na jakichś międzynarodowych konferencjach opowiadam o tym, że u nas badaniem jest objętych około 6 tys. witryn, to wszyscy stukają się w głowę i pytają, ale po co? Po co tyle, przecież to nie ma znaczenia. Oczywiście dla nas jest to powód do dumy, bo dzięki temu jednak dużo wiedzy mają też inne podmioty, bo my robimy to badanie nie tylko dla branży reklamowej. To też jest źródło wiedzy dla dziennikarzy, analityków, naukowców, dla obserwatorów życia internetowego, dla całej masy ludzi, którzy nie zawierają się w rynku reklamowym i dla nich ten długi ogon jest interesujący. Więc to dobrze, że my pokazujemy 5 tys z hakiem witryn a nie tylko 500.

Z drugiej strony, z racji tego, ze w tym momencie ta poprzeczka jest położona na 45, to nie zawsze to wnioskowanie odpowiada wszystkim metodologicznym aspektom. Być może to nie jest kwestia zwiększenia panelu, tylko po prostu podniesienia poprzeczki, czyli wyrzucenia trochę witryn z badania, co może być dla nich smutne, ale one nie uczestniczą w rynku reklamowym. Tylko że one już nie uczestniczą w kampaniach zasięgowych.

DI: Branża interaktywna coraz chętniej kieruje się parametrem ROI. Jeśli wyrzucimy z badania te małe niszowe, specjalistyczne witryny, być może mediaplanerzy stracą dane o interesujących serwisach z punktu widzenia zwrotu z inwestycji?

AG: Z tym ROI to oczywiście tak, natomiast moim zdaniem to jest przekleństwo branży reklamowej, dlatego że kampanie wizerunkowe są jednak podstawą marketingu. To nie jest tak, że nam zależy na tym, żeby po prostu sprzedać, czy złapać kogoś do newslettera, czy do bazy klientów. Nam jednak też chodzi o to, żeby budować pozytywny wizerunek marki. ROI taki krótko terminowy przy kampaniach wizerunkowych jest żaden. Natomiast potem, jak się zmienia sytuacja na rynku to okazuje się, że przetrwają ci, którzy sobie dobrze ten wizerunek zbudowali, tak więc od pozostawania przy czystym ROI-u trochę byłbym ostrożny, bo to jest trochę podcinanie gałęzi na której się siedzi.

DI: Na kampanie zasięgowe, kreujące wizerunek marki stać zazwyczaj tylko te duże firmy, natomiast te małe często bazują na tym, że chcą reklamy, która sprzedaje i takie rozwiązanie mogą dostać np. na niszowych, specjalistycznych witrynach. Jednak propozycja podniesienia progu minimalnej liczby panelistów z obecnych 45 do 100 na pewno wykluczy z badania wiele tego typu stron. Co mogą zrobić ich właściciele by znaleźć się w badaniu?

AG: Obecny model, który teraz stosujemy - wstawianie na strony kodu site-centric, on chyba się sprawdził. Oczywiście wtedy nie mamy danych demograficznych, bo jeżeli wejdzie na taką stronę dwóch panelistów, jeden będzie kobietą a drugi mężczyzną, to nie możemy wnioskować, że połowa użytkowników to są mężczyźni, a połowa to kobiety. Natomiast myślę, że to jest akurat fajna rzecz, że każdy gdzieś tam może w Megapanelu pokazać część swoich zasobów i nie ma z tym problemu.

DI: W przypadku uzyskania kodu site-centric są dwie możliwości: jedna to przyłączenie się do sieci reklamowej, co często nie jest zbyt korzystne dla małych witryn ze względu na zbyt małe pieniądze, które te sieci im przynoszą, a druga to możliwość samodzielnego opłacenia tego kodu.

AG: Tak. Trzeba jednak wyraźnie powiedzieć, że to jest opłata wnoszona Gemiusowi, a nie PBI za technologię badawczą.

DI: Od czego ta opłata zależy?

AG: Od ruchu. Przy niewielkim ruchu to są kompletnie groszowe historie, do kilkudziesięciu złotych miesięcznie.

DI: Jaką rolę w obecnych badaniach panelowych odgrywają technologie?

AG: Tak naprawdę w internecie my mamy bardzo wygodną sytuację, bo w zasadzie wszyscy użytkownicy używają jednego systemu operacyjnego, jest kilka przeglądarek ale na tyle zgodnych technologicznie, że nie jest problem żeby to badać. Ja to mówię, żeby przeciwstawić to sytuacji, którą mamy w internecie mobilnym. Tam sytuacja jest dramatycznie różna (od internetu stacjonarnego), tzn mamy kilkanaście kompletnie odmiennych filozoficznie platform sprzętowych, na każdej z tych platform mamy inne systemy operacyjne, cookiesowe, non-cookiesowe, zamknięte, otwarte, dedykowane dla konkretnego modelu telefonu, co powoduje, że w zasadzie oprogramowanie, które monitoruje użytkowników powinno być neutralne, nie może zawieszać telefonu, zwalniać transmisji, w związku z tym to musi być perfekcyjnie napisane. Testowanie programu, jak nasz panel, który monitoruje działalność użytkownika, testowanie go na tylu różnych kombinacjach telefonów komórkowych, wydaje się przedsięwzięciem absolutnie karkołomnym. Zwłaszcza że w telefonach jest dużo szybsza wymiana sprzętów i standardów, stąd wymaga to gigantycznych pieniędzy, żeby opracować program, który będzie zachowywał się na każdym telefonie, na każdym systemie operacyjnym tak samo. A tak się przyjęło mniej więcej, że koszty badania to jest od 1 do 2% kosztów przychodów reklamowych z danej branży. To wychodzi z empirii, że badanie rynku telewizyjnego jest między 1 a 2% reklam z telewizji, to samo w radiu i w prasie i to się generalnie sprawdza. Jeżeli zatem byśmy wzięli wielkość rynku reklamowego internetu mobilnego i zobaczyli ile to jest tego 1-2%, to by się okazało, że tak naprawdę nie ma pieniędzy na internet mobilny. Nie mówiąc już o tym, że większość firm badawczych, które się tym zajmują twierdzi, że badanie internetu mobilnego jest droższe niż badanie internetu stacjonarnego.

DI: Ale do czasu, ponieważ internet mobilny dynamicznie rośnie, a więc...

AG: Nie będziemy mieli dużych przychodów z internetu mobilnego, jeżeli nie będziemy mieli dobrego badania. Reklamodawcy nie będą wydawać pieniędzy na badanie które jest kwestionowane, które jest nienajlepszej jakości i co do którego branża się nie porozumie. Reklamodawcy zachowują się tutaj bardzo racjonalnie, tzn. jeżeli nie ma zgody co do tego, że tak się liczymy, to oni wolą wydać pieniądze na gazety, gdzie takich hec nie ma. Więc my musimy mieć badanie internetu mobilnego, które jest powszechnie akceptowane przez rynek i je pokazać reklamodawcom. Wtedy te przychody zaczną rosnąć, bez tego nie ma na co liczyć.

Tak jest choćby z badaniem internetu, tzn. gwałtowny wzrost wydatków na reklamę w internecie był wynikiem wprowadzenia Megapanelu. Tak jest we wszystkich innych krajach. Jeżeli o te same pieniądze konkurują media dobrze zbadane, pokazujące reklamodawcy ile to kosztuje, to nikt nie będzie wydawał pieniędzy na medium, którego badania są kwestionowane.

DI: W dokumencie poświęconym konsultacjom rozważacie zasadność monitorowania aplikacji p2p. Jakie są argumenty przeciwko mierzeniu tego typu, popularnej co by nie było, aktywności internautów.

AG: Od momentu, w którym p2p staną się istotnym nośnikiem reklamowym, to nie mam  wątpliwości, że trzeba będzie to zrobić. Nieumiejętność chwycenia tego (p2p) przez zewnętrzne system czy badawcze, czy kontrolujące, jest raczej powodem dla których z tego p2p się korzysta, więc gdyby udało się to tak łatwo badać, to pewnie nie byłoby to aż tak popularne. Więc oczywiście zdajemy sobie z tego sprawę, bo o ile wiem nigdzie na świecie nie ma monitoringu takich sieci, czy to w celach badawczych, czy ochrony praw autorskich.

DI: Z przeglądarki Firefox oraz Chrome, dla których dostępne jest te rozszerzenie blokujące reklamy i wycinające skrypty zliczające statystyki, korzysta już w sumie blisko 60% polskich użytkowników internetu. Jest to jedno z najpopularniejszych na świecie rozszerzeń dla tych przeglądarek, istnieje zatem prawdopodobieństwo, że używa go także znacząca liczba Polaków. Jak Adblock może zaburzać wyniki Megapanelu?

AG: Według naszych badań to jest marginalne zjawisko - jest to raptem kilka procent. My oczywiście to monitorujemy, bo wiadomo, że to jest coś, co nas mocno interesuje. Trzeba sobie jasno powiedzieć, że dla przeciętnego użytkownika internetu w Polsce zmiana strony głównej w przeglądarce wymaga wybitnych umiejętności informatycznych. Zakładanie Adblocka to jest coś, co dostępne jest naprawdę osobom o nieprzeciętnych umiejętnościach.

DI: Ale jednak około 70% Polaków korzysta z innej przeglądarki niż domyślnie zainstalowanej w dominującym na rynku systemie operacyjnym. Oznacza to, że potrafią coś więcej w tym komputerze zrobić, a przynajmniej pobrać i zainstalować nowy program, zatem jedno małe i bardzo popularne rozszerzenie instalowane z poziomu przeglądarki za pomocą dwóch kliknięć, wydaje się, że nie powinno stanowić aż takiego problemu.

AG: Według naszych badań jest to pojedyncza liczba użytkowników, która używa tego Adblocka. Zastanawiam się jednak na ile rzeczywiście użytkownicy unikają reklam jako takich. To też nie jest tak do końca, że my chcemy mieć komputer pozbawiony zupełnie reklam. Oczywiście, że większość reklam jest irytujących, ale reklamy które są dobrze targetowane, nie są już tak irytujące. Gdyby te reklamy w ogóle były pomijane, to nie pojawiały by się ani w gazetach, ani w telewizji, ani nigdzie indziej. Czyli jednak wychodzi wyraźnie z badań, że ludzie korzystają z reklam. Więc nie do końca wierzę w to, że wszyscy jak jeden mąż, jak tylko mogliby zainstalować wtyczkę, która jak mówię wymaga umiejętności, to ją zainstaluje.

DI: Jedna z grup zasugerowała trzy rodzaje kategoryzacji: tematyczną, funkcjonalną i właścicielską. Jaki cel ma propozycja stworzenia kategorii funkcjonalnej?

AG: Obecne kategorie są mieszane, z czym mamy problem, np. jak zakwalifikować bloga sportowego. Tematycznie to jest sport, ale jednocześnie to też jest blog. Przyjęliśmy zasadę taką, i słuszną, której będę bronił, że dana witryna może być przyporządkowana tylko do jednej kwalifikacji, nie może być dwa razy zaklasyfikowana, bo wtedy nastąpiła by duplikacja w wynikach badania. Pewne rzeczy są oczywiste, tak jak tematyka, sport, wiadomości, pogoda, gospodarka i to jest podział pierwotny, który mieliśmy w naszym badaniu. Do tego została nałożona druga klasyfikacja, czyli funkcjonalna - fora, blogi, serwisy wideo, serwisy komunikacyjne, lokalizatory. I nagle się okazało, że mamy taką kategorię "społeczności", ale społeczności mogą być na jakiś konkretny temat, np. blog sportowy, czy serwis wideo ze sportem - one są i tym i tym. W związku z tym osobno będzie tagowana tematyka, a osobno funkcjonalność, czyli blogi osobno, serwisy wideo osobno, czaty osobno, serwisy społecznościowe osobno, fora osobno, maile osobno, itd. Czyli to jest ten podział czysto funkcjonalny.

DI: Wspominał Pan o wykluczeniu z pomiarów oglądalności robotów i tzw. "nie ludzi". Co się do nich zalicza?

AG: Wszystkie urządzenia indeksujące, np. programy wchodzące z wyszukiwarek, bo ich zadaniem jest maksymalne symulowanie zachowań ludzi, po żeby albo zbierać dane, albo indeksować, choćby mechanizmy wyszukiwarek tak robią. Zależy nam żeby oglądalność tego typu maszyn nie zawyżała oglądalności stron, bo byłoby to nieuczciwe, bo póki co roboty jeszcze nie kupują towarów w internecie.

DI: Udziałowcami PBI są obecnie Agora, Interia, Onet i Wirtualna Polska. Na początku tego roku była mowa o tym, że liczba udziałowców może się zwiększyć. Czy już są jakieś zgłoszenia?

AG: Nam zależy na bardzo silnych wydawcach internetowych. Badanie oglądalności internetu w Polsce służy wydawcom internetowym, w związku z tym nam zależało na tym, żeby takie podmioty znalazły się w PBI. Postawiono poprzeczkę na poziome 20% zasięgu, czyli ci wydawcy, którzy w danym miesiącu mieli ponad 20% zasięg zostali zaproszeni do PBI zgodnie z zasadami sformułowanymi przez właścicieli. Wydawców, którzy spełniali te kryteria było 10 czy 11 no i mogę powiedzieć, że zdecydowana większość z nich odpowiedziała pozytywnie na ten apel i prowadzone są z nimi rozmowy.

DI: A co z Naszą Klasą i GG Network?

AG: Nie jestem upoważniony żeby o tym mówić. To jest jednak biznes, w którym prowadzone są rozmowy nie na poziomie prezesa zarządu PBI, tylko właścicieli. O sprzedaży udziałów PBI kolejnym podmiotom rozmawia zarząd Onetu, zarząd Agory, zarząd Interii i zarząd Wirtualnej Polski z zarządem GG Network z zarządem pozostałych podmiotów. Też z niecierpliwością czekam na wynik tych rozmów, ale to nie ja je prowadzę.

DI: Wspominam o tym, bo kilka miesięcy temu deklarowali stworzenie konkurencyjnego badania.

AG: Komunikacja wtedy była taka: jeżeli PBI się nie otworzy to istnieje ryzyko, że stworzymy konkurencyjne badanie. Ja już wcześniej deklarowałem, że PBI się otworzy, myślę że było to taki element katalizujący i przyspieszający ten proces i te rozmowy są prowadzone.

DI: Czy jest miejsce na polskim rynku na kilka standardów badań?

AG: Myślę, że tak, że to nie jest problem na kilka równoległych badań. Problemem jest co innego - na ile sama branża internetowa na tym by straciła. Jeżeli mamy dwa badania, to oczekujemy, że będą różne wyniki. Jeżeli wyniki będą identyczne, to te badanie nie ma sensu. Jeżeli natomiast wyniki jednego i drugiego badania są różne, to natychmiast pojawia się pytanie, które są prawdziwe. My obserwujemy od kilku lat taką sytuację w Polsce w telewizji. Od kilku lat mamy taką sytuację w badaniach telewizyjnych, kiedy ze sobą konkurują dwa badania panelowe, każde z nich robione na bardzo wysokiej jakości, ale różnice są. Jak się zachowują klienci? Klienci zachowują się racjonalnie, tzn. zawsze oczekują rozliczania się wg tego korzystniejszego dla nich badania. Oczywiście w telewizji mamy inna sytuację, bo tam mamy dużo wyższe marże, tzn. tam nadwyżka jest na tyle duża, że wszystkich stać na to, by sobie te kilka punktów procentowych różnicy odpuścić. W internecie już tak nie jest.

Miejmy świadomość, że jeżeli powstaną dwa albo więcej równoległych badań internetu, to zawsze klient przyjdzie do nas i będzie oczekiwał rozliczania się z tych najmniej dla nas korzystnych danych. Abstrahując od danej sytuacji, jeżeli mamy dwa różne badania to jest rzeczą zrozumiałą, że każde z nich jest podważane przez to drugie. Reklamodawcy zachowują się racjonalnie i jeżeli widzą jakąś bitwę i kwestionowanie, wskazywanie błędów w panelu to te pieniądze wydają w gazecie, czy innym medium, a nie w internecie. Myśmy już zaobserwowali takie zjawisko, że z racji kwestionowania pozycji Megapanelu, klienci powiedzieli OK, poczekamy aż ta burza się skończy, a w tym czasie to wolimy zapłacić tam, gdzie takich rzecz nie ma.

Zatem to oczywiście miejsce jest, ale nie jest to kwestia miejsca, tylko kwestia czy to jest korzystne dla branży, byśmy pokazywali sobie wspólnie uzgodnione wyniki, czy też chcemy pokazywać to, że sami nie wiemy jak ta prawda wygląda.

DI: Niedawno comScore zapowiedział comiesięczną publikację swoich badań dotyczących polskiego internetu. Czy jest w związku z powyższym możliwość podjęcia współpracy PBI z tą firmą nad badaniem polskiego rynku?

AG: To nie jest do mnie pytanie. Jesteśmy w okresie rozszerzenia. Kiedy będziemy mieć wszystkich spełniających kryteria procentowe, którzy chcą być w PBI, wtedy oni podejmą decyzję co robimy dalej z badaniem, czy kontynuujemy obecny model, czy robimy przetarg, itd. Możliwości jest cała gama, ale ta decyzja należy do nowych właścicieli. PBI jest spółką do zrealizowania badania, natomiast to, jakie to ma być badanie decydują jednak właściciele.

DI: Mówił Pan wcześniej, że kształt badania nie zależy tylko od wyników konsultacji. Jakie inne czynniki będą miały na to wpływ?

AG: Przede wszystkim możliwości finansowe. Moglibyśmy zrobić fenomenalne badanie internetu mobilnego, mając bardzo bardzo duże środki. Ale to jest jednak biznes, to się musi zapiąć finansowo i wydatki na badanie muszą się zwrócić w zyskach z produktu reklamowego. Nie ma sensu robić badań, które nie przyczynią się do wzrostu rynku reklamy. Więc trzeba sobie jasno powiedzieć, że robimy badania takie, na które nas stać i które są wystarczające dla branży reklamowej.

Drugim elementem jest technologia. Internet wydawałby się medium łatwym do zbadania, natomiast tak dokładnie nie jest. Internet jest szalenie trudny przede wszystkim z racji ogromnego zróżnicowania. Generalnie w mediach są dwie filozofie prowadzenia badań - albo badamy czas korzystania z mediów, albo liczbę kontaktów. W przypadku takich mediów jak telewizja, czy jak radio badamy czas korzystania. W przypadku takich mediów, jak na przykład prasa bądź outdoor badamy liczbę kontaktów. W przypadku internetu obie te rzeczy mają miejsce. Bo mamy zarówno witryny, powiedzmy "gazetowe", które się czyta i tutaj istotne jest ile użytkownik zrobi tych odsłon, ale coraz większe znaczenie ma internet, w którym dane podawane są ciągle, w sposób strumieniowy, jak telewizje internetowe, wideo na życzenie, radio internetowe, audio itd. stąd to już jest medium, dla którego głównym parametrem jest czas.

To jest przykład na to, że internet jest wiązką różnych mediów - trochę prasą, trochę radiem, trochę telewizją. Każdy z elementów dotychczas badało się inaczej, a teraz musimy to wszystko sprowadzić do wspólnego mianownika. To jest bardzo trudno. Mamy szereg technologii, które na razie nie bardzo poddają się badaniu, no i mamy też internet poza przeglądarką WWW, mamy np. coraz więcej aplikacji internetowych i też w ramach tych aplikacji są jakieś nośniki reklamowe. Pewnie można jakoś porównać oglądalność telewizji w przeglądarce i w aplikacji, ale emisja reklam wygląda w nich trochę inaczej i przede wszystkim technologia tych dwóch produktów wygląda na tyle inaczej, że to wymaga odpowiedniego pochylenia się nad tym tematem.

Internet jest medium szalenie trudnym do zbadania a stawiane są wobec niego najwyższe wymagania. To o czym była przed chwilą mowa - o ROIu - jest możliwe tylko w internecie, w innych mediach nikt nie sprzedaje niczego w modelu efektywnościowym.

Jest jeszcze problem dynamiki, to znaczy nie ma kwartału, by nie pojawiła się jakaś nowa technologia, nowe usługi, nowe nośniki reklamowe, w związku z tym to badanie też powinno to uwzględniać. Grupa osób z PBI była w tym roku na konferencji w Lizbonie, gdzie między innymi była mowa o tym, w jaki sposób badać potencjał reklamowy serwisów społecznościowych. To jest jedna niewiadoma. Tego nikt na świecie nie wie. Oczywiście jest szereg prób, to znaczy każda firma, która prowadzi badania w internecie ma jakiś pomysł na to, więc parametrów, czy współczynników, które mogłyby to ujmować jest w tym momencie mnóstwo. O ile dotychczasowe badania internetu są w miarę dobre do oglądania tego internetu tradycyjnego, czytanego (liczba odsłon, użytkowników), o tyle nagle okazuje się, że dla serwisów społecznościowych te parametry są w kosmos wystrzelone.

Czas spędzony na serwisach społecznościowych jest gigantyczny, co się oczywiście nie przedkłada na atrakcyjność reklamową, więc powszechnie panuje zgoda, że serwisy społecznościowe powinny być mierzone nieco inaczej, albo inne parametry powinny być badane. Co? O tym toczy się dyskusja. Może powinniśmy mierzyć jakieś wiązki znajomych, albo siłę odzewu w danym serwisie na wrzucone treści, filmik, notkę blogową, czy fotkę. Koncepcji jest mnóstwo, nie ma na razie uzgodnionego standardu na ten temat, ale pewnie w ciągu 2-3 lat to się wyklaruje i będziemy mierzyć te serwisy wszystkie tak samo.

DI: W kwestii serwisów społecznościowych, dla wielu internautów Facebook stał się ostatnio niemalże synonimem internetu. Dostrzegło to wiele serwisów i firm, które zakładają tam swoje fanpage i wkładają w ich rozwój coraz więcej pracy. To z kolei powoduje przeniesienie aktywności użytkowników tych firm z ich pierwotnych serwisów na ich strony na Facebooku. Czy planujecie pomiary tego typu aktywności?

AG: Facebook jest fajny, ale przede wszystkim jest medium społecznościowym a nie reklamowym. Ja bym trochę ostrożnie podchodził do entuzjastów.
 

DI: Niektóre firmy jednak już prowadzą na Facebooku także działalność sprzedażową, jest też coraz więcej aplikacji umożliwiających wykorzystanie zgromadzonej wokół tych stron społeczności do działań komercyjnych.

AG: Ja wierzę w to, że ludzie mogą się przyjaźnić ze sobą, mogą się przyjaźnić z fikcyjnymi bohaterami, ale nie bardzo wierzę, że mogą sie przyjaźnić z zupkami w proszku, albo z jedzeniem dla psów. Oczywiście nieobecność w Facebooku jest znaczącym sygnałem na temat olewania internautów przez marketerów danej branży. Ale to nie zastępuje wszystkiego. Wyraźnie z tych prezentacji, które obejrzeliśmy na konferencji (Forum IAB 2010) wynika, że internet służy znakomicie do tego, żeby wspomagać działania marketingowe, ale ich nie zastąpi. Także, nie oznacza to, że przenosząc naszą aktywność do Facebooka i zakładając fanpage proszku do prania możemy odpuścić pozostałe budowanie marki. Za marką musi stać konkretna jakość, te pozostałe działania marketingowe nie mogą być zaniedbywane, a Facebook jest jednym z narzędzi.
Ja nie do końca wierzę w to, że Facebook jest uniwersalnym medium reklamowym. O ile internauci w miarę się godzą na działania reklamowe serwowane gdzie indziej, tak akceptacja reklam na serwisach społecznościowych jest znacznie mniejsza. Stąd reklamy na Onecie mi nie przeszkadzają, natomiast na Facebooku niektóre z nich tak. Ja rozumiem, że Onet musi z czegoś żyć, a Facebook...

DI: Też musi z czegoś żyć

AG: Ale pieniądze na pozyskiwanie treści są zupełnie inne. Wiadomo, że portale i serwisy informacyjne ten kontent pozyskują. Kiedy kupuję gazetę w kiosku, to ja wiem, że muszę za nią zapłacić 2 czy 3 zł, bo ktoś za te pieniądze pracował, zdobywał te informacje. Ja się godzę na reklamy w telewizji, ponieważ wiem, że za to wyprodukowano program, czy film, który oglądam. To samo jest w wypadku portali informacyjnych. Natomiast w przypadku serwisów społecznościowych, to poza samą technologią, ale ekskluzywnych informacji taki serwis nie produkuje. On udostępnia jedynie narzędzia, żeby je wrzucać skądinąd. Sama ta część pozyskiwania treści przez serwisy społecznościowe jest dużo mniejsza. Internauci muszą zdać sobie sprawę, że nie ma akceptacji dla takiego kratera reklamowego.

DI: Które z tej całej listy życzeń powinno Pana zdaniem zostać spełnione?

AG: Wiadomo, że jak najwięcej. Ja myślę, że kluczowe rzeczy, które na pewno w Polsce muszą się pojawić to jest badanie internetu mobilnego, który się rozwija, który ma dynamikę, a na razie jest dosyć trudny do badania z różnych względów. Trochę nam zależy na badaniu streamu, czyli aplikacji internetowych i tv internetowej, radia internetowego i też dla jakości badania chyba największe znaczenie miała będzie jakość panelu badawczego, tzn. w większości krajów jednak my powoli przechodzimy na panele rekrutowane nie przez internet tylko na panele rekrutowane offline'owo, nie wśród z samych internautów, tylko po prostu z populacji, i takie panele podobno przekładają się na dużą lepszą jakość badań.

DI: A jakie zmiany zostaną wprowadzone na przełomie tego roku, co zapowiedział Pan podczas Forum IAB 2010.

AG: Nie powiem nic, dlatego, że jak powiem, jak nam się uda to fajnie, a jak się nie uda, to będę miał wszystkich na głowie, że naobiecywałem.

DI: Jednym z życzeń jest to, by publikacja Megapanelu odbywała się w ciągu 15 dni. Czy jest to możliwe?

AG: Przy obecnym sposobie liczenia Real Usera raczej nie. Oczywiście my prowadzimy badania nad tym, żeby tę metodologię tak zmienić, kilka razy robiliśmy różne próby, żeby ten okres skrócić i to jest istotne bardzo, że powiedziano nam wyraźnie, że to jest bardzo ważna sprawa, żeby mieć te dane odpowiednio wcześniej.

DI: A co nie zostanie wprowadzone na przełomie roku?

AG: Tego też nie powiem. My testujemy ileś różnych rozwiązań. Zanim jakiś element Megapanelu ujrzy światło dzienne, pojawi się w ofercie handlowej, musi być przetestowany przez kilka miesięcy. Musimy mieć pewność, że to jest dobrze liczone, zanim będzie wdrożone.

DI: Czy "badanie marzeń" sformułowane przez grupę kliencką ma Pana zdaniem realną szansę spełnienia?

AG: Liczę że tak. Przecież to jest badanie w końcu dla klientów, oni są tymi, do których to jest adresowane, stąd oczywiście zależałoby mi na tym, żeby te podmioty były najbardziej zadowolone.

DI: A kiedy można oczekiwać nowego badania, jeśli oczywiście będzie takie zlecone?

AG: Wszystko zależy od właścicieli, a oni się wypowiedzą dopiero jak będą w PBI. Warto pamiętać, że mamy całe spektrum możliwości, od delikatnego tuningu i naprawiania Megapanelu, po rozpisanie przetargu na nowe badanie. Czyli dopiero po rozszerzeniu PBI i spotkań w pełnym gronie, będzie można cokolwiek powiedzieć na temat kierunku badania i czasu w jakim zostanie to zrobione.


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *              



Ostatnie artykuły:

fot. HONOR








fot. Freepik



fot. ING