Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Internetowe pasożytnictwo doprowadzi do upadku polskich wydawców prasy?

Michał Fura 18-01-2010, 18:11

Wydawcy mają dziś dylemat, jeśli chodzi o udostępnianie swoich artykułów w sieci. Z jednej strony chcieliby rozwijać swoją ofertę on-line, ale z drugiej wiedzą, że prawo chroni ich w sposób niewystarczający i każdy udostępniony tekst może zostać szybko ukradziony - mówi w rozmowie z Dziennikiem Gazetą Prawną Sebastian Kawczyński, prezes firmy Plagiat.pl.

robot sprzątający

reklama


Michał Fura: Wydawcy prasy skarżą się na kradzież ich treści przez serwisy internetowe, które bagatelizują sprawę. Pana firma na zlecenie wydawców (m.in. wydawcy Dziennika Gazety Prawnej) szuka w sieci serwisów, które nielegalnie wykorzystują ich artykuły. Jaka jest rzeczywiście skala tego zjawiska?

Sebastian Kawczyński: Ogromna. Gdy zaczęliśmy pracę dla jednego z wydawców, najpierw przeszukiwaliśmy internet pod kątem serwisów, które wykorzystywały jego artykuły w co najmniej 30 proc. Było ich jednak tak dużo, że zmieniliśmy parametry i zaczęliśmy wybierać tylko te serwisy, które wykorzystywały co najmniej 50 proc. oryginalnego tekstu, ale i w tym przypadku okazało się, że liczba takich serwisów jest wciąż ogromna, idąca w setki.

>> Czytaj też: News Corp. informacyjnym pasożytem?

Do właściciela każdego z takich serwisów wydawca wysyłał potem wezwanie do zaprzestania działalności lub pozew o odszkodowanie, więc ich liczba ma znaczenie. Dlatego ostatecznie ograniczyliśmy zakres przeszukiwania tylko do tych miejsc, które wykorzystują teksty w co najmniej 70 proc.

Jak odbywa się przeszukiwanie internetu pod kątem skradzionych artykułów?

Każdy wydawca wybiera, jakich konkretnie artykułów lub ich fragmentów mamy szukać. Przekazuje nam ich treść, którą wprowadzamy do oprogramowania. Potem skanujemy strony internetowe pod kątem fragmentów tych tekstów. W dużym skrócie można powiedzieć, że robimy to za pomocą specjalnie napisanego programu, tzw. robaka, który skanuje strony w sieci. By zwiększyć liczbę stron internetowych, które przeszukujemy, współpracujemy z wyszukiwarkami internetowymi, m.in. Google czy Netsprint.

Więcej w Forsal.pl

Forsal.pl

 

 

>> Czytaj też: Microsoft zamyka serwis z powodu plagiatu


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *