Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

"Prowadzący blog był zobowiązany sprawić, by treść publikowanych w nim wypowiedzi odpowiadała stanowi faktycznemu. Mógł wprowadzić zasadę publikacji komentarzy internautów tylko po uprzednim zalogowaniu" – tak uzasadnił postanowienie wydane w trybie wyborczym Sąd Okręgowy w Tarnowie. To porażka Wymiaru Sprawiedliwości.

robot sprzątający

reklama


Stanowisko tarnowskiego sądu podtrzymał Sąd Apelacyjny w Krakowie. Orzeczenie zostało zaskarżone do Europejskiego Trybunału Praw Człowieka przez Helsińską Fundację Praw Człowieka. Sprawę opisała niedawno m. in. Rzeczpospolita (artykuł pt. Kto odpowiada za komentarze w sieci). Niektórzy politycy (również lokalni) coraz głośniej domagają się moderacji treści tworzonych przez użytkowników w ramach web 2.0. Są nawet głosy, które w zasadzie domagają się wprowadzenia cenzury prewencyjnej lub przynajmniej aktywnego filtrowania przez administratorów ex post treści wprowadzanych przez użytkowników portali np. w komentarzach. Sąd w Tarnowie, prowadzący sprawę w przyśpieszonym trybie wyborczym, wyraźnie uległ tym naciskom.

Moderacja po fakcie oznaczałaby de facto nałożenie obowiązku filtracji treści przez administratorów. Tymczasem jest to sprzeczne z zasadą ograniczenia odpowiedzialności usługodawców świadczących usługi drogą elektroniczną, którą wprowadza art. 14 ustawy o świadczeniu usług drogą elektroniczną (podobne regulacje są w większości krajów UE oraz w USA). Chodzi zresztą nie tylko o ten konkretny artykuł ustawy, ale o jej ratio legis (powód uchwalenia) w ogóle. Prawidłowe realizowanie przez administratora serwisu procedury "notice and takedown" zwalnia go od odpowiedzialności za treści wprowadzone (np. w komentarzach) przez użytkowników. Tak też było według relacji Rzeczpospolitej w przypadku Andrzeja Jeziora, prowadzącego własnego bloga radnego z Ryglic.

Oczywiście, przywołany artykuł 14 ustawy o świadczeniu usług drogą elektroniczną budzi w praktyce wiele problemów, pisałem o tym między innym w tekście pt. Odpowiedzialność za treści w portalach - między teorią a praktyką. Jednak to nie powód, by nagle obciążać usługodawców obowiązkiem moderacji czy filtrowania treści. Zresztą trwają pracę nad nowelizacją ustawy, która ma rozwiać wiele wątpliwości, o których wspominałem.

Warto też zauważyć, że o ile "z automatu" można w miarę łatwo i bez dużych nakładów finansowo-organizacyjnych wyłapywać konkretne wulgarne czy obraźliwe słowa, o tyle, jak dotąd, nie ma skutecznych metod automatycznej analizy treściowej całych zdań i wypowiedzi w języku polskim. Tymczasem treści naruszające prawo mogą nie zawierać słów bezpośrednio obraźliwych, a dopiero kontekst całej wypowiedzi może być np. szkalujący (czy po prostu kłamliwy - a to już w ogóle trudno samemu zweryfikować). Do takiej moderacji "treściowej" konieczne byloby zatrudnienie całej masy ludzi.

Pisze o tym w swym oświadczeniu Związek Pracodawców Branży Internetowej IAB Polska:

Tak jak państwo w celu egzekwowania prawa nie jest w stanie postawić policjanta na każdym rogu, tak operatorzy forów internetowych nie są w stanie sprawdzić każdego wpisu. W przypadku największych mediów internetowych w Polsce automatyczna moderacja wychwytuje wpisy zawierające słowa uznane za wulgarne i je usuwa, ale automatyczna analiza treści wypowiedzi jest na tym etapie niemożliwa. Dobrym przykładem obrazującym skalę zjawiska jest portal społecznościowy NK.pl, gdzie zamieszczane jest każdego dnia 14 milionów komentarzy. Gdyby właściciel platformy chciał zatrudnić wystarczającą liczbę moderatorów, aby każdy z nich mógł poświęcić 1 minutę na przeczytanie i zweryfikowanie, czy każda wiadomość nie narusza czyichś dóbr osobistych, musiałby zatrudnić 41 tysięcy moderatorów (pogrubienie - RC). Forów dyskusyjnych mamy w Polsce dziesiątki tysięcy. Nie sposób więc zignorować wniosku, że tak jak w innych przejawach życia społecznego każdy obywatel jest odpowiedzialny przed prawem za własne czyny. Internet pozwala na niesłychanie precyzyjne docieranie do osób dokonujących swoimi komentarzami naruszeń norm społecznych, więc nie istnieje tu problem z egzekucją obowiązującego prawa.

Z kolei ręczna moderacja "treściowa" komentarzy przed ich opublikowaniem nieodparcie kojarzy mi się z cenzurą prewencyjną. Nakład pracy byłby zresztą ten sam, co przy filtrowaniu ex post, jednocześnie takie działania można by uznać za sprzeczne z Konstytucją.

Rafał CisekW tym miejscu warto też przytoczyć opinię Fundacji Helsińskiej złożoną podczas procesu Jeziora, w której instytucja ta próbuje przekonać sąd, że "nadmierna odpowiedzialność administratorów serwisów internetowych może prowadzić do tego, że będą blokować możliwość umieszczania komentarzy przez internautów. Tymczasem są one często ważnym elementem debaty publicznej, zwłaszcza jeśli chodzi o lokalne portale czy blogi". Zatem gra toczy się również o wolność słowa. Czy urażona duma polityków może być od niej ważniejsza?

Rafał Cisek, radca prawny, współpracownik Centrum Badań Problemów Prawnych i Ekonomicznych Komunikacji Elektronicznej (CBKE), twórca serwisu prawa nowych technologii NoweMEDIA.org.pl, ekspert w zakresie prawnych aspektów komunikacji elektronicznej.


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *              



Ostatnie artykuły:







fot. Freepik



fot. Freepik



fot. Freepik