Opinie: Od administratorów nie można wymagać prawnie moderacji treści

Rafał Cisek, Nowe Media 17-08-2011, 21:14

"Prowadzący blog był zobowiązany sprawić, by treść publikowanych w nim wypowiedzi odpowiadała stanowi faktycznemu. Mógł wprowadzić zasadę publikacji komentarzy internautów tylko po uprzednim zalogowaniu" – tak uzasadnił postanowienie wydane w trybie wyborczym Sąd Okręgowy w Tarnowie. To porażka Wymiaru Sprawiedliwości.

Stanowisko tarnowskiego sądu podtrzymał Sąd Apelacyjny w Krakowie. Orzeczenie zostało zaskarżone do Europejskiego Trybunału Praw Człowieka przez Helsińską Fundację Praw Człowieka. Sprawę opisała niedawno m. in. Rzeczpospolita (artykuł pt. Kto odpowiada za komentarze w sieci). Niektórzy politycy (również lokalni) coraz głośniej domagają się moderacji treści tworzonych przez użytkowników w ramach web 2.0. Są nawet głosy, które w zasadzie domagają się wprowadzenia cenzury prewencyjnej lub przynajmniej aktywnego filtrowania przez administratorów ex post treści wprowadzanych przez użytkowników portali np. w komentarzach. Sąd w Tarnowie, prowadzący sprawę w przyśpieszonym trybie wyborczym, wyraźnie uległ tym naciskom.

Moderacja po fakcie oznaczałaby de facto nałożenie obowiązku filtracji treści przez administratorów. Tymczasem jest to sprzeczne z zasadą ograniczenia odpowiedzialności usługodawców świadczących usługi drogą elektroniczną, którą wprowadza art. 14 ustawy o świadczeniu usług drogą elektroniczną (podobne regulacje są w większości krajów UE oraz w USA). Chodzi zresztą nie tylko o ten konkretny artykuł ustawy, ale o jej ratio legis (powód uchwalenia) w ogóle. Prawidłowe realizowanie przez administratora serwisu procedury "notice and takedown" zwalnia go od odpowiedzialności za treści wprowadzone (np. w komentarzach) przez użytkowników. Tak też było według relacji Rzeczpospolitej w przypadku Andrzeja Jeziora, prowadzącego własnego bloga radnego z Ryglic.

Oczywiście, przywołany artykuł 14 ustawy o świadczeniu usług drogą elektroniczną budzi w praktyce wiele problemów, pisałem o tym między innym w tekście pt. Odpowiedzialność za treści w portalach - między teorią a praktyką. Jednak to nie powód, by nagle obciążać usługodawców obowiązkiem moderacji czy filtrowania treści. Zresztą trwają pracę nad nowelizacją ustawy, która ma rozwiać wiele wątpliwości, o których wspominałem.

Warto też zauważyć, że o ile "z automatu" można w miarę łatwo i bez dużych nakładów finansowo-organizacyjnych wyłapywać konkretne wulgarne czy obraźliwe słowa, o tyle, jak dotąd, nie ma skutecznych metod automatycznej analizy treściowej całych zdań i wypowiedzi w języku polskim. Tymczasem treści naruszające prawo mogą nie zawierać słów bezpośrednio obraźliwych, a dopiero kontekst całej wypowiedzi może być np. szkalujący (czy po prostu kłamliwy - a to już w ogóle trudno samemu zweryfikować). Do takiej moderacji "treściowej" konieczne byloby zatrudnienie całej masy ludzi.

Pisze o tym w swym oświadczeniu Związek Pracodawców Branży Internetowej IAB Polska:

Tak jak państwo w celu egzekwowania prawa nie jest w stanie postawić policjanta na każdym rogu, tak operatorzy forów internetowych nie są w stanie sprawdzić każdego wpisu. W przypadku największych mediów internetowych w Polsce automatyczna moderacja wychwytuje wpisy zawierające słowa uznane za wulgarne i je usuwa, ale automatyczna analiza treści wypowiedzi jest na tym etapie niemożliwa. Dobrym przykładem obrazującym skalę zjawiska jest portal społecznościowy NK.pl, gdzie zamieszczane jest każdego dnia 14 milionów komentarzy. Gdyby właściciel platformy chciał zatrudnić wystarczającą liczbę moderatorów, aby każdy z nich mógł poświęcić 1 minutę na przeczytanie i zweryfikowanie, czy każda wiadomość nie narusza czyichś dóbr osobistych, musiałby zatrudnić 41 tysięcy moderatorów (pogrubienie - RC). Forów dyskusyjnych mamy w Polsce dziesiątki tysięcy. Nie sposób więc zignorować wniosku, że tak jak w innych przejawach życia społecznego każdy obywatel jest odpowiedzialny przed prawem za własne czyny. Internet pozwala na niesłychanie precyzyjne docieranie do osób dokonujących swoimi komentarzami naruszeń norm społecznych, więc nie istnieje tu problem z egzekucją obowiązującego prawa.

Z kolei ręczna moderacja "treściowa" komentarzy przed ich opublikowaniem nieodparcie kojarzy mi się z cenzurą prewencyjną. Nakład pracy byłby zresztą ten sam, co przy filtrowaniu ex post, jednocześnie takie działania można by uznać za sprzeczne z Konstytucją.

Rafał CisekW tym miejscu warto też przytoczyć opinię Fundacji Helsińskiej złożoną podczas procesu Jeziora, w której instytucja ta próbuje przekonać sąd, że "nadmierna odpowiedzialność administratorów serwisów internetowych może prowadzić do tego, że będą blokować możliwość umieszczania komentarzy przez internautów. Tymczasem są one często ważnym elementem debaty publicznej, zwłaszcza jeśli chodzi o lokalne portale czy blogi". Zatem gra toczy się również o wolność słowa. Czy urażona duma polityków może być od niej ważniejsza?

Rafał Cisek, radca prawny, współpracownik Centrum Badań Problemów Prawnych i Ekonomicznych Komunikacji Elektronicznej (CBKE), twórca serwisu prawa nowych technologii NoweMEDIA.org.pl, ekspert w zakresie prawnych aspektów komunikacji elektronicznej.


Przepisy na coś słodkiego z kremem Nutella
  
znajdź w serwisie

RSS  
RSS  

RSS - Wywiad
Wywiad  
RSS - Interwencje
RSS - Porady
Porady  
RSS - Listy
Listy  
« Październik 2021»
PoWtŚrCzwPtSbNd
 123
45678910
11121314151617
18192021222324
25262728293031