Wiarygodność wpisów i wandalizm w Wikipedii spędza sen z powiek niejednego poważnie zaangażowanego w ten projekt internauty. Zachodnie serwisy donoszą, że Fundacja Wikimedia rozważa wprowadzenie w największej internetowej encyklopedii narzędzia - WikiTrust, które ma pomóc w oddzielaniu ziaren od plew. Polscy wikipedyści jednak zaprzeczają tym doniesieniom.
reklama
WikiTrust to rozszerzenie dla platformy MediaWiki, które dodaje do systemów wiki system reputacji oraz wiarygodności tekstu. Narzędzie to zostało opracowane przez naukowców z WikiLab na University of California i umożliwia użytkownikom Wikipedii, którzy zainstalowali sobie je jako rozszerzenie do Firefoksa, sprawdzenie, kto jest autorem wpisu, jaką osoba ta ma reputację, jakie jest pochodzenie tekstu - informuje Hadley Leggett z serwisu Wired w artykule Wikipedia to Color Code Untrustworthy Text.
WikiTrust wykorzystuje algorytm, który analizuje kilka czynników, m.in. wpisy danego autora oraz okres, przez jaki nowy wpis pozostaje niezmieniony. Koncepcja jest prosta - im dłużej dany tekst znajduje się na stronie, tym jest większe prawdopodobieństwo, że jest prawdziwy.
Teksty z mało wiarygodnych źródeł (czyli od użytkowników z krótkim stażem lub zupełnie nowych) zaznaczane są na pomarańczowo, natomiast od doświadczonych redaktorów są w odcieniu szarości. Z czasem tła, na których znajdują się teksty, powinny zmienić się na białe.
Profesor Luca de Alfaro, współautor projektu wyjaśnia, że WikiTrust nie potrafi wskazać, że dany tekst jest wiarygodny. Narzędzie to mierzy tylko czy i w jaki sposób dany wpis został zaakceptowany przez użytkowników.
Zespół technologiczny Fundacji Wikimedia dopiero sprawdza kod WikiTrust i jeszcze nie wiadomo dokładnie czy w ogóle, a jeśli tak, to kiedy dokładnie zostanie poddany testom na Wikipedii - informuje w artykule Wikipedia Considers Coloring Untested Text Thomas Claburn z InformationWeek, powołując się na e-mail od Jaya Walsha, szefa działu komunikacji Wikimedii. Walsh wyjaśnia, że WikiTrust nie jest jedynym narzędziem tego typu, któremu przygląda się Wikimedia. Wdrożenie jednak zawsze poprzedzone jest obszernymi konsultacjami i testami.
Powyższym informacjom zaprzecza jednak w e-mailu do Dziennika Internautów Daniel Malecki ze Stowarzyszenia Wikimedia Polska. Twierdzi on, że pracownicy Fundacji Wikimedia dementują doniesienia zachodnich serwisu, gdyż tzw. "narzędzie do kolorowania wpisów" nie funkcjonuje i nie planuje się, by miało funkcjonować w Wikipedii (i innych projektach Fundacji Wikimedia).
Wikipedia, darmowa encyklopedia online, której wpisy może każdy edytować, to obecnie jedno z najbardziej popularnych miejsc w sieci - co miesiąc jej zasoby przegląda 60 milionów internautów. Serwis ten od dawna nie jest traktowany jako ciekawostka, a jako poważne źródło informacji i wiedzy. Za takie też chce uchodzić.
Nie jest to jednak zadanie proste w sytuacji, gdy możliwość edycji haseł jest tak szeroko rozpowszechniona. W Wikipedii zdarzają się błędne czy niedokładne wpisy, zmieniane dla żartu lub z głupoty. W związku z powyższym w zeszłym roku rozpoczęto realizację programu, dzięki któremu wpisy osób niezalogowanych, o których Wikipedia nic de facto nie wie, muszą zostać zatwierdzone, zanim pojawią się w encyklopedii. Przy tak zweryfikowanych tekstach pojawia się odpowiedni znak. W polskiej wersji to ograniczenie także obowiązuje. Doświadczenia z Niemiec wskazują, że zwiększa to zaufanie do serwisu.
Aktualności
|
Porady
|
Gościnnie
|
Katalog
Bukmacherzy
|
Sprawdź auto
|
Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy
Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.
*