Wydawcy chcą większej kontroli nad robotami wyszukiwarek
Agencje prasowe oraz wydawcy gazet uważają, że obecny system kontroli robotów indeksujących zawartość stron internetowych jest niewystarczający i proponują stworzenie nowego protokołu, który dawałby im większe możliwości.
reklama
Obecnie wyszukiwarki takie jak Google czy Yahoo dzięki mechanizmowi nazwanemu Robots Exclusion Protocol dobrowolnie respektują umieszczone w specjalnym pliku informacje na temat tego, jakie części witryny mają być zarejestrowane przez roboty przeczesujące sieć i indeksujące strony.
Technologia ta ma już trzynaście lat i w coraz mniejszym stopniu spełnia swoje zadanie. Do takiego wniosku doszły przede wszystkim agencje prasowe oraz inni wydawcy publikujący w swoich serwisach dużą ilość informacji.
Robots.txt był stworzony w innej erze - uważa Gavin O'Reilly, prezydent Światowego Stowarzyszenia Wydawców Gazet (World Association of Newspapers - WAN). Działa znakomicie dla wyszukiwarek, ale nie dla wydawców.
Dlatego też WAN oraz inne organizacje stowarzyszone w konsorcjum wydawców zaproponowały stworzenie nowego protokołu, nazwanego Automated Content Access Protocol (ACAP). Byłby on również dostępny poprzez plik robots.txt używany obecnie, ale miałby o wiele większe możliwości.
Dzięki komendom ACAP, właściciele serwisów internetowych mogliby przykładowo decydować o tym, jak długo wyszukiwarki przechowywałyby kopie stron, lub nie pozwalać robotom podążać za linkami z określonych podstron.
Wydawcy deklarują, że przy takich udogodnieniach byliby skłonni umieszczać online więcej materiałów objętych prawami autorskimi. Obecnie obawiają się, że treści z ich serwisów są wyświetlane w serwisach przedsiębiorstw zajmujących się wyszukiwaniem, a nie na ich własnych.
Najlepszym przykładem takiego sporu jest głośna sprawa serwisu Google News, któremu w ubiegłym roku decyzją sądu zakazano publikować fragmentów belgijskich gazet. Proponowane zmiany powstały częściowo z tego właśnie sporu.
Na wtorkowym spotkaniu konsorcjum ACAP, odbywającym się w siedzibie głównej agencji Associated Press, oprócz wydawców obecni byli m.in. przedstawiciele Google, Yahoo oraz Microsoftu. Nie obiecali jednak że ich wyszukiwarki będą wspierać nowy protokół.
Jessica Powell, rzecznik prasowy Google powiedziała, że jej firma wspiera wszelkie dążenia do przybliżenia stron internetowych i wyszukiwarek, ale nowa technologia musi zostać oceniona aby upewnić się, że będzie ona korzystna dla milionów stron internetowych, a nie tylko dla tych z określonej społeczności.