Stronom internetowym towarzyszy szum wentylatorów. Dosłownie. Gdy wchodzimy na większość popularnych adresów, nasz komputer napotyka wyzwanie, któremu sprostać może tylko wytężona praca procesora. Word czy Excel to niewymagające zadania w porównaniu z próbą otworzenia portalu Gazety czy serwisu Flickr.
Siedzę przy laptopie wyposażonym w szybki procesor Intel i7. Wszystko działa płynnie z wyjątkiem stron internetowych. Jeśli w jakimś serwisie umieszczono ponadprzeciętną ilość kodu JavaScript, przeglądarka zaczyna się zacinać, okresowo nie mogę przewijać zawartości strony, zdarza się zatrzymanie na dłuższą chwilę całego programu. Trwa to do momentu, zanim komputer nie doczyta danych, pobieranych z całego świata.
Wysilenie procesora do 100% i gwałtowny rozruch wentylatorów powodują skrypty uruchamiane wewnątrz strony. A dziś jest ich wiele: narzędzia do statystyk, ramki reklamowe i społecznościowe, systemy komentarzy oraz różne gadżety i widżety. Tak działa cała sieć.
W drugim komputerze, który ma już kilka lat i działa w oparciu o jeden z pierwszych procesorów dwurdzeniowych, też wszystko działa znośnie z wyjątkiem stron internetowych. Tyle że tu otwierają się one w ślimaczym tempie.
Technologie wyświetlania stron internetowych to dziś jeden wielki chaos, przez co zwykła strona WWW pokonuje urządzenia, których moc obliczeniowa jest liczona w setkach miliardów operacji zmiennoprzecinkowych na sekundę. I to w komputerach, na których bez problemu działa specjalistyczne oprogramowanie.
W tym miejscu proponuję wszystkim małe doświadczenie: wyłączyć JavaScript i sprawdzić, jak szybko może działać Internet, nawet na wolnych łączach. Przy okazji dowiemy się, co naprawdę oznacza słowo "responsywne".
Laptop, zdj. z Shutterstock.com
Obsługę JavaScriptu można wyłączyć w każdej przeglądarce. Najłatwiej to zrobić w Operze. Pod przyciskiem F12 mamy dostęp do menu szybkiej konfiguracji, gdzie jednym kliknięciem blokujemy uruchamianie skryptów. Od tego momentu możemy cieszyć się szybko wczytującymi się stronami internetowymi i błyskawiczną nawigacją.
Oto przykład. Mając wyłączony JS, wchodzę na Onet. Strona główna wczytuje się natychmiastowo. Nie widzę części zdjęć w ramkach informacyjnych, ale układ treści jest zachowany. Klikam w link do jednej z krajowych wiadomości, która pokazuje się od razu. W ten sam sposób przechodzę do kolejnych artykułów. Następnie cofam się do poprzedniej strony i przejście następuje błyskawicznie. Wciskam kilkakrotnie przycisk "wstecz", potem o kilka stron przesuwam się do przodu, powtarzam to wielokrotnie - przełączanie stron odbywa się natychmiast, bez żadnych opóźnień.
Teraz wykonuję to samo z włączonym JavaScriptem. Strona główna wczytuje się przez 4 sekundy. W tym czasie zawartość dwukrotnie skacze, w górę i w dół. Przechodzę do pierwszego artykułu, co trwa jeszcze dłużej. Dopiero po 7 sekundach znika ikona klepsydry obok kursora myszy, strona w tym czasie "tańczy" z powodu doczytujących się elementów. Wchodzę na kilka kolejnych podstron i próbuję na zmianę wciskać "wstecz" i "dalej". Strony, które odwiedziłem, wczytują się ze znacznym opóźnieniem, a po każdym kliknięciu wyświetlona zawartość kilkakrotnie przemieszcza się w pionie.
Ten sam efekt zauważymy na innych portalach. Lepsze osiągi uzyskamy, wchodząc z wyłączonym JavaScriptem na blogi i fora dyskusyjne. Większość z nich działa w oparciu o gotowe platformy i jest nafaszerowana różnymi skryptami.
Pierwsze trzy blogi z kategorii najpopularniejszych, które właśnie odwiedziłem, miały w kodzie strony dołączone ponad 40 skryptów JS! Większość z nich to kod dociągany z zewnętrznych serwerów: systemy reklamowe, statystyki, programy partnerskie, biblioteki efektów, odwołania do Facebooka, Google+, Wykopu i inne.
To samo na forach dyskusyjnych, które najczęściej uruchamiane są przy pomocy kilku popularnych pakietów i są wielokrotnie modyfikowane. Tu liczba wykorzystywanych skryptów zawiera się w przedziale od 30 do 80. I znów to samo: trwające długie sekundy oczekiwanie na załadowanie strony, drgawki góra-dół i działająca z opóźnieniem opcja "wstecz". Po wyłączeniu JavaScriptu wymienione problemy znikają. Każda strona otwiera się natychmiast, nic nie skacze i można bez problemu zapoznać się z jej treścią.
Ciekawie wygląda korzystanie z Google. Mając wyłączone skrypty, otrzymuje się starą, dobrze znaną wersję wyszukiwarki, w której główne opcje są na stałe wyświetlone u góry. Obok wyników mamy dostęp do parametrów wyszukiwania, takich jak język, rozmiar zdjęcia czy czas trwania filmu. Możemy jednym kliknięciem sortować wyniki, bez przedzierania się przez rozwijane menu, jak ma to miejsce we współczesnej wersji Google.
JavaScript sam w sobie nie jest zły. Nie stanowią również problemu systemy reklamowe, nawet jeśli jest ich kilka, pod warunkiem że osadzone są w sposób, który nie powoduje skoków suwaka. Problemy sprawia przeładowanie kodu dużą ilością skryptów i stosowanie ich na wyrost. Na przykład wykorzystanie JS do publikowania zwykłych obrazków lub używanie biblioteki-kolosa typu jQuery do obsługi jednego prostego efektu.
Wyłączając JavaScript, odcinamy się od świata multimediów, bankowości i Facebooka. W zamian otrzymujemy niezakłócony dostęp do treści. To powrót do Internetu z czasów, gdy był on medium czysto informacyjnym, nie tworem reklamowym z dodatkiem gadżetów.
Na dłuższą metę nie da się korzystać z sieci bez obsługi skryptów. Ich wyłączenie ma też tę wadę, że przy okazji blokujemy reklamy, pozbawiając autorów stron źródeł dochodu. Proponuję więc wyłączyć JS dla samego spróbowania, jak wygląda przeglądanie stron w szybkim wydaniu, i przekonania się, co straciliśmy przez chaotyczny rozwój technologii internetowych.
Aktualności
|
Porady
|
Gościnnie
|
Katalog
Bukmacherzy
|
Sprawdź auto
|
Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy
Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.
*