Automatyczne tworzenie kopii serwisów na dysku lokalnym pozwala na ich oglądanie bez połączenia z Siecią, a także sprawia, iż kolejne ich elementy pojawiają się niemal natychmiast. Jakkolwiek ideą powstania programów do ściągania całych witryn internetowych było głównie tworzenie tzw. mirrorów, czyli konstruowanie w pełni funkcjonalnych kopii WWW na innych serwerach, jednak w miarę rozwoju tych aplikacji ich autorzy zaczęli wkrótce uwzględniać inne specyficzne kryteria. Wiele z dostępnych w Sieci programów już w swej nazwie sygnalizuje swoje “hackerskie” przeznaczenie. Naturalną rzeczą jest bowiem powielanie najlepszych rozwiązań, modyfikowanie ich dla swoich potrzeb bądź też uważna analiza w celu naśladownictwa.
|
W Polsce, w kraju “bezpłatnego” Internetu, najważniejszą cechą programów pobierających całe serwisy z Sieci wydaje się jednak minimalizacja czasu połączenia. Nie trzeba chyba nikomu uzmysławiać, że większość czasu poświęcanego na czytanie WWW jest marnowana na jałowe (niestety, płatne) połączenie z Siecią. Przechodzenie w tryb offline, by za chwilę nawiązywać kolejne połączenie w celu aktywacji jakiegoś odsyłacza, nie jest raczej sensownym pomysłem. Często czas poświęcony na załadowanie wszystkich elementów strony, wraz z tymi, na które wskazują hiperłącza, a nawet tymi, które nas nie interesują, jest znacznie krótszy niż ten, który spędzilibyśmy, przeglądając strony w czasie połączenia z Siecią. Nie mówiąc już o tym, że sam proces pobierania stron nie absorbuje w żaden sposób naszej uwagi, a czas połączenia możemy spędzić choćby na IRC lub odpowiadając na wiadomości przesłane przez ICQ.