Vademecum webmastera

Znany japoński futurolog Michio Kaku przewiduje na stronach swoich “Wizji”, iż w wyniku stopniowej digitalizacji dokumentacji papierowej do połowy naszego stulecia Internet stanie się zwierciadłem całej ludzkiej wiedzy. Dzięki wykorzystaniu sztucznej inteligencji będzie on w stanie automatycznie reagować na nasze potrzeby informacyjne. Milionom internautów, korzystającym na co dzień z niedoskonałych mechanizmów wyszukiwawczych, opisana przez Kaku wizja może wydawać się bardzo odległa. Warto jednak uświadomić sobie, że już dziś – kilkanaście lat od czasu swojego powstania – globalna Sieć stoi u progu przełomowych zmian.

Podstawami funkcjonowania tzw. Internetu drugiej generacji mają stać się m.in. oddzielenie sieci branżowych (wojskowych, naukowych, biznesowych) od publicznych, intensywny rozwój telewizji sieciowej (Web-TV), a także stopniowe wprowadzanie w sferę Internetu elementów trójwymiaru. Zapowiedź największych zmian niosą ze sobą jednak pierwsze efekty wdrażania rozwiązań opartych na wykorzystaniu języków z rodziny XML (eXtensible Markup Language). Przykładowo: rozwój technologii XLink i XPointer już niedługo w rewolucyjny sposób usprawni przeszukiwanie zasobów Sieci. W dużym stopniu zmieni się także metoda przedstawiania informacji na stronach WWW – rosnąca popularność standardu SVG stanie się motorem wektoryzacji Internetu, a użycie serwerów obrazów (Image Servers) będzie podstawą katalogowania i prezentowania produktów oferowanych przez serwisy aukcyjne oraz sklepy internetowe.

Zapewniana przez XML swoboda manipulacji danymi sprawi, iż publikacja informacji będzie polegała na wyborze żądanego zbioru danych spośród innych w bazie, a następnie zautomatyzowanym osadzeniu ich w odpowiednich strukturach programistycznych oraz szablonach graficznych. W sytuacji, w której znikną ograniczenia wyborem stosownego nośnika dla informacji, szczególnego znaczenia nabierze umiejętność elastycznego przenoszenia danych z medium jednego rodzaju do innego.

W niniejszym tekście spróbuję odpowiedzieć na pytanie, jak będą się zmieniały zasady projektowania stron sieciowych. Aby przygotować się na nadchodzący przełom, warto bowiem już dziś dokonać rewizji własnego warsztatu i krytycznym okiem przyjrzeć się umiejętnościom nabytym w dotychczasowej pracy.

Korzenie WWW

Chcąc zwiększyć atrakcyjność przekazu na stronie WWW, warto odnieść się do tradycyjnego medium – druku. Choć skojarzenie to może się wydawać na pierwszy rzut oka dość odległe, oba środki przekazu są pod wieloma względami podobne.

Zarówno standardowy dokument HTML, jak i plik generowany przez program do składu komputerowego bazują na zwykłym tekście, elementy grafiki zaś – zdjęcia i ilustracje dołączone są do nich w postaci osobnych, “podlinkowanych” plików. Kolejną analogię stanowi fakt, iż zarówno projektując dokument przeznaczony do dystrybucji drukiem, jak i kreując stronę sieciową, możemy skorzystać z techniki warstw (ang. layers) oraz przypisać unikatowe style pojedynczym elementom dokumentu.

Jako medium Internet ma jednak pewną istotną przewagę nad drukiem – polega ona na możliwości wprawienia w ruch pojedynczych warstw dokumentu oraz zmiany właściwości stylów “w locie”. Otwiera to przed twórcami serwisów WWW ogromne pole do popisu, pod warunkiem jednak, iż będą oni potrafili wykorzystywać tę przewagę w sposób świadomy, nie zaś przypadkowy. Aby logicznie wybierać elementy, na które pragniemy zwrócić uwagę gościa odwiedzającego naszą stronę, musimy najpierw poznać podstawową strukturę dokumentu.

Kluczem do sukcesu stać się może przyswojenie zasady pracy z wykorzystaniem warstw w zakresie druku “papierowego”. Będziemy zaskoczeni, jak łatwo w praktyce wykorzystać tę wiedzę w procesie tworzenia witryn WWW. Projektowanie z użyciem warstw systematycznie wypiera sędziwą technikę osadzania pojedynczych elementów dokumentu w obrębie odpowiednich komórek rozbudowanych tabel.

Animacja warstw stanowi natomiast podstawę działania technologii najchętniej wybieranych przez projektantów stron internetowych – DHTML-a, Flasha oraz SVG.

Gorąco zachęcam zatem do zapoznania się, w miarę możliwości, z podstawowymi zasadami składu komputerowego. Dla świeżo upieczonych adeptów webmasteringu wysiłek ten zaprocentuje wyrobieniem dobrych nawyków projektowania. Tworzone w przyszłości witryny WWW zyskają nie tylko na atrakcyjności, ale i – dzięki opanowaniu podstaw typografii – na czytelności. Doświadczonym “webmajstrom” działanie to pozwoli świeżym okiem spojrzeć na własny warsztat oraz uzupełnić go możliwością swobodnego przenoszenia informacji z “druku” do Sieci. Największy zysk stanowi w tym przypadku jednak opanowanie umiejętności koncentrowania uwagi odbiorcy na wybranej informacji. Następny, wcale nie łatwiejszy krok to nauka mądrego doboru środków w zależności od efektów, jakie chcemy osiągnąć.

Wektor spotyka piksel

Grafika wektorowa wydaje się dziś najodpowiedniejszym środkiem wyrazu dla projektantów stron WWW, a zarazem skutecznym antidotum na niską przepustowość łączy. Korzyść wynikająca z jej użycia to przede wszystkim wyjątkowo niewielki rozmiar pliku graficznego, co jest szczególnie istotne dla wciąż wielu osób komunikujących się z Siecią za pośrednictwem modemu. Inne zalety “wektorówki” to zachowanie doskonałej jakości wyświetlania nawet przy dużym stopniu kompresji oraz skalowalność. Wszystkie wymienione cechy jasno tłumaczą zasłużoną popularność technologii Shockwave/Flash, czy też intensywny rozwój języka SVG (Scalable Vector Graphics).

Mimo wszystkich zalet stosowania grafiki wektorowej trudno jednak wyobrazić sobie choćby próbę odejścia od umieszczania zdjęć w obrębie dokumentów WWW. Wręcz przeciwnie – równolegle z procesem “wektoryzacji” Internetu coraz większą popularność zdobywają tzw. serwery obrazów (ang. image-server), takie jak np. Adobe AlterCast czy też Zoom Image Server. Stanowią one zbiór mechanizmów sprzętowo-programowych, służących przede wszystkim do prezentowania dużego wyboru produktów.

Najlepszą receptą na poprawienie atrakcyjności wizualnej serwisu internetowego wydaje się zatem umiejętne łączenie grafiki wektorowej z dobrze zoptymalizowaną do wyświetlania w Sieci fotografią. Dobrym przykładem serwisu internetowego doskonale spełniającego te warunki jest wielokrotnie wyróżniana w krajowych i międzynarodowych konkursach witryna Mondo.

Aby zbliżyć się do ideału, warto zwrócić się z prośbą o doraźne korepetycje do osoby profesjonalnie związanej z drukiem – już kilka wskazówek pozwoli nam lepiej przygotowywać zdjęcia do dystrybucji w Sieci. Nieprawdą jest bowiem, iż ze względu na słabą przepustowość łączy zubożona w procesie kompresji grafika bitmapowa będzie zawsze niekorzystnie wyglądać na stronie WWW. Ten fałszywy pogląd pokutuje wśród wielu webmasterów, faktem jest natomiast, iż dobrze przygotowana do procesu optymalizacji fotografia, charakteryzująca się odpowiednim kontrastem i ostrością, przejdzie kompresję bez specjalnego uszczerbku na jakości.

Więcej:bezcatnews