Ucho prawie oszukane

Niemal wszystkie media elektroniczne bazują na ułomności ludzkich zmysłów. Ich analogowa natura pozwala na tak daleko posunięte manipulacje, że możliwe jest osiągnięcie idealnej iluzji.

Gdyby nie “bezwładność świetlna” oczu, nie byłoby kina ani telewizji. Specyficzne ułomności słuchu umożliwiają iluzję panoramy dźwiękowej; bez tego właściciele kin z rozbudowaną aparaturą akustyczną nie ściągnęliby tak licznej publiczności. Paradoksem wydaje się fakt, że analogowe bodźce po przetworzeniu w organach zmysłów docierają do mózgu w postaci, którą można porównać do strumienia cyfrowych danych.

Wraz z upowszechnieniem i potanieniem zaawansowanych technologii cyfrowych rozpoczęło się stopniowe odchodzenie od “analogowego” mamienia zmysłów. Pierwszym szeroko przyjętym rozwiązaniem stała się dźwiękowa płyta kompaktowa. Wciąż dzielnie broni się telewizja i radio; wynika to z ogromnych kosztów zmiany sposobu transmisji, bo przecież zarówno po stronie nadawców, jak i odbiorców coraz więcej urządzeń operuje na platformie cyfrowej. Przesyłanie ruchomych obrazów i przestrzennego dźwięku w systemie analogowym wymaga bardzo szerokiego pasma (w telewizyjnym standardzie stosowanym w Polsce jeden kanał telewizyjny zajmuje pasmo o szerokości ponad 6 MHz). Transmisje analogowe wrażliwe są na zakłócenia, a moc nadajników służących do ich przekazu jest zazwyczaj duża. Takie marnotrawstwo energii i pasma już dawno stało się przedmiotem zainteresowania wielu ośrodków badawczych. Warto zauważyć, że podwaliny technik digitalizacji stworzył baron Jean-Baptiste Fourier; francuski matematyk żyjący na przełomie XVIII i XIX stulecia. Opisane przez niego podstawowe prawa wykorzystano prawie sto lat później przy pracach nad powszechnie stosowaną obecnie techniką PCM (Pulse-Code Modulation). Jedno z tych praw mówi, że częstotliwość próbkowania musi być co najmniej dwa razy większa niż maksymalna częstotliwość sygnału próbkowanego; stąd nagrania dźwiękowe umieszczone na płytach kompaktowych próbkowane są z częstotliwością 44,1 kHz (pasmo akustyczne takiej transmisji zawiera się między 20 a 20 000 Hz). Otrzymane w ten sposób cyfrowe przekształcenia wciąż wymagały szerokiego pasma, a co za tym idzie – pojemnych nośników i łączy o dużej przepustowości. Wymyślono więc technikę kompresji, pozwalającą uszczuplić nieco rozmiar plików wynikowych. Dla “zwykłych” danych kompresja polega zazwyczaj, w uproszczeniu, na usunięciu powtarzających się sekwencji (np. spacji w plikach tekstowych) i zastąpieniu ich informacjami o miejscu i częstości występowania. Ten sposób pozwala zmniejszyć początkowy rozmiar pliku nawet o połowę. Podobną podatność na “ścieśnianie” wykazują mapy bitowe, które także zawierają mnóstwo powtórzonych sekwencji. Pakowanie danych realizowane jest przez program wyposażony w algorytm określający sposób pomijania powtarzających się informacji (kompresja) i odtwarzania (dekompresja) pominiętych danych. W opisany sposób działają wszystkie pakery, a różnice ich wydajności wynikają wprost z efektywności zastosowanych rozwiązań. Metody kompresji sprawdzające się w przypadku grafiki nie nadają się do obróbki plików dźwiękowych. W tych ostatnich nie występują informacje, których proste pominięcie nie odbiłoby się w istotny sposób na jakości przekazu. Posłużono się jeszcze wymyślniejszym podstępem.

Więcej:bezcatnews