Gdyby nie “bezwładność świetlna” oczu, nie byłoby kina ani telewizji. Specyficzne ułomności słuchu umożliwiają iluzję panoramy dźwiękowej; bez tego właściciele kin z rozbudowaną aparaturą akustyczną nie ściągnęliby tak licznej publiczności. Paradoksem wydaje się fakt, że analogowe bodźce po przetworzeniu w organach zmysłów docierają do mózgu w postaci, którą można porównać do strumienia cyfrowych danych.
Wraz z upowszechnieniem i potanieniem zaawansowanych technologii cyfrowych rozpoczęło się stopniowe odchodzenie od “analogowego” mamienia zmysłów. Pierwszym szeroko przyjętym rozwiązaniem stała się dźwiękowa płyta kompaktowa. Wciąż dzielnie broni się telewizja i radio; wynika to z ogromnych kosztów zmiany sposobu transmisji, bo przecież zarówno po stronie nadawców, jak i odbiorców coraz więcej urządzeń operuje na platformie cyfrowej. Przesyłanie ruchomych obrazów i przestrzennego dźwięku w systemie analogowym wymaga bardzo szerokiego pasma (w telewizyjnym standardzie stosowanym w Polsce jeden kanał telewizyjny zajmuje pasmo o szerokości ponad 6 MHz). Transmisje analogowe wrażliwe są na zakłócenia, a moc nadajników służących do ich przekazu jest zazwyczaj duża. Takie marnotrawstwo energii i pasma już dawno stało się przedmiotem zainteresowania wielu ośrodków badawczych. Warto zauważyć, że podwaliny technik digitalizacji stworzył baron Jean-Baptiste Fourier; francuski matematyk żyjący na przełomie XVIII i XIX stulecia. Opisane przez niego podstawowe prawa wykorzystano prawie sto lat później przy pracach nad powszechnie stosowaną obecnie techniką PCM (Pulse-Code Modulation). Jedno z tych praw mówi, że częstotliwość próbkowania musi być co najmniej dwa razy większa niż maksymalna częstotliwość sygnału próbkowanego; stąd nagrania dźwiękowe umieszczone na płytach kompaktowych próbkowane są z częstotliwością 44,1 kHz (pasmo akustyczne takiej transmisji zawiera się między 20 a 20 000 Hz). Otrzymane w ten sposób cyfrowe przekształcenia wciąż wymagały szerokiego pasma, a co za tym idzie – pojemnych nośników i łączy o dużej przepustowości. Wymyślono więc technikę kompresji, pozwalającą uszczuplić nieco rozmiar plików wynikowych. Dla “zwykłych” danych kompresja polega zazwyczaj, w uproszczeniu, na usunięciu powtarzających się sekwencji (np. spacji w plikach tekstowych) i zastąpieniu ich informacjami o miejscu i częstości występowania. Ten sposób pozwala zmniejszyć początkowy rozmiar pliku nawet o połowę. Podobną podatność na “ścieśnianie” wykazują mapy bitowe, które także zawierają mnóstwo powtórzonych sekwencji. Pakowanie danych realizowane jest przez program wyposażony w algorytm określający sposób pomijania powtarzających się informacji (kompresja) i odtwarzania (dekompresja) pominiętych danych. W opisany sposób działają wszystkie pakery, a różnice ich wydajności wynikają wprost z efektywności zastosowanych rozwiązań. Metody kompresji sprawdzające się w przypadku grafiki nie nadają się do obróbki plików dźwiękowych. W tych ostatnich nie występują informacje, których proste pominięcie nie odbiłoby się w istotny sposób na jakości przekazu. Posłużono się jeszcze wymyślniejszym podstępem.