Kronika Chip-a: Komputery osobiste

Początki nie były szczególnie pasjonujące: ludzie, którzy mieli do czynienia z cyframi, na przykład biznesmeni i urzędnicy, szukali narzędzia, dzięki któremu dodawanie i odejmowanie dużych liczb stałoby się prostsze. Najpopularniejszym spośród tego typu narzędzi ze wczesnej ery obliczeń jest powoli zapominane liczydło. Już 3000 lat temu ułatwiało ono oraz przyspieszało wykonywanie podstawowych działań arytmetycznych, takich jak mnożenie czy odejmowanie oraz podnoszenie do potęgi drugiej.

Minęło sporo czasu, zanim doszło do pierwszych automatyzacji: dopiero w XVII wieku uczeni stworzyli maszyny obliczeniowe o skomplikowanym, ale często zawodnym mechanizmie. Najpopularniejszą z takich maszyn  była Pascalina, stworzona przez Blaise’a Pascala – opracowano jej kilkadziesiąt wersji.

Charles Babbage stworzył w 1837 roku istotną teoretyczną podstawę maszyny analitycznej. Jego koncept bazował na pomyśle jak najszybszego kończenia obliczeń i jak najmniejszej liczby operacji, które maszyna wykonywała za pomocą kart wsadowych. Był to pierwszy algorytm komputerowy w historii.

Komputer ważył tonę

Dopiero 100 lat później nastąpił przełom w uproszczeniu obliczeń, co umożliwił wynalazek Konrada Zuse. Jego pierwszy komputer – Z1 – rozpoznawał tylko dwa znaki: 0 i 1, ale nigdy nie działał poprawnie. Dopiero w 1941 roku pojawił się płynnie działający napędzany elektrycznie, programowalny cyfrowy komputer Z3, kóry bazował na 2 tys. przekaźników.

Komputer Z3 był stosunkowo kompaktowy, zwłaszcza w porównaniu z podobnymi urządzeniami budowanymi w latach 40. – ważył w końcu tylko jedną tonę. Od tego czasu w efekcie rozwoju technologicznego jednocześnie zmniejszały się rozmiary i zwiększała wydajność komputerów.

Mniejsze, bardziej mobilne

Procesor 4004 firmy Intel był kamieniem milowym w rozwoju komputerów. To pierwszy procesor, który wszedł do masowej produkcji. Wraz ze swoimi następcami sprawił, że komputery znalazły się w zasięgu zwykłych ludzi.

Amerykańskie targi CES, które odbyły się w 1977 roku, dały początek kolejnej erze: komputery przeznaczone do domu zaczęto produkować na masową skalę.  To dotyczyło także często podrabianego komputera Apple II. IBM skopiował od Apple’a pomysł modularnego i otwartego systemu w swoim modelu 5150, który odniósł ogromny rynkowy sukces i wytyczył dalszy kierunek rozwoju komputerów.

Niezwykle ważnym momentem w hisotrii komputerów jest pojawienie się modelu GriD Compass 1100 z wyświetlaczem CGA – protoplasty dzisiejszych notebooków. Urządzenie ważyło zaledwie pięć kilogramów i zostało zabrane w podróż promem kosmicznym. Na początku bardzo powoli, ale od lat 90. coraz dynamiczniej laptopy zagarniają rynek – ich waga i cena bezustannie spadają, co sprawia, że stają się coraz silniejszą konkurencją dla swoich stacjonarnych kuzynów. W ubiegłym  roku po raz pierwszy sprzedano na  świecie więcej notebooków niż komputerów stacjonarnych. Sukces rynkowy jeszcze bardziej mobilnych netbooków dodatkowo wzmocnił ten trend.

Na razie nie widać zagrożeń dla dalszego rozwoju możliwości komputerów zgodnie z liczącym już ponad 40 lat prawem Moore’a (podwajanie wydajności co kilkanaście miesięcy). W przyszłości radykalny wzrost wydajności mają zaoferować komputery kwantowe.

Historia komputerów osobistych

1100 p.n.e.

Liczydło

Pierwsze mechaniczne urządzenie wspomagające proces liczenia w Indiach i Chinach jest w użyciu już od 3 tys. lat. Nawet dzisiaj wciąż się je wykorzystuje.

1642

Pascalina

Jedna z pierwszych maszyn obliczeniowych bazowała na skomplikowanym systemie kół zębatych, za pomocą którego można było dodawać i odejmować liczby.

1837

Charles Babbage

“Maszyna analityczna” Babbage’a jest uważana za prawdziwego poprzednika komputera osobistego. Projekt przewidywał stworzenie napędzanego parowo monstrum. Wprawdzie nigdy nie zostało ono zbudowane – ale dowiedziono, że działałoby z powodzeniem.

1941

Z3

Z3 nie jest pierwszym komputerem zbudowanym przez Konrada Zuse, ale jest pierwszym, który działa bez żadnych problemów.

1943

Mark I

35-tonowy komputer zbudowano wyłącznie na bazie elektromagnetycznych komponentów i do 1959 roku służył w amerykańskim wojsku.

1960

PDP-1

Technologia tranzystorowa DEC pozwoliła na stworzenie pierwszych minikomputerów: PDP-1 nadawał się do średniej wielkości biura. Cykl pamięci głównej trwał 5 mikrosekund, co odpowiada taktowaniu zegara 200 kHz.

1971

Intel 4004

Przełom w rozwoju komputerów osobistych: rusza masowa produkcja pierwszego mikroprocesora, który rządzi rynkiem przez kolejnych 15 lat.

1975

Altair 8800

Pierwszy komputer przeznaczony do domu. Dostępny był jako zestaw do samodzielnego składania i w 1975 roku kosztował 400 dolarów.

1977

Apple II

Kilka modeli komputerów, które można zabrać ze sklepu i od razu postawić na biurku, wprowadzono na rynek w jednym czasie. Były to Apple II, Tandy Radio Shack TRS 80 i Commodore PET 2001. Szybko pojawiło się też mnóstwo ich klonów.

1978
CHIP

W 1978 roku ukazał się pierwszy numer magazynu CHIP. Redaktor naczelny napisał wówczas: “Każdy powinien mieć swój komputer!”.

1981

IBM 5150

Firma IBM wkracza na rynek domowych komputerów wraz ze swoim modelem 5150, który bazuje na systemie operacyjnym Microsoftu – MS-DOS.

1982

GRiD Compass 1100

Komputer staje się mobilny. 5-kilogramowy model Compass 1100 jest przodkiem wszystkich notebooków i netbooków.

1995
Windows 95

Pierwszy 32-bitowy system operacyjny Microsoftu odniósł dużo większy sukces niż konkurencyjny system IBM OS/2. Recepta na sukces: wielozadaniowość i kompatybilność

z programami działającymi pod kontrolą starego Windows i DOS-u.

2007

Telefon jak PC

Dzięki innowacyjnemu sposobowi obsługi i wciąż rozrastającej się palecie oprogramowania, Apple zapełnia lukę na rynku pomiędzy telefonami komórkowymi i komputerami przenośnymi, stając się tym samym gorącym tematem 2007 roku.

2008

Netbooki

Prosty przepis sprawia, że netbooki stają się jedną z gwiazd rynku: są lekkie, tanie i ładne.

Przyszłość
Komputery kwantowe

Komputery bazujące na krzemie mają ograniczenia – nie można ich bez końca miniaturyzować i generują dużo ciepła. Teoretycznie komputer kwantowy może być pozbawiony tych wad. Bit w dzisiejszych komputerach może mieć tylko dwie wartości: 1 albo 0. Bit kwantowy, czyli kubit w trakcie obliczeń będzie, zgodnie z prawami fizyki, znajdował się w stanach pośrednich, i to symultanicznie. Dlatego właśnie komputer kwantowy wykorzystujący niewielką liczbę bitów byłby dużo potężniejszy od dzisiejszych superkomputerów. Ale naukowcy przewidują, że taki komputer pojawi się dopiero za 10–20 lat.