Jak foton przegonił elektrony

Dzisiejsze urządzenia docenimy szczególnie wówczas, gdy przypomnimy sobie komputery sprzed 50 laty, które wymagały skomplikowanych operacji manualnych (patrz: “Zapomniane technologie”), ukończenia specjalnych kursów obsługi oraz umiejętności czytania (sic!).

Monopolista 3Dfx

Po zastoju w latach 2001-2006 przemysł IT szybko nabrał rozpędu. Podstawą rozwoju stały się technologie opracowane w poprzedniej pięciolatce, które wówczas były jednak zbyt drogie, by choćby spróbować wprowadzić je na rynek.

Wbrew powszechnym oczekiwaniom pochodzące z zeszłego wieku tzw. prawo Moore’a (mówiące, że wydajność komputerów podwaja się co 18 miesięcy) pozostało prawdziwe przez pierwsze trzy dekady naszego stulecia. Stało się to możliwe dzięki ostrej konkurencji między firmami mikroprocesorowymi, które nie szczędziły nakładów na badania, byle tylko choćby o pół teraherca wyprzedzić konkurencję. Szczególnie owocna okazała się rywalizacja między Intelem a 3Dfx (firmą, która do 2020 roku nosiła nazwę nVidia). Intel przodował w wykorzystaniu do produkcji procesorów nanotechnologii (patrz:

CHIP 6/2000, s. 58

). Przegrywający w tym wyścigu 3Dfx zdobył się na krok rozpaczliwy: wykupił trzy słynne uczelnie: MIT, Carnegie Melon i Fraunhofer-Institut, razem z prawem własności do wszelkich prowadzonych tam badań. Dzięki tej inwestycji w 2015 roku mógł na nanotechnologię odpowiedzieć pierwszym domowym mikroprocesorem optycznym (patrz:

CHIP 7/2000, s. 48; CHIP 3/2000, s. 54

). Dodatkowo 3Dfx postawił na polimery (patrz:

CHIP 11/1998, s. 54

), podczas gdy Intel trwał przy krystalicznym węglu jako nośniku. Pamiętamy, że legendarny Optical-Voodoo 1 wymagał osobnej obudowy wielkości małej lodówki. Kwestia wielkości procesora i jego umiejscowienia względem pozostałych komponentów systemu zeszła jednak na dalszy plan, gdy w domach masowo implementowano mechanizmy przetwarzania rozproszonego, czyli tzw. gridu.

Fani “optyka” cenili sobie jego cichą i niepodgrzewającą atmosfery pracę. Tradycyjny “krzem” już nigdy nie odzyskał utraconej pozycji, do dziś natomiast stosowany jest tam, gdzie małe wymiary są ważniejsze niż duże zużycie prądu i konieczność zastosowania aktywnego i hałaśliwego chłodzenia.

Podziemna moc

Najważniejszym wydarzeniem z dzisiejszego punktu widzenia było zwiększenie odległości między komputerem a wyświetlaczem i urządzeniami peryferyjnymi. Upowszechnienie w latach 2010-2015 Terabit-Ethernetu pozwoliło wyprowadzić jednostkę centralną z mieszkania i przenieść ją do piwnicy. Superszybkie sieci lokalne doprowadzone do każdego pomieszczenia przekazywały w jedną stronę dane do wyświetlaczy na ścianach, a w drugą polecenia z urządzeń peryferyjnych oraz czytników danych. Warto pamiętać, że jeszcze trzydzieści lat temu zdarzali się pasjonaci, którzy sami konfigurowali swoje komputery, a nawet je osobiście składali (!) i samodzielnie usiłowali sobie radzić z pojawiającymi się problemami. Obecnie należy to do obowiązków administracji osiedla, która w równym stopniu odpowiada za usuwanie awarii wodociągowych, co sporadycznych zawieszeń systemu operacyjnego.

Wszyscy za jednego

Dziś, “kupując” komputer, płaci się de facto za prawo do korzystania z blokowego klastra. Rezygnacja z posiadania indywidualnych skrzynek rozwiązała kilka istotnych problemów. Pierwotne pecety jednak praktycznie zawsze były niedopasowane do potrzeb – przez większość czasu ich moc obliczeniowa była wykorzystywana w niewielkim stopniu, a gdy użytkownik zapragnął rozerwać się przy nowej grze, przeważnie narzekał na niezbyt płynną animację. Zerwanie z indywidualizmem oraz popularyzacja technologii przetwarzania rozproszonego grid (patrz: CHIP 10/1999, 248; CHIP 8/2001, 2140) pozwoliło współdzielić moc obliczeniową w obrębie bloku mieszkalnego czy osiedla willowego, a od 2020 praktycznie w całej Europie, USA i większości krajów Azji.

Sąsiedzkie współdzielenie czasu procesorów rozszerzono także poza blokowiska po udostępnieniu dla użytkowników indywidualnych infrastruktury Internetu 2 (patrz:

CHIP 10/2001, s. 204

). Przeciętny obywatel ma dziś do dyspozycji więcej mocy obliczeniowej niż wojskowe ośrodki badawcze sprzed pół wieku, co sprawiło jednak nieoczekiwane kłopoty.

Kwant kontra bit

Lawinowy przyrost wydajności komputerów osobistych sprawił, że dawne metody szyfrowania, wykorzystywane przy każdorazowej transakcji, e-wyborach czy zakupach online i w tysiącu innych sytuacji, okazały się zbyt łatwe do siłowego przełamania. Niezbędne stało się zastosowanie metod kryptograficznych opartych na mechanice kwantowej.

Choć komputery kwantowe znane były od początku stulecia (patrz:

CHIP 12/1998, s. 60; CHIP 7/2001, s. 46

), to do końca drugiej dekady nie było potrzeby ich stosowania w domach i zakładach pracy. Nawet jednak gdy grid postawił pod znakiem zapytania sens tradycyjnych szyfrów, nadal nie istniały racjonalne powody do zastąpienia tradycyjnej architektury komputerów osobistych przez mechanizmy oparte na zjawiskach kwantowych. Znakomita większość zadań mogła zostać wykonana za pomocą klasycznych technologii. Rozszerzono więc jedynie tradycyjną architekturę PC o powszechną dziś QC (Quant-Card). Nowy podzespół oprócz szyfrowania i deszyfrowania zajmował się wkrótce także realizowaniem zadań sztucznej inteligencji (patrz:

CHIP 4/1999, s. 158; CHIP 7/1998, s. 34; CHIP 3/1998, s. 42; CHIP 2/2000, s. 68

), zwłaszcza w grach.

Najważniejszą jednak zmianą, wywołaną wprowadzeniem QC, była możliwość rezygnacji z pracy umysłowej, świadczonej dotąd przez ludzi. Czwarta generacja Quant-Card, wprowadzona na rynek w 2028 roku, okazała się wystarczająco sprawna, by skutecznie zasymulować umysł absolwenta wyższej uczelni o ilorazie inteligencji na poziomie IQ 130. Zatrudnianie i opłacanie ludzi stało się w tym momencie ekonomicznym absurdem. Wszyscy znamy konsekwencje tego przełomu. Tak zwana Rewolucja Artystyczna, która miała miejsce w krajach rozwiniętych w latach 2030-2035, zmieniła sposób kształcenia. Od tej pory liczy się tylko innowacyjność, oryginalność i talent artystyczny – od racjonalności i wiedzy mamy maszyny.

Więcej:bezcatnews