Z których nowych technologii korzystamy dziś, a na które musimy jeszcze poczekać

Mimo wszechobecnego tabletowego szaleństwa i pesymistycznych prognoz ekspertów, w 2011 roku sprzedano więcej klasycznych komputerów niż kiedykolwiek wcześniej. Ze sklepowych półek zniknęły aż 353 miliony desktopów i notebooków. W 2012 roku postęp nie zatrzymał się: na rynek trafiły dwie nowe generacje procesorów – Intel Ivy Bridge i AMD Trinity – o 50 proc. szybsze od swoich poprzedników. Struktury dysków SSD kurczą się do 20 nanometrów, co pozwola osiągnąć pojemność powyżej terabajta. Poza tym będą one przesyłać dane jeszcze szybciej, gdyż zamiast złączy SATA będą wykorzystywały nowe interfejsy SATA Express lub PCI Express. Nowe rekordy szybkości padną też w innych konkurencjach: dzięki technologii Gigabit WLAN transfer danych w sieciach bezprzewodowych przyspieszy nawet do 600 Mb/s. Do komputerów klasy PC w końcu trafi również stworzony przez Intela interfejs Thunderbolt, przesyłający informacje z szybkością sięgającą 800 MB/s.
Z których nowych technologii korzystamy dziś, a na które musimy jeszcze poczekać
Z których nowych technologii korzystamy dziś, a na które musimy jeszcze poczekać
Z których nowych technologii korzystamy dziś, a na które musimy jeszcze poczekać

Z których nowych technologii korzystamy dziś, a na które musimy jeszcze poczekać

Rozwiązania jutra w dzisiejszych komputerach

Chociaż niektóre nowe technologie będą dostępne dopiero pod koniec roku, domowy komputer można unowocześnić już dziś. Sprawdziliśmy to w Laboratorium CHIP-a: sprzedawane obecnie dyski SSD z obsługą interfejsu PCI Express 3.0 tylko nieznacznie ustępują przyszłym nośnikom ze złączami SATA Express, dwupasmowe rutery są już w stanie przesyłać jednocześnie kilka strumieni wideo HD, a przetaktowane kości pamięci operacyjnej DDR3 osiągają szybkość transferu danych zbliżoną do kości DDR4, które pojawią się w sprzedaży za pół roku. Na inne najnowocześniejsze rozwiązania nie trzeba już czekać: Windows 8 osiągnął stadium wersji beta i jest dostępny za darmo w Internecie, zaś Radeon HD7970 i GeForce GTX680 jako pierwsze karty graficzne są wyposażone w złącza PCI-E 3.0. Fani high-endowych podzespołów mogą zacierać ręce.

CPU: Ivy Bridge czy Trinity?

Intel i AMD olśniły nowymi generacjami procesorów – i dwiema różnymi koncepcjami

Równo 40 proc. – o tyle wydajniejsze od poprzedników są nowe procesory Intel Ivy Bridge. Pierwsze układy z tej rodziny stoją już w blokach startowych – masowa produkcja kompatybilnych płyt głównych już się zaczęła. Są to pierwsze procesory wykonane w technologii 22 nanometrów. Ten wymiar definiuje wielkość pojedynczego tranzystora. Podczas gdy powierzchnia układów Ivy Bridge jest mniejsza, urosną one w górę za sprawą tranzystorów Trigate, w których bramka ma kształt pionowej płetwy. Taka konstrukcja pozwala zmniejszyć wielkość prądów upływowych w procesorze i dzięki temu podnieść jego wydajność przy niezmienionym napięciu bądź obniżyć niezbędne napięcie przy zachowaniu takiej samej mocy.

Ta druga możliwość ma znaczenie zwłaszcza dla urządzeń przenośnych – w komputerach stacjonarnych będą raczej stosowane wydajniejsze modele. Obiecany 40-procentowy wzrost osiągów odnosi się jedynie do analogicznych modeli układów wyprodukowanych w technologii Sandy Bridge. To ważne, gdyż pierwsze procesory Ivy Bridge są zaopatrzone w maksymalnie cztery rdzenie – już dziś uzyskamy większą wydajność, wybierając sześciordzeniowe procesory Sandy Bridge Extreme. Odpowiednia płyta główna będzie przy tym kompatybilna również z układami Ivy Bridge.

AMD kontratakuje rekordowym taktowaniem

Podczas gdy Intel optymalizuje architekturę procesorów, AMD w swojej nowej rodzinie produktów Trinity zwiększa częstotliwość taktowania. Topowy model A10 5800K działa z podstawową częstotliwością 3,8 GHz, osiągając w trybie Turbo Boost nawet 4,2 GHz. Tak wysokie taktowanie umożliwia zastosowana architektura Piledriver. Ta poprawiona wersja architektury Bulldozer łączy pary rdzeni procesora w moduły. Niektóre elementy procesora są wspólne dla rdzeni tworzących moduł, w efekcie pod względem wydajności zachowuje się on raczej jak półtora rdzenia. Ponieważ jednak wysoka częstotliwość taktowania pozwala na bardzo szybkie wykonywanie obliczeń, procesory Trinity mają być w stanie nawiązać walkę z modelami Ivy Bridge Intela. Co prawda, nie podano wyników benchmarków, ale według AMD procesory CPU wykorzystujące architekturę Piledriver są o 15 proc. szybsze, zaś procesory graficzne – o 30 proc. szybsze od układów o architekturze Llano. Być może jednak to tylko kwestia wyższego taktowania – procesory Llano osiągają najwyżej częstotliwość 3 GHz.

Ponieważ tranzystory rdzeni muszą przełączać się szybciej, potrzebują też więcej prądu: według danych producenta układy Trinity zużywają 125 watów, podczas gdy porównywalnym desktopowym modelom Ivy Bridge wystarczy 77 watów. Lecz desktopy nie są głównym celem AMD – nowe procesory mają stanowić konkurencję dla układów Intela montowanych w ultrabookach, dlatego w zastosowaniach mobilnych procesory Trinity mają być znacznie bardziej oszczędne.

Dyski twarde: Dyski SSD kurczą się… by rosnąć

Dzięki technologii 20 nanometrów i nowemu interfejsowi SATA Express dyski SSD staną się mniejsze i szybsze, i pomieszczą jeszcze więcej danych.

Jak wiadomo, łańcuch jest tylko tak mocny, jak jego najsłabsze ogniwo – a w transmisji danych takim najsłabszym ogniwem stały się złącza SATA. Obecnie w trakcie sekundy z dysku do pamięci operacyjnej i odwrotnie można przesłać do 6 Gb danych. Nowoczesne dyski SSD są szybsze, podobnie jak kości pamięci RAM, ale kable SATA pozostają wąskim gardłem spowalniającym przepływ informacji. Interfejs SATA Express ma rozwiązać problem, łącząc typowy port SATA z portem PCI Express. Nowemu złączu towarzyszy nowy protokół komunikacyjny, optymalizujący transmisję danych. Dzięki tym innowacjom uzyska się szybkość nawet 16 Gb/s. Na nowych płytach prawdopodobnie będą montowane dwa różne złącza: starsze dyski będzie można podłączać przez odpowiedni adapter do portu SATA Express, a nowe dyski SSD – bezpośrednio do portu PCI Express.

Specyfikacja przygotowana przez Serial ATA International Organization przewiduje obie możliwości. Dokładny opis standardu został opublikowany w lecie, a specyfikacja zostanie ukończona do końca 2012 roku. Na skok szybkości nie trzeba jednak czekać aż tak długo: niektóre dyski SSD, np. OCZ RevoDrive, można podłączać do slotów PCI Express jako karty rozszerzeń. Co prawda, wciąż jest wówczas wykorzystywany stary protokół SATA, ale mimo to dyski w formie kart rozszerzeń działają szybciej od klasycznych układów SSD (patrz: grafika w prawym górnym rogu).

20-nanometrowe dyski SSD zarazem mniejsze i większe

Na dyskach w formie kart rozszerzeń coraz częściej są instalowane układy wykonane w technologii 20 nanometrów. To nowa wielkość struktur dysków SSD, wprowadzona przez firmy Intel i Micron w ubiegłym roku. Dyski budowane w tej technologii mogą być jeszcze mniejsze – albo większe, jeśli rozpatrujemy ich pojemność. 2,5-calowy dysk SSD do notebooków mógłby pomieścić nawet dwa terabajty danych – obecnie produkowane 25-nanometrowe dyski są mniejsze o ponad połowę. Niemal wszyscy producenci rozpoczęli już masową produkcję dysków w technologii 25 nanometrów.

Zapowiedziano też pierwsze dyski do zastosowań serwerowych. Produkty konsumenckie już trafiły do sklepów, a pod koniec roku Intel wprowadzi na rynek pierwszy dysk SSD o pojemności 1 TB. Na skutek pojawienia się nowej technologii ceny starszych, 25-nanometrowych modeli będą spadać. Poza tym już dziś można korzystać z nowoczesnych, szybkich dysków HDD wyposażonych w niewielką półprzewodnikową pamięć podręczną, dającą błyskawiczny dostęp do najczęściej używanych plików, na przykład elementów systemu operacyjnego. Wprawdzie realna szybkość przesyłania innych danych nie różni się od osiąganej przez klasyczne dyski HDD, ale odczuwalna prędkość działania systemu jest wyraźnie wyższa. Nie trzeba przy tym rezygnować z dużej pojemności – hybrydowe dyski mieszczą do kilku terabajtów danych. Tego rodzaju podzespoły są w ofercie wielu uznanych producentów.

WLAN: 1 gigabit przez 8 anten

Możliwości domowej sieci WLAN szybko się wyczerpują – przepustowość okazuje się niewystarczająca najpóźniej wtedy, kiedy rodzice i dzieci zechcą równocześnie oglądać różne filmy HD strumieniowane przez Sieć. Dotychczasowe standardy transmisji pozwalają osiągnąć maksymalną przepustowość 200 Mb/s, a to za mało, gdy w grę wchodzi większa liczba użytkowników. Rozwiązanie stanowi nowy standard WLAN 802.11ac (zwany również 5G WiFi, Gigabit WLAN oraz 5G WLAN).

Rutery działające w tym standardzie będą w stanie, dzięki ośmiu antenom, przesyłać nawet 1,3 Gb danych na sekundę. Pamiętajmy, że to tylko teoretyczna wielkość – w praktyce osiągniemy prawdopodobnie jedynie ok. 600 Mb/s, co będzie i tak wielkością trzykrotnie większą od oferowanych przez najlepsze obecnie sprzedawane urządzenia. Transmisja będzie prowadzona wyłącznie w paśmie 5 GHz, dlatego notebooki bez modułów WLAN-n działających w takim paśmie nie będą kompatybilne ze specyfikacją standardu 802.11ac.

Mamy jednak jeszcze trochę czasu na modernizację komputera, gdyż finalizacja standardu zaplanowana jest na koniec 2012 roku. Nie chcąc czekać tak długo, przyspieszmy domową sieć, instalując dwupasmowy ruter. Takie urządzenia wykorzystują jednocześnie oba pasma uwzględnione w standardzie 802.11n: 2,5 GHz oraz 5 GHz. Teoretyczna przepustowość sięga w tym przypadku 450 Mb/s, a w praktyce można uzyskać ok. 300 Mb/s – to nadal wzrost prędkości o 50 proc. w stosunku do standardowych ruterów.

RAM: Wyższe taktowanie dla większej wydajności

Wyższa częstotliwość taktowania i niższe zużycie energii – dzięki tym cechom pamięci operacyjne DDR4 mają w najbliższych latach zastąpić popularne kości DDR3. Czy to się uda, zależy od Intela i AMD: co prawda wspomniane firmy same nie produkują kości pamięci RAM, jednak ich chipsety zawierają kontrolery sterujące pracą pamięci. Na razie obaj giganci sceptycznie podchodzą do nowej konstrukcji, która dotąd nie wyszła poza stadium prototypu. Istnieją ku temu powody – pamięć DDR4 nie wykorzystuje innowacyjnej technologii, a wzrost wydajności uzyskany w wyniku podniesionej częstotliwości taktowania jest wątpliwy. Nawet nowoczesne systemy nie mogłyby na razie spożytkować zwiększonej przepustowości pamięci.

Również producent pamięci Corsair szacuje, że pod koniec roku być może uda się zastosować kości nowego typu w serwerach. Wprowadzenie kości pamięci DDR4 przeznaczonych dla prywatnych klientów zbiegnie się z premierą nowej generacji chipsetów Intela o nazwie kodowej Haswell, zaplanowaną na przyszły rok. Dopiero nowe chipsety będą wyposażone w odpowiednie kontrolery. Analitycy rynku z firmy iSuppli przewidują, że pamięci operacyjne DDR4 zaczną być szerzej stosowane dopiero za trzy lata. Wyższe taktowanie można zresztą osiągnąć również w przypadku kości DDR3. Dla celów testowych przetaktowaliśmy w laboratorium kość tego typu i zmierzyliśmy rezultaty (patrz: grafika po prawej).

Karty graficzne: AMD kontra Nvidia

AMD wygrało ten etap wyścigu: Radeon HD 7970 został pierwszą kartą graficzną z interfejsem PCI Express 3.0. Ale choć nowa karta uzyskuje w benchmarku 3DMark Vantage Extreme 17 500 punktów, przebijając swojego poprzednika HD 6970 o 50 proc., nie wykorzystuje ona potencjału nowego złącza. Różnice w wynikach testu pomiędzy interfejsami PCI-E 2.0 i 3.0 są minimalne. Na karty w pełni korzystające z nowego złącza na płytach głównych i jego przepustowości sięgającej 8 GB/s trzeba jeszcze poczekać. Tej sytuacji nie zmieniły również wprowadzone na rynek w kwietniu karty z konkurencyjnymi wobec topowego Radeona procesorami graficznymi Nvidia GeForce GTX 680. Układy Nvidii zaopatrzone w rdzenie o nazwie kodowej Kepler okazują się w większości zastosowań wydajniejsze od produktów AMD, a przy tym są nieco tańsze i zużywają mniej prądu. Zwolenników urządzeń przenośnych może zainteresować, że Nvidia zapowiedziała już stworzenie wersji GPU z rdzeniami Kepler przeznaczonej do notebooków, tabletów i smartfonów. Być może dzięki niej urządzeniom z Androidem uda się w końcu dorównać wydajnością graficzną konkurencji ze stajni Apple’a wykorzystującej układy graficzne PowerVR.

Thunderbolt: Błyskawiczny transfer danych

Intel sam jest swoim największym konkurentem. W 2010 roku – tym samym, w którym na rynek trafiły pierwsze urządzenia wyposażone w interfejs USB 3.0, opracowany z udziałem procesorowego giganta – Intel zaprezentował zupełnie nowe złącze o nazwie Thunderbolt. Teoretycznie pozwala ono na osiągnięcie przepustowości 10 Gb/s, co oznacza dwukrotne przewyższenie możliwości USB 3.0. A przecież drugi z wymienionych interfejsów nie zdążył jeszcze się rozpowszechnić, a pierwszego próżno szukać na płytach głównych – jedynie MacBooki firmy Apple mają odpowiednie złącza. Do komputerów PC interfejs Thunderbolt trafia dopiero teraz, przy okazji premiery nowej generacji procesorów Intel Ivy Bridge. W końcu pojawiła się również natywna obsługa USB 3.0.

Przygotowując się do tych zmian, niektórzy producenci sprzętu komputerowego już wprowadzili na rynek urządzenia mogące przesyłać dane przez złącza Thunderbolt. Western Digital wprowadził kompatybilne dyski zewnętrzne, Seagate zaoferował odpowiedni adapter do dysków GoFlex, zaś Belkin pokazał już stację dokującą ze złączami HDMI, USB 2.0 oraz FireWire, komunikującą się z komputerem za pośrednictwem pojedynczego przewodu Thunderbolt. Zaletą tego interfejsu jest możliwość przesyłania danych w obu kierunkach jednocześnie. Dzięki temu da się połączyć szeregowo nawet siedem urządzeń. Jeżeli jednak choć jedno z nich ulegnie awarii, wszystkie stracą możliwość komunikacji.

Windows: System dla wszystkich systemów

Windows 8 to dla Microsoftu całkiem spora nowość: jeden system ma odtąd odpowiadać potrzebom użytkowników wszystkich klas komputerów – od smartfonów przez tablety do desktopów. Interfejs Metro nowego systemu może na zawsze zmienić sposób, w jaki korzystamy z komputera. Menu Start zastąpiono w nim animowanymi kafelkami pozwalającymi nadzorować i uruchamiać programy. Klasyczny pulpit z ikonami jest zresztą ukryty i pozostaje tylko opcjonalnym widokiem. System kafelków wywodzi się z interfejsu Windows Phone 7 i na urządzeniach mobilnych sprawdza się świetnie – duże pola łatwiej trafić palcem niż małe ikony.

Właśnie tę cechę interfejsu Microsoft chce przenieść ze smartfonów i tabletów do klasycznych komputerów. Obsługa kafelków za pomocą myszy mija się z celem, ale przecież w sklepach jest już system rozpoznawania gestów Kinect, umożliwiający sterowanie systemem w nowoczesny sposób. Niektórzy producenci rozważają też szersze zastosowanie w notebookach i desktopach ekranów dotykowych. Jeśli chodzi o oprogramowanie, Microsoft chce upowszechnić korzystanie na komputerach klasy PC z aplikacji internetowych opartych na HTML5. Pytanie tylko, jak rewolucyjną koncepcję Microsoftu przyjmą użytkownicy, kiedy Windows 8 pod koniec roku trafi na rynek – w końcu to największa zmiana od czasu przejścia z Windows 3 na Windows 95 przed siedemnastoma laty.

Monitory: Cieńsze, jaśniejsze i trójwymiarowe

Komputerowe monitory coraz częściej korzystają z nowoczesnych technologii rozwijanych przede wszystkim z myślą o telewizorach i smartfonach. Przykładowo LG rozpocznie w tym roku sprzedaż wyświetlaczy z serii DM92 wyposażonych w panele IPS, których ramka ma szerokość tylko 1 mm, czyli trudno ją w ogóle zauważyć. Podobnej konstrukcji monitory do swoich notebooków Koreańczycy zaprezentowali już rok temu. Producenci coraz śmielej stawiają też na możliwość wyświetlania obrazu 3D: zdaniem analityków rynku do 2015 roku roczna sprzedaż trójwymiarowych monitorów komputerowych potroi się. Dla wytwórców takich ekranów to zapowiedź złotego interesu. Nowe urządzenia będą adresowane zarówno do graczy, jak i do tych, którzy używają komputera jako telewizora – do odbierania transmisji strumieniowych wideo w rozdzielczości HD albo do odtwarzania płyt Blu-ray.

Z myślą o takich zastosowaniach powstały okulary z przysłonami 3D Vision firmy Nvidia, których drugą generację wprowadzono na rynek na początku roku. Współpracują one z certyfikowanymi monitorami zapewniającymi częstotliwość odświeżania 120 Hz i wyposażonymi w technologię Light Boost, pozwalającą zniwelować straty jasności obrazu podczas wyświetlania trójwymiarowych filmów wynikające z zastosowania okularów z przysłonami. Premiera Windows 8 przybliża nas również do upowszechnienia się ekranów dotykowych do komputerów stacjonarnych. Dzięki interfejsowi Metro w końcu będzie można w pełni wykorzystać ich możliwości, co dostrzegli już także producenci wyświetlaczy.