22, 14, 12, 10, 7 nm…

7 nm – tak niewyobrażalnie mała odległość zawładnęła ostatnimi czasy umysłami pasjonatów nowoczesnych technologii. Głównie za sprawą pojawiających się na rynku układów wykonanych właśnie w 7-nanometrowym procesie technologicznym. Chwali się Huawei (chip Kirin 980), chwali się AMD (chip Vega 20, serce akceleratorów obliczeniowych Radeon Instinct, modeli MI60 i MI50 oraz serwerowe rdzenie AMD Zen 2 Rome, czyli Epyc 2 generacji), nie bardzo pochwalić się może Intel, który wciąż ma problem z przejściem na 10 nanometrów. Ach, te emocje, litografia, rdzenie, wydajność, energooszczędność…
7 nm
7 nm

Ale tak z ręką na sercu, ile osób wie, o co tak naprawdę chodzi? Jak właściwie powstają nowoczesne układy obliczeniowe? Czym jest ta tajemnicza litografia? Bo zakładam, że odpowiedź w stylu: “rozmiar produkcyjny” – nikogo nie usatysfakcjonuje. Zresztą jest ona co najmniej niepełna, a mimo to powielana przez liczne źródła w sieci i przez technologicznych gigantów. O co zatem chodzi z 7 nanometrami? Musimy zacząć od przypomnienia, jak w ogóle powstaje procesor.

W nanoskali toczy się ciekawa rywalizacja producentów CPU

Piachem po oczach, czyli jak powstaje chip

Wszystkie komercyjne układy scalone od dziesiątek lat wykonane są… z piachu. Tak, to nie żart. To co nazywamy potocznie piaskiem, to – najczęściej – tzw. krzemionka, czyli, mówiąc bardziej naukowo: dwutlenek krzemu (SiO2), nieorganiczny związek chemiczny z grupy tlenków. Najczęstszą postacią SiO2 jest kwarc, a ten występuje w przyrodzie przede wszystkim w postaci ziaren piasku. Krzemionka jest bardzo rozpowszechnionym związkiem na naszej planecie. Ocenia się, że w miarę czyste jej postacie (czyli piasek i piaskowce) stanowią, zależnie od oszacowań, od 12 do 27% masy całej skorupy ziemskiej. Sam krzem z kolei jest drugim po tlenie najczęściej występującym pierwiastkiem w wierzchniej warstwie naszej planety. Jednak to nie częstość występowania przyczyniła się do wykorzystania krzemu w układach scalonych, lecz fizyczne właściwości tego pierwiastka w roli bardzo elastycznego półprzewodnika, co oznacza, że w pewnych warunkach może on być świetnym przewodnikiem oraz znakomitym izolatorem. Krzem charakteryzuje się tym, że tworzy struktury krystaliczne, co wynika bezpośrednio z budowy atomu tego pierwiastka. Ma na powłoce walencyjnej 4 elektrony, a to pozwala tworzyć zarówno struktury monokrystaliczne (krzem-krzem), jak i liczne związki (np. krzem-tlen-krzem czy krzem-azot-krzem).

Monokryształ krzemu
Monokryształ krzemu wytworzony metodą Czochralskiego (fot. Wikimedia)

Do produkcji układów scalonych potrzebujemy krzemu monokrystalicznego. Metodę otrzymywania krzemu w takiej formie zawdzięczamy polskiemu chemikowi, Janowi Czochralskiemu, który już w 1916 roku opracował stosowaną powszechnie do dziś technikę pozyskiwania monokryształów krzemu, a także wielu innych półmetali, metali i ich stopów. Metoda ta – w przypadku krzemu – polega na stopieniu krzemionki w piecu indukcyjnym, a następnie powolnym wyciąganiu monokrystalicznego zarodka z naczynia, przy zachowaniu ruchu obrotowego pomiędzy naczyniem a tworzącym się w ten sposób monokryształem. W zależności od szybkości wyciągania zarodka i prędkości obrotowej naczynia otrzymujemy różną średnicę cylindrycznego monokryształu.

[Jan Czochralski (1885-1953) w gabinecie na Politechnice Warszawskiej, fot. janczochralski.com]

Teoretycznie można utworzyć monokrystaliczny walec o dowolnej średnicy, w praktyce jednak nie ma to sensu. Dlaczego? Bo w przypadku produkcji układów scalonych bardzo istotna jest czystość chemiczna monokryształu krzemowego, na poziomie 99,9999% czystego krzemu. Wytwarzanie bardzo dużych (o bardzo dużej średnicy) walców monokrystalicznych przy wymaganej czystości materiału jest po prostu trudne. Jak z utworzonego, cylindrycznego bloku monokryształu powstaje tzw. wafel krzemowy stanowiący podłoże układów elektronicznych? Spójrzcie na ilustrację.

Produkcja procesorów
Mamy monokryształ? Czas zatem na precyzyjne cięcie (graf. Intel)

Cylindryczny monokryształ jest bardzo precyzyjnie cięty na krążki diamentowym ostrzem. Krążki to początek krzemowego wafla. Dziś w elektronice stosuje się wafle o średnicach od 100 do 300 mm. Co prawda już jakiś czas temu Intel zapowiadał użycie wafli o średnicy nawet 450 mm, ale podobna technologia realnie ma wejść dopiero po roku 2023. Dlaczego średnica ma znaczenie? To proste, im większa powierzchnia pojedynczego wafla krzemowego, tym niższe stają się koszty jednostkowe produkcji danego układu. Jednak, jak wspomniałem, większy rozmiar stanowi też dużo większe wyzwanie, jeżeli chodzi o zachowanie właściwej czystości materiału.

Diamentowy “tartak” jest dość precyzyjny. 300-milimetrowe krzemowe wafle mają grubość 775 mikrometrów, czyli mniej więcej 0,8 mm. Oczywiście w przemyśle elektronicznym wykorzystuje się różne rozmiary wafli krzemowych, zależnie od zastosowań. Podany wymiar dotyczy tych, których dalszym przeznaczeniem są procesory. Jako ciekawostkę warto zaznaczyć, że cięte monokryształy krzemowe stanowią również podstawę paneli fotowoltaicznych. Te jednak bazują na waflach o nieco innym kształcie, cieńszych i o mniejszej powierzchni. W każdym razie ucięty plaster krzemu jest poddawany kwasowej obróbce w celu usunięcia ewentualnych nieczystości powstałych w trakcie cięcia, a także, w zależności od dalszych zastosowań, jest polerowany (na potrzeby produkcji układów scalonych) lub teksturowany (na potrzeby paneli fotowoltaicznych). Oczywiście nas interesuje pierwsze zastosowanie.

Gotowe do dalszej obróbki wypolerowane i idealnie czyste wafle (99,9999% krzemu) trafiają do poszczególnych fabryk (np. Intela, Samsunga, GlobalFoundries czy TSMC) zajmujących się już produkcją konkretnych układów scalonych.

Czas na fotolitografię

Czym jest litografia? To termin odnoszący się do jednej z technik druku płaskiego, który sam w sobie nie ma nic wspólnego z elektroniką. Chodzi jednak o metodę przeniesienia rysunku, dosłownie stanowiącego szkic architektury budowanego układu. W klasycznej litografii rysunek/tekst, który chcemy powielić, wykonuje się na tzw. kamieniu litograficznym. Następnie powierzchnia takiego kamienia jest traktowana słabym kwasem. Miejsca niewytrawione przyjmą tusz, miejsca wytrawione – nie. Oznaczanie miejsc na waflach krzemowych odbywa się podobnie, z tym że proces przebiega z niewyobrażalnie większą precyzją, a zamiast rylca litograficznego używa się promieni laserowych, dlatego też właściwszą nazwą interesującego nas procesu jest: fotolitografia.

Fotolitografia
Fotolitografia, czyli oznaczanie krzemu (graf. Intel)

Co dalej dzieje się z waflami krzemowymi? Gdy trafią do fabryki procesorów, są najpierw pokrywane specjalną emulsją światłoczułą, a następnie precyzyjnie naświetlane po to, aby – analogicznie do klasycznej litografii – na powierzchnię wafla nanieść oczekiwany rysunek: strukturę przyszłych układów scalonych.

W procesach fotolitograficznych korzysta się z laserów argonowych emitujących promienie elektromagnetyczne o długości 193 nm. Jak być może pamiętacie z lekcji fizyki, światło widzialne to zakres fal elektromagnetycznych o długościach od 380 do 750 nm (w takim zakresie ludzkie oko postrzega falę elektromagnetyczną jako światło). Łatwo zauważyć, że stosowane w procesie fotolitograficznym lasery to już zakres ultrafioletu. Celem jest oczywiście uzyskanie jak najbardziej precyzyjnego “rysunku” przyszłego układu na krzemie. 193 nm, czyli długość fali lasera naświetlającego, wpływająca na rozdzielczość “rysunku” naszkicowanego na krzemie, jest jednak zbyt duża, aby myśleć o bezpośrednim “drukowaniu” obrazka układu na waflu. Nawet przy zastosowaniu układów optycznych maksymalna rozdzielczość, czy może raczej najmniejsza jednostka w szkicowanym bezpośrednio takim laserem układzie, ma wymiar 105 nm. Znacznie więcej od interesujących nas 7 nm. Jak wobec tego uzyskać precyzyjniejszy “nadruk” na waflu?

Sprawa wydaje się prosta – wystarczy użyć światła o mniejszej długości fali. Teoretycznie tak, tyle że im mniejsza długość fali (czyli większa częstotliwość), tym energia fotonu jest większa. To w praktyce oznacza, że zbudowanie stosownego lasera emitującego promienie o długości już na pograniczu ultrafioletu i promieniowania rentgenowskiego jest niezwykle trudne. Taki laser do zasilania wymaga olbrzymiej mocy. Od wielu lat wielcy branży półprzewodnikowej pracują nad technologią określaną jako EUV lub EUVL (Extreme UltraViolet Litography), w której przewiduje się użycie fal o długości 13,5 nm, ale prognozowane i niekoniecznie pewne pojawienie się rozwiązania, które będzie można wprowadzić na skalę przemysłową, to najwcześniej 2020 rok. Dla porównania, używane dziś lasery argonowe (dokładniej chodzi o fluorek argonu), przy mocy wyjściowej rzędu 90 W wymagają dostarczenia zasilania elektrycznego o mocy 50 kW. Tymczasem moc potrzebna w przypadku użycia lasera EUV przekracza pół megawata! Do tego dochodzą jeszcze problemy z chłodzeniem. Aktualne systemy chłodzenia stosowane w fotolitografii potrzebują niecałych 100 litrów wody na minutę. Szacuje się, że przy EUV będzie niezbędne ponad 1500 litrów wody. To oznacza, że EUV nie naświetli tylu wafli co laser argonowy – w tym samym czasie. A czas to pieniądz. Wobec dużo wyższych kosztów i gorszej efektywności nie dziwi, że EUV to ciągle pieśń przyszłości.


Na drugiej stronie piszemy o “trikach” stosowanych do budowy coraz mniejszych układów.

Mniejsze wymiary? Przyda się sztuczka, a nawet dwie

Skoro zatem technologia EUV nie jest stosowana, jak jest możliwe zbudowanie układów w rozmiarach technologicznych klasy 22, 14, 10 nm i 7 nm? Cóż, stosuje się pewne “triki”. Przede wszystkim maskowanie. Wafle krzemowe naświetlane są przez maski, co pozwala zwiększyć rozdzielczość, ale i tu są pewne granice. W procesie klasy 14 nm wprowadzonym przez Intel po raz pierwszy zastosowano tzw. podwójne naświetlanie (double patterning). Chodzi o to, że pojedyncza maska nie może mieć zbyt zagęszczonego wzoru, bo przechodzące przez nią światło ulegnie interferencji i cały proces naświetlania nie uda się. Dzięki zastosowaniu dwóch masek z przesunięciem fazowym mamy możliwość dalszego zwiększenia rozdzielczości bez ryzyka interferencji. Proces naświetlania trwa oczywiście dłużej (bo dwa razy naświetlamy ten sam wafel), ale i tak opłaca się, bo zyskujemy mniejszy wymiar technologiczny i w rezultacie możliwość produkcji większej liczby bardziej energooszczędnych i co najmniej równie wydajnych układów z tej samej powierzchni wafla.

Ale maskowanie to tylko jeden ze sposobów pozwalających uzyskać rozdzielczość wyższą niż wynikająca bezpośrednio z długości fal i własności układu optycznego. Maskowanie nie jest wystarczające do tego, byśmy uzyskali osiągane dziś wymiary elementów w układach scalonych. Kolejny pomysł wykorzystuje zjawisko znacznego wzrostu rozdzielczości systemów optycznych, w sytuacji gdy pracują one w ośrodkach o współczynniku załamania większym od 1. Proces ten, zwany litografią immersyjną stosującą układy refleksyjne, pozwolił uzyskać znacznie wyższe rozdzielczości naświetlania, a to z kolei umożliwiło budowę układów promowanych jako nanometrowe (np. 14 nm).

To się spodoba miłośnikom Star Wars – bombardowanie jonowe

Kolejnym etapem produkcji procesorów jest tzw. jonowa implantacja. Polega na bombardowaniu jonami powierzchni wafla krzemowego naświetlonej w procesie fotolitograficznym.

Bombardowanie wafla krzemowego jonami, czyli domieszkowanie
Bombardowanie jonowe, czyli “domieszkowanie” (graf. Intel)

Emitowane cząstki stają się częścią struktury w miejscach, które nie były pokryte substancją światłoczułą (tzw. fotorezystem). Ten proces nazywamy “domieszkowaniem”. W jego wyniku uzyskuje się pożądane właściwości elektryczne krzemowej struktury, która w niektórych miejscach staje się przewodnikiem, w innych – izolatorem. Następnie z powierzchni wafla usuwany jest materiał światłoczuły i nanoszona warstwa nośna dla przyszłych tranzystorów, które pojawią się w budowanym układzie. Powyższy opis jest bardzo uproszczony. W istocie domieszkowanie, wytrawianie i układanie kolejnych warstw budujących tranzystory na waflu krzemowym to daleko bardziej skomplikowana operacja. Po zakończeniu tego etapu mamy wafel z mnóstwem tranzystorów, jeszcze niepołączonych ze sobą.

Nanoszenie warstw połączeniowych na gotowy tranzystor, czyli galwanizacja (graf. Intel)

Po wielokrotnym domieszkowaniu, szlifowaniu i tym podobnej obróbce tranzystory tworzące już finalną strukturę trzeba jeszcze ze sobą połączyć. Spreparowane wafle krzemowe z naniesionymi już elementami elektronicznymi są zanurzane w kąpieli z siarczanu miedzi. Jony miedzi osadzane są na tranzystorze w procesie zwanym galwanizacją.

Polerowanie po galwanizacji
Polerka i mamy gotowe styki połączeń (graf. Intel)

Następnie warstwę miedzi zeszlifowuje się i poleruje w taki sposób, by na powierzchni tranzystora pozostały tylko odpowiednie styki połączeń. Same styki to oczywiście za mało, trzeba wyprowadzić właściwe połączenia. Tworzy się je poprzez kolejne nanoszenie wielu warstw metalowych. Na powyższej ilustracji, po prawej stronie widzimy gąszcz połączeń pomiędzy zaledwie sześcioma tranzystorami. Jak wiemy, w rzeczywistych układach są ich miliardy, to pokazuje jak dalece skomplikowana jest omawiana struktura. Chip może wyglądać na wyjątkowo płaski, ale pamiętajmy o skali, w jakiej się to wszystko odbywa. W przypadku intelowskich układów Intel Core już w drugiej ich generacji producent stosował aż do 30 warstw połączeniowych tworzących zawiłe obwody.

Testy, testy

Po wielokrotnym naświetlaniu, wytrawianiu, bombardowaniu jonami, galwanizacji, polerowaniu, szlifowaniu mamy wreszcie wafel krzemowy z naniesionymi gotowym strukturami układów. Ostatnim etapem produkcji są testy. One również przebiegają wieloetapowo. Najpierw, jeszcze przed pocięciem krzemowego wafla na właściwe chipy, każdy z tych układów przechodzi test elektryczny.

Testowanie gotowych, ale jeszcze nie upakowanych w obudowy procesorów (graf. Intel)

Specjalna głowica testowa styka się z odpowiednimi punktami układu i wykonywane jest sprawdzenie elektryczne, czy wszystko funkcjonuje tak, jak zostało zaprojektowane. Dla każdego odrębnego układu na waflu głowica testowa podaje wzorcowy sygnał, oczekując konkretnej odpowiedzi. Pozytywny wynik oznacza, że dany układ przechodzi do dalszej produkcji. Wafel silikonowy jest cięty na kawałki odpowiadające pojedynczym zbudowanym układom, a następnie te chipy, które przeszły testy są kierowane do dalszego pakowania. Później, gdy chip zostaje zapakowany już w końcową obudowę, przechodzi kolejne, dokładniejsze testy.

W tym momencie warto jeszcze wspomnieć o jednej rzeczy. Co decyduje, do jakiej kategorii będzie przyporządkowany dany układ? Wielokrotnie z pewnością słyszeliście o przypadkach, kiedy jakiś procesor gorszej klasy był tak naprawdę układem klasy wyższej, ale z wyłączonymi rdzeniami, obciętą pamięcią SRAM czy innymi ograniczeniami.

Gdy wiecie już, jak powstają układy, zdajecie sobie sprawę, że te gorsze układy są często po prostu lepszymi, które nie do końca przeszły testy jakościowe, dlatego są oferowane na rynku jako mniej wydajne jednostki. Chodzi o to, że nic nie może się zmarnować. A rzekome obcięcie np. czterech rdzeni do dwóch czy wyłączenie jednego z rdzeni albo odchudzenie pamięci w rzeczywistości nie ma miejsca. W przypadku częściowo wadliwych chipów, które jednak można wykorzystać jako mniej wydajne układy gorszego typu ograniczenie funkcjonalności wprowadza się przez wewnętrzne oprogramowanie procesora. Nikt tam fizycznie niczego nie przecina, po prostu, jeżeli chip nie przechodzi w pełni testu, ale daje się go wykorzystać jako gorszy model, niepotrzebne/wadliwe moduły są odcinane programowo.

Poniżej krótki film pokazujący powstawanie procesora.


Na ostatniej stronie dowiecie się, czy 7 nm to naprawdę 7 nm.

Ile nanometrów jest w nanometrach?

Dawniej wartość wyrażana w nanometrach odnosząca się do produkcji układów scalonych definiowała po prostu szerokość bramki, czyli tego obszaru, który jest izolatorem, gdy tranzystor jest wyłączony i przewodnikiem, gdy tranzystor jest włączony. Jest jeszcze inne wyjaśnienie: w nanometrach wyrażano rozmiar najmniejszego elementu, który dało się naszkicować na powierzchni krzemowego wafla za pomocą techniki litograficznej. To już jednak historia. Obecnie owe nanometry podnoszące ciśnienie pasjonatom nowoczesnych technologii nie mają wiele wspólnego z faktycznymi wymiarami konkretnych układów i ich elementów. To bardziej marketing. Weźmy na przykład dwa procesory klasy 14 nm – Intela i AMD. “Niebiescy”, chwaląc się układami 14 nm, pokazywali, że ich układ ma bramkę 42 nm, szerokość finu 8 nm i wysokość 42 nm (widzicie tu gdzieś 14 nm?). Teraz AMD. Ich układ klasy 14 nm charakteryzuje się również bramką 42 nm, fin 10 nm, a wysokość 25 nm. Znowu nie ma 14. Czy to znaczy, że producenci procesorów nas oszukują? Nie. Podkreślane na slajdach nanometry odnoszą się do pewnej szacowanej, niejako wirtualnej klasy procesu technologicznego, uwzględniającego fotolitografię, pobór mocy czy wydajność układu – i w tym sensie ma to o tyle wartość dla konsumentów, że proces klasy o mniejszej liczbie nanometrów jest efektywniejszy energetycznie (tak samo wydajny przy mniejszym poborze mocy lub wydajniejszy przy takim samym poborze energii). Ale tych 10 czy 7 nm w żaden sposób nie odnosi się do faktycznych wielkości poszczególnych elementów w układach scalonych.

Mało tego, podobny stan trwa od dawna. Kilka lat temu TSMC, IBM, Samsung i GlobalFoundries zarzuciły Intelowi, że zachwala swój “proces technologiczny 32 nm”, podczas gdy faktyczna gęstość elementów w układzie produkowanym w rzeczonym procesie odpowiadała gęstości elementów w układzie powstającym u innych producentów w procesie 40 nm. Efekt? Wszyscy zaczęli na potęgę przerzucać się nanometrami. IBM chwalił się 16 nm procesem, który zapewnia gęstość taką jak de facto 20 nm, choć jest pewna różnica – zamiast tranzystorów planarnych zaczęto używać FinFET-ów. Z kolei Intel ma swoje tranzystory przestrzenne Tri-Gate, ale opowieść o tranzystorach to już całkiem inna historia. To co dla nas, użytkowników i konsumentów jest ważne, to fakt, że na wydajność jakiegokolwiek układu powinniśmy patrzeć całościowo, polegać na testach wydajności przeprowadzanych przez kompetentnych specjalistów i analizować wyniki w kontekście konkretnych zastosowań chipu, a nie patrzeć wyłącznie na wielkie napisy na reklamowych plakatach w stylu: “FIRST, EVER 7 nm!!!” Bo marketingowe nanometry w branży półprzewodnikowej dawno rozminęły się z prawdą.

Co nam daje 7 nm?

Produkcja procesorów to proces niezwykle skomplikowany. Powyższy opis jest bardzo uproszczonym wyjaśnieniem tego, co dzieje się w fabrykach TSMC, Samsunga, Intela czy GlobalFoundries. Marketingowe nanometry mają za zadanie poinformować konsumentów, że oto mamy układ wykonany w nowszy sposób niż starsze układy. Jak zatem powinniśmy interpretować 7 nm ogłoszone m.in. przez Huawei (chip Kirin 980) albo AMD (Vega 20, procesory EPYC 2 generacji)? Przede wszystkim zmniejszenie liczby nanometrów w danej klasie produkcyjnej – mówimy tu zasadniczo o najbardziej nas interesującym w tej chwili procesie 7 nm – wskazuje na układ, którego moc obliczeniowa, przy zachowaniu tej samej architektury w porównaniu do układów ze starszej klasy produkcyjnej (np. proces 14 nm) i tej samej powierzchni chipu, powinna być wyższa. Mniejszy wymiar w nanometrach oznacza po prostu gęstsze upakowanie aktywnych elementów układu na tej samej powierzchni.

Tymczasem IBM wykonało już chip w skali 5 nm, mieszcząc w jednym układzie 30 miliardów tranzystorów (graf. Generation NT)

Inny przykład: wyobraźmy sobie, że produkujemy identyczny układ z wykorzystaniem dwóch różnych procesów produkcyjnych: 14 i 7 nm. Ten wykonany w 7 nm będzie fizycznie mniejszy (bo liczba elementów, np. tranzystorów, w obu układach jest identyczna) i będzie pobierał mniej energii, choć będzie tak samo wydajny (bo przecież jest de facto identycznym układem co 14 nm odpowiednik, tylko wykonanym w mniejszej skali). To oczywiście duże uproszczenie, bo pomijamy problem bariery potencjału czy napięcia przyłożonego do bramki tranzystora układu, by ten w ogóle pełnił rolę przewodnika. Wracając do nanometrów, mniejsza klasa procesu technologicznego oznacza też, że przy większej gęstości upakowania elementów układu na powierzchni wafla krzemowego producent zmieści większą liczbę chipów. To oszczędność, oczywiście po części zjadana przez wymagane inwestycje podczas wprowadzania nowego procesu produkcyjnego. Ale w tym już głowa włodarzy producentów układów, by to wszystko się kalkulowało.

Absolutnie nie powinniśmy wpadać w pułapkę myślową typu: “mniejszy proces technologiczny to szybszy procesor”, bo to błędne twierdzenie. Mniejszy i – co ważne – stabilny proces technologiczny pozwala tworzyć lepsze układy, ale ich wydajność możemy porównywać wyłącznie w kontekście podobnych architektur. Na przykład Kirin 980 czy AMD Zen 2 Rome, choć oba są zachwalane jako 7 nm, to dwa zupełnie odmienne (o różnej architekturze) układy, których wydajności nie ma najmniejszego sensu porównywać. Akurat w przypadku tych dwóch chipów mniejszy proces technologiczny w układzie HiSilicon (cześć Huawei zajmująca się produkcją układów scalonych) Kirin 980 oznacza większą energooszczędność, co ma przecież znaczenie w przypadku sprzętu mobilnego, do którego ten chip jest kierowany.

Litograficzne plany AMD

Podobnie jest w przypadku AMD EPYC, czyli układów wielordzeniowych przeznaczonych do serwerów. Jako ciekawostkę warto zaznaczyć, że w przypadku najnowszych serwerowych układów AMD galimatias z nanometrami jest jeszcze większy. Jeden procesor w architekturze Zen 2 zawiera dwa rodzaje krzemowych jąder, które wykonane są w dwóch różnych procesach technologicznych, na dodatek w dwóch różnych fabrykach. I tak, rdzenie x86 oraz najbliższe poziomy pamięci podręcznej procesora są, owszem, wykonane w procesie klasy 7 nm i produkowane przez tajwańskie TSMC, ale już kontroler pamięci oraz interfejsy I/O (wejścia/wyjścia) są produkowane przez należące do AMD fabryki GlobalFoundries wciąż w procesie klasy 14 nm.

Recepta na koniec? Nie dajmy się zwariować. Fakt pojawienia się układów określanych jako 7 nm to generalnie dobra wiadomość. Otrzymujemy układy bardziej energooszczędne i często wydajniejsze, dzięki unowocześnianiu samej architektury. Ale klasa procesu technologicznego wyrażana w nanometrach dziś ma niewiele wspólnego z faktycznymi wymiarami fizycznymi wewnątrz układu czy z rozmiarem tranzystora w 7 nanometrowym procesorze. | CHIP


Nasz ranking procesorów >>

Na pierwszych miejscach w zestawieniu POWER są w tej chwili: Intel Core i9-9900K (14 nm), AMD Ryzen 7 2700X (12 nm) i AMD Ryzen 7 1700X (14 nm).