Procesor graficzny Larrabee, Intel i jego wyboista graficzna przygoda, Larrabee, Intel Larrabee, GPU Larrabee, GPGPU

Procesor graficzny Larrabee sprzedany, czyli Intel i jego wyboista graficzna przygoda

Właśnie sprzedano jedyny działający prototyp karty graficznej Intel Larrabee, która sprzedała się za zaledwie 4650 euro na eBay France. Uznaliśmy to za świetną okazję na przypomnienie, czym dokładnie był ten „ostatni podryg graficzny Intela”, który zakończył na dobrą dekadę wysiłki firmy w tym segmencie i sprawił, że zaczęła skupiać się na iGPU, czyli zintegrowanych GPU w procesorach centralnych. Dziś wiemy, że Intel spróbuje wrócić do gry, uzbrojony nie tylko w znamienite osobowości w segmencie graficznym, ale też ogrom doświadczenia i miejmy nadzieję, że nie podzieli przeszłości, z jakiej znamy procesor graficzny Larrabee.

Czym był procesor graficzny Larrabee Intela?

Na naszych łamach o Larrabee wspomnieliśmy stosunkowo niedawno, a to z okazji rozpisania się na temat tego, czy powinniśmy płakać (jako gracze) po tym, jak Intel najpierw oddał w nasze ręce, a następnie zablokował instrukcje AVX-512 dla platform z procesorami Alder Lake. Wtedy wspomnieliśmy, że instrukcje AVX-512, to dzieło z pierwszej dekady obecnego wieku, które ma swoje korzenie w projekcie Intel Larrabee. Ten miał na celu stworzenie procesora graficznego Intela typu GPGPU, czyli „tego wszechstronnego”, ale projekt upadł w 2009 roku i finalnie dał życie tylko Xeon Phi.

Czytaj też: Czym jest NFT? Niewymienialne tokeny mają swoje dobre i złe strony… zupełnie jak kryptowaluty

To właśnie w ramach mikroarchitektury Larrabee, której historia sięga 2006 roku (oficjalnie dowiedzieliśmy się o niej w 2008 roku) Intel opracował specjalny zestaw instrukcji AVX z 512-bitowym rejestrem. Sam w sobie procesor graficzny Larrabee Intela był okazją dla firmy do niemałych szaleństw, bo był którymś z rzędu podejściem do podbicia graficznego rynku i przebicia się przez ofertę NVIDIA oraz AMD. Przez swój charakter, przypominający bardziej hybrydę procesora graficznego i wielordzeniowego procesora centralnego (CPU), miał być wykorzystywany w tych bardziej profesjonalnych zadaniach.

Oczywiście jak na GPU przystało, Larrabee obsługiwał tradycyjną grafikę rastrową w ramach API Direct3D, czy OpenGL. Jego wyjątkowość sprowadzała się do tego, że Intel połączył w jednym kawałku krzemu elementy CPU (związek z architekturą x86 i spójną hierarchię pamięci) z cechami charakterystycznymi dla GPU (512-bitowe jednostki wektorowe SIMD oraz te do próbkowania tekstur).

Czytaj też: Intel wycina siłą instrukcje AVX-512 z platform Alder Lake. Czy jest czego żałować?

Jak to możliwe? Już spieszymy z wyjaśnieniem, choć zaznaczam, że nigdy nie powinniśmy krytykować Intela za próbę postawienia na swoim i próbę opracowania czegoś nowego. Bez takiego podejścia nie ma bowiem szansy na rewolucje, a poniższy diagram co do tego, co miały łączyć w sobie układy Larrabee, świetnie wskazuje, że na papierze pomysł był świetny.

Larrabee był znacznym odejściem od procesorów Intela. Pomimo wykorzystywania rdzeni na bazie architektury x86 i to z wieloma podobieństwami względem ówczesnych Intel Core. GPU Larrabee obsługiwał czterokierunkową wielowątkowość i bazował na jawnych instrukcji kontroli pamięci podręcznej, wykorzystując 1024-bitową magistralę pierścieniową do komunikacji między rdzeniami i pamięcią.

Czytaj też: Dlaczego gramy w gry? Badanie odpowiada jacy są Polscy gracze

Swoją wydajność oddawał w ręce 512-bitowej jednostce przetwarzania wektorowej, która mogła jednocześnie zajmować się 16 liczbami zmiennoprzecinkowymi pojedynczej precyzji na raz. Jeśli z kolei idzie o różnice Larrabee względem powszechnie przyjętych procesorów graficznych, sprawa rozbijała się o trzy główne kwestie. Intel, chcąc zapewnić mu wyższą elastyczność i szersze zastosowanie, postawił na:

  • zestaw stricte procesorowych (CPU) instrukcji x86 ze specyficznymi rozszerzeniami
  • niewielką liczbę wyspecjalizowanych akceleratorów/koprocesorów, odpowiadających za sferę graficzną
  • spójność pamięci podręcznej we wszystkich rdzeniach

Warto tutaj wspomnieć, że procesor Larrabee wywodził się z układów Pentium, posiadając w pojedynczej matrycy do 32 rdzeni w układzie uporządkowanym z czterokierunkową wielowątkowością. Każdy rdzeń posiadał z kolei 512-bitową jednostkę przetwarzania wektorowego, a do komunikacji z pamięcią wykorzystywał dwukierunkową 512-bitową magistralę.

Czytaj też: Odkryto lukę bezpieczeństwa dysków SSD. Złośliwe oprogramowanie może nigdy nie zostać wykryte

Wedle konferencji Intela w 2008 roku, na której to przedstawiono Larrabee światu, programiści mogliby konkretnie ustawiać pożądane obciążenia dla każdego z 32 rdzeni. To miało zapewnić środowisku profesjonalnemu wyjątkowy koprocesor do obliczeń naukowych lub przetwarzania grafiki. Tak wyjątkowy, że Larrabee mógł robić to, co obecnie są w stanie dokonać karty GeForce RTX, czy nowsze Radeony – mowa o obsłużeniu Ray Tracingu w czasie rzeczywistym.

Droga Larrabee na rynek była wyboista i nigdy się nie skończyła

Rozpoczęty w 2006 roku projekt Larrabee zaliczył kilka kluczowych ogłoszeń, ale zdecydowanie najważniejszym dla graczy było wystąpienie Intela podczas SIGGRAPH 2008. Wtedy firma weszła w szczegóły działania procesora i pokazała, ile rdzeni wymaga ten procesor graficzny, aby uruchomić Gears of War, F.E.A.R i Half-Life 2: Episode 2 z 4-krotnym antyaliasingiem w 60 FPS i rozdzielczości 1600×1200. Na całe szczęście było to kolejno 25, 25 i 10 rdzeni, co nie wychodziło poza maksymalnie przewidziane w pierwszej generacji 32 rdzenie.

Czytaj też: Wydajność zużytego SSD. Wykończyliśmy dysk, żebyście Wy nie musieli

Niestety 4 grudnia 2009 roku Intel oficjalnie ogłosił, że pierwsza generacja Larrabee nie zostanie wydana w postaci karty graficznej z myślą o graczach przez opóźnienia w rozwoju sprzętu i oprogramowania. Dlatego Larrabee miało pozostać produktem przeznaczonym na rynek profesjonalny, co też się nie udało się, o czym dowiedzieliśmy się 25 maja 2010 roku. Wtedy Intel ogłosił, że Larrabee nie zostanie wydany jako procesor graficzny, ale jako produkt dla obliczeń o wysokiej wydajności, mający konkurować z akceleratorami Tesla od NVIDIA.

Tak też technologia Larrabee trafiła do działu superkomputerów Intela, który ostatecznie opracował akcelerator dla wysokowydajnych obliczeń pod nazwą kodową Knights Corner, a w 2012 roku w postaci koprocesorów Xeon Phi.