OpenAI szykuje własne procesory dla AI. Masowa produkcja już lada moment

Branża sztucznej inteligencji nie zwalnia tempa, a jednym z najciekawszych trendów ostatnich miesięcy stało się dążenie największych graczy do uniezależnienia od zewnętrznych dostawców sprzętu. Właśnie docierają do nas informacje, które mogą znacząco wpłynąć na przyszły kształt tego rynku. Okazuje się, że OpenAI, znane przede wszystkim z ChatGPT, planuje poważnie zainwestować we własną produkcję procesorów dedykowanych do zadań AI.
...

Kolejnym aspektem wartym uwagi jest strategiczne partnerstwo z Broadcom. Amerykański gigant półprzewodnikowy ma podobno otrzymać zamówienie o wartości 10 miliardów dolarów (około 36,4 mld zł) na wspólny projekt chipów. To kwota, która robi wrażenie nawet na tle największych inwestycji technologicznych ostatnich lat. Warto jednak podejść do tych doniesień z pewnym dystansem, bo jak pokazuje historia branży, nie wszystkie ambitne plany kończą się sukcesem.

Przechodząc do konkretów, własne układy AI opracowywane we współpracy z Broadcom mają służyć wyłącznie do użytku wewnętrznego OpenAI. Firma nie planuje ich komercyjnej sprzedaży, co sugeruje, że chodzi głównie o zabezpieczenie własnych potrzeb obliczeniowych. To całkiem rozsądne posunięcie, biorąc pod uwagę problemy z dostępnością procesorów graficznych, z którymi zmagała się branża w ostatnich latach.

Równie istotne jest to, że pierwsze sygnały o takich planach pojawiały się już w 2023 roku, gdy niedobory GPU wpływały na szybkość i niezawodność API OpenAI. Wtedy wiele firm zdało sobie sprawę, jak kruche są łańcuchy dostaw i jak bardzo zależą od jednego dominującego dostawcy. Teraz widać wyraźnie, że OpenAI postanowiło wziąć sprawy w swoje ręce.

Nie jest to zresztą pierwsze takie przedsięwzięcie firmy. Wcześniej współpracowała ona z Taiwan Semiconductor Manufacturing Co. nad specjalistycznymi rozwiązaniami sprzętowymi, choć obecny status tej współpracy nie jest do końca jasny. Patrząc na skalę inwestycji z Broadcom, można się domyślać, że to właśnie ten projekt stał się priorytetem.

Sam Altman zapowiedział niedawno, że flota obliczeniowa OpenAI ma się podwoić w ciągu najbliższych pięciu miesięcy. To ambitny plan, który wymaga ogromnych zasobów i sprawnej logistyki. Własne chipy mogłyby znacząco ułatwić realizację tego celu, eliminując jednocześnie ryzyko związane z zależnością od zewnętrznych dostawców.

Wprowadzane zmiany w zarządzaniu zasobami, gdzie płatni użytkownicy ChatGPT otrzymują priorytetowy dostęp, pokazują jak poważnie firma podchodzi do kwestii wydajności. Obciążenie serwerów rośnie w zastraszającym tempie i bez inwestycji w infrastrukturę dalszy rozwój mógłby stanąć pod znakiem zapytania.

Patrząc na szerszy kontekst, warto zauważyć, że OpenAI nie jest pierwszym gigantem technologicznym, który decyduje się na taki krok. Google od lat rozwija własne procesory Tensor, Apple inwestuje w chipy serii M, a teraz do tego grona dołącza kolejny poważny gracz. To może oznaczać stopniową zmianę paradygmatu w całej branży.

NVIDIA oczywiście nadal pozostaje niekwestionowanym liderem, o czym świadczy wzrost jej przychodów o 56% w drugim kwartale kończącym się 27 lipca w porównaniu z rokiem poprzednim. Boom na sztuczną inteligencję przynosi firmie wymierne korzyści, ale coraz więcej przedsiębiorstw zdaje sobie sprawę, że długaśna zależność od jednego dostawcy może być ryzykowna.

Czytaj też: Powstał nowy mózg sztucznej inteligencji. HRM bije ChatGPT w testach logiki i robi to przy ułamku mocy

Czy to oznacza, że era dominacji NVIDIA dobiega końca? Raczej nie, ale na horyzoncie widać wyraźnie, że konkurencja się zaostrza. Jeśli plany OpenAI się powiodą, a masowa produkcja własnych chipów rzeczywiście wystartuje w 2026 roku, możemy być świadkami interesujących zmian w całym ekosystemie. Pozostaje tylko pytanie, czy firma poradzi sobie z wyzwaniami produkcyjnymi i czy uda jej się osiągnąć zakładane oszczędności. Czas pokaże, ale na pewno warto obserwować tę sytuację z uwagą.