Windows 11 dostanie mocnego kopa. Wszystko dzięki Nvidii oraz sztucznej inteligencji

Na cyklicznej imprezie Ignite Microsoft zaprezentował TensorRT-LLM dla układów RTX. Opracowany we współpracy z Nvidią model językowy powinien aż pięciokrotnie usprawnić działanie sztucznej inteligencji, dając odczuwalne przyśpieszenie narzędziom Windows 11. Każdy może otrzymać go już 21 listopada, są jednak pewne warunki.
TensorRT LLM w Windows 11
TensorRT LLM w Windows 11

Jak podano szacunkowo, z nowego rozwiązania będzie mogło skorzystać ponad 100 mln maszyn na całym świecie. Być może kwalifikuje się do tego także Twój komputer z systemem Windows. Jakie warunki musi spełniać urządzenie i co daje nowa technologia? Na szczęście nie jesteśmy zdani na domysły. Wszystko zostało oficjalnie ogłoszone.

Który Windows 11 dostanie lepszą SI?

TensorRT-LLM to duży model językowy, który działa lokalnie – a więc nie w chmurze – co zaoszczędza czasu związanego z obróbką i transferem danych. Model ten wykorzystuje m.in. technologię RAG (Retrieval Augamanted Generation), umożliwiającą na bardziej precyzyjne działania przy wykorzystaniu danych zgromadzonych lokalnie. Pojawi się wraz z nowymi sterownikami już 21 listopada, a będą mogli skorzystać z niego zarówno użytkownicy desktopów, jak i laptopów używający kart GeForce RTX 30 i 40. Jest jednak pewien warunek – muszą być to edycje mające minimum 8 GB pamięci VRAM.

Aktualizacja wejdzie do wszystkich edycji systemu – co jest oczywiste, ponieważ nie jest ona powiązana z samym Windowsem, a układami Nvidii. Tu przy okazji dodam, że obaj producenci ogłosili przy okazji także ulepszenia DirectML dla popularnych modeli SI – Llama 2 i Stable Diffusion. A na co konkretnie wpłynie zmiana w Windows 11? Jako że sztuczną inteligencję można zastosować na wielu polach, Microsoft przygotował poniższą prezentację, która oddaje istotę rzeczy. Choć przeznaczona jest dla iPhone’a, to samo będzie w Windowsie.

TensorRT-LLM w Windows 11

Czytaj też: Zdjęcia w Windows 11 będą zasilone przez sztuczną inteligencję. Co to da w praktyce?

Jak poinformowała Nvidia, z modelem TensorRT-LLM v0.6.0 wydajność wzrośnie aż pięciokrotnie. Ponadto w przyszłości model ten pozwoli na korzystanie z dodatkowych LLM-ów, jak Mistral 7B czy Nemotron 3 8B. Ale i na tym nie koniec nowości. Nvidia wraz z Microsoftem pracują nad interfejsem API dla OpenAI – jego nazywa to po prostu ChatAPI – który nie tylko usprawni współpracę z TensorRT na Windows 11, ale również pozwoli na stworzenie workflow łączącego dane na lokalnym dysku i w chmurze. W praktyce nie potrzeba będzie ładowania całego zbioru danych – będą one dostępne w każdej chwili. Oczywiście pod warunkiem, że maszyna ma połączenie z siecią.

Windows 11 i SI

Najwięcej z TensorRT-LLM skorzystają oczywiście firmy oraz korporacje, które zajmują się obrabianiem dużych ilości danych. Jednak także każda osoba prywatna będzie mogła w pełni doświadczyć możliwości dawanych przez ten model SI do swoich własnych zastosowań. Ja zaś spodziewam się, że w Windows 12 (który wciąż jest teoretyczny) nie tylko pojawi się to właśnie rozwiązanie, ale będzie ono także znacznie bardziej rozbudowane. Póki co jednak zaczekajmy, aż Nvidia opublikuje nowe sterowniki.

Napisane przez

Henryk Tur

Redaktor