Beta iOS 26 ujawnia nowy gest dla AirPodsów. To będzie rewolucja

Apple, wprowadzając podczas konferencji WWDC25 funkcję Live Translation (Tłumaczenie na żywo), zapowiedział jej integrację z FaceTime, połączeniami telefonicznymi i wiadomościami. Teraz okazuje się, że gigant z Cupertino ma w planach jeszcze jedno, przełomowe zastosowanie – tłumaczenie w czasie rzeczywistych rozmów, bezpośrednio przez słuchawki AirPods. Najnowsza wersja beta systemu iOS 26 ujawniła systemowy obrazek, który sugeruje, że ta innowacyjna funkcja będzie aktywowana za pomocą nowego gestu.
Zdjęcia: Arkadiusz Dziermański

Zdjęcia: Arkadiusz Dziermański

iOS 26 z nową funkcją dla AirPodsów

Testowe wersje systemu iOS potrafią zaskakiwać, a najnowsze odkrycie w kodzie iOS 26 beta zapowiada coś naprawdę interesującego. Wygląda na to, że Apple pracuje nad funkcją, która mogłaby zmienić sposób komunikacji między osobami mówiącymi różnymi językami. W zasobach szóstej wersji beta dla deweloperów pojawiły się elementy wskazujące na nową możliwość dla użytkowników AirPodsów. Chodzi o funkcję tłumaczenia konwersacji w czasie rzeczywistym, aktywowaną fizycznym gestem.

Czytaj też: Galaxy S26 Edge będzie jeszcze smuklejszy, ale bateria urośnie

Mechanizm ma działać po równoczesnym naciśnięciu obu nóżek słuchawek. W materiałach systemowych widoczne są przykłady w czterech językach: angielskim, portugalskim, francuskim i niemieckim. Całość jest zintegrowana z natywną aplikacją Tłumacz. Funkcja będzie dostępna tylko w najnowszych modelach – AirPods Pro drugiej generacji oraz czwartej generacji podstawowych AirPodsów. Starsze wersje prawdopodobnie nie spełnią wymagań sprzętowych.

Czytaj też: CarPlay w iOS 26 rozwiąże największy koszmar kierowców. Przychodzące połączenia już nie zasłonią nawigacji

Tłumaczenie na żywo w realnych rozmowach to naturalne rozszerzenie funkcji zapowiedzianych wcześniej dla komunikacji online. Jest to również bardzo użyteczna funkcja dla urządzeń noszonych, co widzieliśmy już w przypadku konkurencyjnych produktów, takich jak okulary Meta Ray-Bans.

Nie wiadomo też, które modele iPhone’ów będą wspierały ten gest, ponieważ to właśnie one będą odpowiadać za przetwarzanie tłumaczenia. Można jednak przypuszczać, że wymagania sprzętowe będą podobne do tych, które obowiązują w przypadku innych funkcji Live Translation:

  • Tłumaczenie w Wiadomościach — wymaga włączonej sztucznej inteligencji Apple Intelligence na kompatybilnym iPhonie, iPadzie lub Macu.
  • Tłumaczenie w Połączeniach — dostępne w rozmowach jeden na jeden na urządzeniach z włączoną Apple Intelligence.

Dotychczasowe rozwiązania językowe Apple obejmowały tłumaczenia wiadomości tekstowych w dziewięciu językach oraz rozmów podczas połączeń FaceTime i telefonicznych w pięciu językach. Brakowało jednak opcji dla zwykłych, bezpośrednich konwersacji. Ta luka może zostać właśnie wypełniona właśnie dzięki tej funkcji, ale nie ma co się łudzić, że gigant doda polską wersję językową. Apple Intelligence wciąż jej nie dostało i raczej nieprędko się to zmieni.

Czytaj też: OnePlus 13 zyskuje funkcję „AI Perfect Shot” – koniec ze zmrużonymi oczami na zdjęciach

Mimo wszystko, dla osób, które płynnie mówią po angielsku, może być to świetne narzędzie do przełamywania barier językowych podczas podróży. Oczywiście, o ile nasz rozmówca będzie posługiwał się jednym z obsługiwanych języków. Nowość powinna trafić do użytkowników razem z iOS 26, chociaż nie mamy jeszcze pewności, czy stanie się to w pierwszej wersji, czy może dopiero w którymś z kolejnych wydań.