Gemini na Androidzie stał się znacznie bardziej praktyczny w codziennym użytkowaniu. Google po cichu dodał do swojego asystenta długo wyczekiwaną funkcję rozpoznawania muzyki, którą użytkownicy znali i cenili w Asystencie Google. To jedna z tych funkcji, której brak szczególnie doskwierał po przejściu z klasycznego Asystenta na nowszy Gemini.
Długo wyczekiwana funkcja wreszcie dotarła
Kiedy Gemini po raz pierwszy pojawił się na rynku, brakowało mu wielu funkcji, które użytkownicy uważali za oczywiste w Google Assistant. Rozpoznawanie muzyki było jedną z najbardziej dotkliwych absencji. Wcześniej, gdy zapytaliśmy Gemini o piosenkę, asystent odsyłał nas do innych aplikacji. Nie było to szczególnie wygodne, zwłaszcza gdy przyzwyczailiśmy się do tego, że Asystent Google potrafił bez problemu zidentyfikować praktycznie każdy utwór.
Teraz, jak donosi serwis 9to5Google, sytuacja się zmieniła. W ciągu ostatnich tygodni Gemini po cichu zyskał wbudowaną funkcję wyszukiwania piosenek, zamykając w ten sposób jedną z najważniejszych luk funkcjonalnych względem swojego poprzednika.
Jak to działa w praktyce?
Korzystanie z nowej funkcji jest dziecinnie proste. Wystarczy uruchomić Gemini i zadać pytanie “Jaka to piosenka?”. Asystent automatycznie przełączy się w tryb pełnoekranowy i poprosi o odtworzenie, zaśpiewanie lub zanucenie fragmentu utworu. Podczas nasłuchiwania na ekranie pojawi się charakterystyczna pulsująca kula, która sygnalizuje, że Gemini analizuje dźwięk przy użyciu algorytmów Google’a.
Co ciekawe, funkcja działa uniwersalnie – może rozpoznać piosenki odtwarzane w tle, z playlist, a nawet te nucone przez użytkownika. To oznacza, że wreszcie nie musimy korzystać z innych aplikacji, gdy słyszymy znajomą melodię w kawiarni, sklepie czy w radiu. Czy jest to jednak rozwiązanie doskonałe? Niekoniecznie.


Szansa zmarnowana?
Chociaż sama funkcja działa całkiem sprawnie, Google nie wykorzystał pełni potencjału tej implementacji. Zamiast płynnie zintegrować rozpoznawanie muzyki z interfejsem Gemini, asystent przekazuje kontrolę do aplikacji Google w trybie pełnoekranowego nasłuchiwania. Oznacza to, że nie jest to tak naprawdę natywna funkcja Gemini, a raczej most do już istniejących rozwiązań Google’a.
Rezultat? Doświadczenie użytkownika nie jest tak płynne, jak mogłoby być. Szczególnie widać to w porównaniu z funkcją Now Playing dostępną w smartfonach Pixel, która wciąż pozostaje złotym standardem w tej kategorii. Now Playing działa w tle, automatycznie rozpoznaje muzykę i wyświetla informacje o utworze bezpośrednio na ekranie blokady. Co więcej, funkcja ta działa offline, co jest znaczącą przewagą nad rozwiązaniem Gemini, które wymaga połączenia z internetem.
Nie wszystko jest idealne
Kolejnym problemem jest sposób prezentacji wyników. Zamiast wyświetlać informacje o rozpoznanej piosence bezpośrednio w rozmowie z Gemini, asystent przekierowuje użytkownika na stronę wyszukiwarki Google. To znacząco psuje płynność doświadczenia i sprawia, że korzystanie z funkcji wydaje się mniej zintegrowane niż w przypadku tradycyjnego Google Assistant, który potrafił dostarczyć odpowiedź w ramach jednego interfejsu.
Takie rozwiązanie może frustrować użytkowników, którzy oczekują, że Gemini będzie działał jak prawdziwy asystent konwersacyjny. Przerwanie rozmowy w celu przekierowania do przeglądarki łamie naturalny rytm interakcji i sprawia, że cały proces wydaje się mniej intuicyjny.
Konkurencja nie śpi
Warto pamiętać, że Google nie jest jedynym graczem na rynku rozpoznawania muzyki. Aplikacje takie jak Shazam czy SoundHound od lat oferują podobne funkcje, często z lepszą integracją i szybszymi wynikami. Shazam, przejęty przez Apple, jest szczególnie ceniony za szybkość działania i rozbudowaną bazę danych utworów.
Pytanie brzmi: czy Google zdoła wykorzystać swoje możliwości technologiczne, aby przewyższyć konkurencję? Na razie trudno mówić o przełomie, ale sam fakt dodania tej funkcji do Gemini to krok w dobrą stronę.
Kiedy trafi na iOS?
Na razie nowa funkcja dostępna jest wyłącznie w aplikacji Gemini na Androidzie. Google nie podał oficjalnych informacji o planach wprowadzenia rozpoznawania muzyki na iOS, ale prawdopodobnie to kwestia czasu i postępującego wdrażania funkcji na kolejnych platformach. Znając politykę Google’a, można oczekiwać, że użytkownicy iPhone’ów nie będą musieli czekać zbyt długo.
Ciekawostką jest fakt, że Google często testuje nowe funkcje najpierw na Androidzie, a dopiero później przenosi je na inne platformy. W przypadku tak podstawowej funkcji jak rozpoznawanie muzyki, opóźnienie nie powinno się przedłużać.
Czy to wystarczy?
Dodanie rozpoznawania muzyki to kolejny krok Google’a w kierunku uczynienia Gemini pełnoprawnym następcą Google Assistant. Firma systematycznie dodaje brakujące funkcje, starając się przekonać użytkowników do przejścia na nowszą platformę. Czy jednak te wysiłki przyniosą oczekiwane rezultaty?
Problemem może być fakt, że Google Assistant nadal oferuje bardziej dopracowane doświadczenie w wielu obszarach. Użytkownicy, którzy przeszli z Asystenta na Gemini, często narzekają na brak funkcji, które uważali za oczywiste. Rozpoznawanie muzyki to jedna z tych funkcji, ale lista braków jest znacznie dłuższa.
Z drugiej strony, Gemini oferuje znacznie lepsze możliwości konwersacyjne i generowania treści dzięki wykorzystaniu najnowszych modeli językowych Google’a. To może być argumentem przemawiającym za przejściem na nowszą platformę, szczególnie dla użytkowników, którzy cenią sobie możliwość prowadzenia bardziej naturalnych rozmów z asystentem.
Czytaj też: Google rozszerza rodzinę Gemini 2.5 o nowy model. Będzie najtańszy, ale czy też najlepszy?
Choć implementacja wymaga jeszcze dopracowania, sam fakt, że funkcja w końcu się pojawiła, z pewnością ucieszy wielu użytkowników Androida. Pozostaje mieć nadzieję, że Google będzie kontynuował prace nad integracją i ulepszaniem doświadczenia użytkownika.