
Firma ogłosiła, że ta sama personalizacja trafia bezpośrednio do trybu AI Mode w wyszukiwarce Google. Zmiana ta sprawia, że algorytmy przestają bazować wyłącznie na globalnej wiedzy, a zaczynają łączyć kropki między Twoimi prywatnymi aplikacjami, takimi jak Gmail czy Zdjęcia Google. To duża zmiana – wyszukiwarka nie wyświetli już tylko ogólnych wyników, ale dostosuje je do tego, co masz w skrzynce odbiorczej lub w bibliotece zdjęć.
Inteligentne zakupy i planowanie podróży bez zbędnych pytań w wykonaniu Google’a
Głównym celem wprowadzenia Personal Intelligence do Trybu AI jest oszczędność naszego czasu. Zamiast wpisywać długie prompty wyjaśniające nasze preferencje, model Gemini 3 sam wyciągnie wnioski z Twojego cyfrowego życia. Funkcja ta działa opcjonalnie jako eksperyment w ramach Google Labs, co oznacza, że to użytkownik musi świadomie wyrazić zgodę na takie połączenie danych.
Tylko jak to ma w ogóle wyglądać?
- Personalny asystent zakupowy: Szukasz nowej kurtki na wyjazd do Chicago w marcu? AI Mode sprawdzi Twoje potwierdzenie lotu w Gmailu, sprawdzi pogodę na miejscu i zasugeruje modele wiatroszczelne od marek, które regularnie kupujesz.
- Planer wycieczek rodzinnych: Szukasz miejsca na obiad podczas urlopu? System przeanalizuje rezerwację hotelu w mailach i przejrzy Twoje zdjęcia z poprzednich wakacji. Jeśli algorytm zauważy mnóstwo „lodowych selfie”, w planie zwiedzania na pewno znajdzie się klimatyczna lodziarnia.
- Kreatywne zapytania: Możesz zadawać pytania typu „gdyby moje życie było filmem, jaki miałoby tytuł?” – system odpowie na podstawie zgromadzonej w zdjęciach i korespondencji historii Twojego życia.
Jeśli już marzycie, by to wypróbować, od razu zaznaczam — funkcja ta jest obecnie dostępna dla subskrybentów planów Google AI Pro oraz Google AI Ultra, obsługujących język angielski na terenie USA. Nie jest ona przeznaczona dla kont biznesowych czy edukacyjnych, a jedynie dla użytkowników prywatnych. Niestety więc, na dostępność u nas trzeba będzie jeszcze długo poczekać.
Prywatność pod lupą, czyli co Google o nas wie?
Wprowadzenie AI do prywatnych zasobów zawsze budzi bardzo uzasadnione pytania o bezpieczeństwo. Google zapewnia, że proces ten zaprojektowano z myślą o pełnej kontroli użytkownika. To Ty decydujesz, czy chcesz połączyć swoje Workspace i Zdjęcia Google w ustawieniach personalizacji wyszukiwania i tak samo, w każdym momencie możemy je wyłączyć.
Czytaj też: YouTube staje się nową telewizją. Tyle że z AI, dubbingiem i kontrolą, jakiej kablówka nie miała
Najważniejszą informacją dla sceptyków jest fakt, że Google nie trenuje swoich modeli bezpośrednio na treści naszych maili czy zdjęć. System Gemini 3 korzysta z nich jedynie jako kontekstu w czasie rzeczywistym. Trening modelu ogranicza się wyłącznie do anonimizowanych danych, takich jak konkretne zapytania w Trybie AI oraz odpowiedzi modelu, co ma służyć poprawie funkcjonalności asystenta w przyszłości. Warto jednak pamiętać, że systemy te nie są nieomylne – jeśli rekomendacja będzie chybiona, Google zachęca do korygowania AI poprzez feedback w aplikacji.
Czytaj też: ChatGPT z reklamami. To nowy rozdział w dostępie do sztucznej inteligencji
Choć na razie funkcja ta jest w fazie Labs i dostęp do niej mają nieliczni, jasno pokazuje ona przyszłość interakcji z siecią. Przestajemy szukać informacji „ogólnych”, a zaczynamy szukać informacji o nas samych w świecie zewnętrznym. Czas pokaże, jak szybko te innowacje trafią do użytkowników w innych regionach i czy korzyści z takiej wygody przeważą nad obawami o prywatność.