Wyszukiwarka Google zajrzy do Twoich zdjęć i maili. Po co?

Google od lat dąży do tego, aby wyszukiwarka nie była tylko cyfrową encyklopedią, ale realnym asystentem, który zna nasze potrzeby. Po niedawnym debiucie funkcji „Personal Intelligence” wewnątrz Gemini, gigant z Mountain View idzie o krok dalej.
Wyszukiwarka Google
...

Firma ogłosiła, że ta sama personalizacja trafia bezpośrednio do trybu AI Mode w wyszukiwarce Google. Zmiana ta sprawia, że algorytmy przestają bazować wyłącznie na globalnej wiedzy, a zaczynają łączyć kropki między Twoimi prywatnymi aplikacjami, takimi jak Gmail czy Zdjęcia Google. To duża zmiana – wyszukiwarka nie wyświetli już tylko ogólnych wyników, ale dostosuje je do tego, co masz w skrzynce odbiorczej lub w bibliotece zdjęć.

Inteligentne zakupy i planowanie podróży bez zbędnych pytań w wykonaniu Google’a

Głównym celem wprowadzenia Personal Intelligence do Trybu AI jest oszczędność naszego czasu. Zamiast wpisywać długie prompty wyjaśniające nasze preferencje, model Gemini 3 sam wyciągnie wnioski z Twojego cyfrowego życia. Funkcja ta działa opcjonalnie jako eksperyment w ramach Google Labs, co oznacza, że to użytkownik musi świadomie wyrazić zgodę na takie połączenie danych.

Tylko jak to ma w ogóle wyglądać?

  • Personalny asystent zakupowy: Szukasz nowej kurtki na wyjazd do Chicago w marcu? AI Mode sprawdzi Twoje potwierdzenie lotu w Gmailu, sprawdzi pogodę na miejscu i zasugeruje modele wiatroszczelne od marek, które regularnie kupujesz.
  • Planer wycieczek rodzinnych: Szukasz miejsca na obiad podczas urlopu? System przeanalizuje rezerwację hotelu w mailach i przejrzy Twoje zdjęcia z poprzednich wakacji. Jeśli algorytm zauważy mnóstwo „lodowych selfie”, w planie zwiedzania na pewno znajdzie się klimatyczna lodziarnia.
  • Kreatywne zapytania: Możesz zadawać pytania typu „gdyby moje życie było filmem, jaki miałoby tytuł?” – system odpowie na podstawie zgromadzonej w zdjęciach i korespondencji historii Twojego życia.

Jeśli już marzycie, by to wypróbować, od razu zaznaczam — funkcja ta jest obecnie dostępna dla subskrybentów planów Google AI Pro oraz Google AI Ultra, obsługujących język angielski na terenie USA. Nie jest ona przeznaczona dla kont biznesowych czy edukacyjnych, a jedynie dla użytkowników prywatnych. Niestety więc, na dostępność u nas trzeba będzie jeszcze długo poczekać.

Prywatność pod lupą, czyli co Google o nas wie?

Wprowadzenie AI do prywatnych zasobów zawsze budzi bardzo uzasadnione pytania o bezpieczeństwo. Google zapewnia, że proces ten zaprojektowano z myślą o pełnej kontroli użytkownika. To Ty decydujesz, czy chcesz połączyć swoje Workspace i Zdjęcia Google w ustawieniach personalizacji wyszukiwania i tak samo, w każdym momencie możemy je wyłączyć.

Czytaj też: YouTube staje się nową telewizją. Tyle że z AI, dubbingiem i kontrolą, jakiej kablówka nie miała

Najważniejszą informacją dla sceptyków jest fakt, że Google nie trenuje swoich modeli bezpośrednio na treści naszych maili czy zdjęć. System Gemini 3 korzysta z nich jedynie jako kontekstu w czasie rzeczywistym. Trening modelu ogranicza się wyłącznie do anonimizowanych danych, takich jak konkretne zapytania w Trybie AI oraz odpowiedzi modelu, co ma służyć poprawie funkcjonalności asystenta w przyszłości. Warto jednak pamiętać, że systemy te nie są nieomylne – jeśli rekomendacja będzie chybiona, Google zachęca do korygowania AI poprzez feedback w aplikacji.

Czytaj też: ChatGPT z reklamami. To nowy rozdział w dostępie do sztucznej inteligencji

Choć na razie funkcja ta jest w fazie Labs i dostęp do niej mają nieliczni, jasno pokazuje ona przyszłość interakcji z siecią. Przestajemy szukać informacji „ogólnych”, a zaczynamy szukać informacji o nas samych w świecie zewnętrznym. Czas pokaże, jak szybko te innowacje trafią do użytkowników w innych regionach i czy korzyści z takiej wygody przeważą nad obawami o prywatność.