Gemini, Zdjęcia Google i Personal Intelligence
Dzięki wykorzystaniu najnowszego modelu Nano Banana 2, sztuczna inteligencja nie musi już zgadywać, jak wyglądamy my, nasza rodzina czy ulubiony pies. Zamiast pisać długie, skomplikowane prompty i ręcznie przesyłać zdjęcia referencyjne, możemy teraz poprosić o stworzenie personalizowanej grafiki jednym krótkim zdaniem.
Kluczem do nowej funkcjonalności jest usługa Personal Intelligence. Jeśli mamy połączone konto Zdjęcia Google z Gemini, asystent zyskuje wgląd w kontekst naszego życia, co drastycznie skraca drogę od pomysłu do gotowego obrazu. Wcześniej, aby uzyskać portret siebie w stylu fantasy, musielibyśmy opisać swój wygląd w najdrobniejszych szczegółach lub mozolnie wgrywać fotki pomocnicze. Teraz Gemini po prostu „wie”, o kogo chodzi.
Działa to na zasadzie intuicyjnych skrótów myślowych. Możemy wydać polecenie typu: „zaprojektuj mój dom marzeń” lub „stwórz obraz rzeczy, bez których nie przeżyłbym na bezludnej wyspie”. Algorytm Nano Banana 2 przeanalizuje nasze gusta, styl życia i preferencje zapisane w cyfrowych śladach, tworząc grafikę, która faktycznie do nas pasuje. Nie jest to już tylko losowy dom, ale budynek odzwierciedlający estetykę, którą AI wyczytało z zapisanych zdjęć architektury czy wnętrz.
Czytaj też: Apple Intelligence w iOS 27. Cztery nowości, które realnie ułatwią Ci życie
Największa zabawa zaczyna się jednak przy zdjęciach grupowych. Jeśli korzystacie z funkcji oznaczania twarzy w Zdjęciach Google, Gemini bez trudu rozpozna członków rodziny czy przyjaciół. Chcesz zobaczyć swoją ekipę w świecie plastelinowej animacji? Wystarczy prompt: „stwórz obraz w stylu claymation przedstawiający mnie i moją rodzinę podczas naszej ulubionej aktywności”.
Sztuczna inteligencja samodzielnie zidentyfikuje osoby z naszego „wewnętrznego kręgu” i połączy je z czynnością, którą najczęściej wykonujemy (np. jazdą na rowerze czy wspólnym grillowaniem). Możemy eksperymentować z dowolnymi stylami – od akwareli, przez szkice węglowe, aż po klasyczne malarstwo olejne. Wszystko to bez pobierania plików, zmieniania ich formatów i ponownego wgrywania do czatu. Gemini staje się osobistym grafikiem, który ma dostęp do rodzinnego albumu.
Czytaj też: Koniec z męczącym szukaniem tanich lotów. ChatGPT zrobi to teraz za Ciebie
Google jednak lojalnie uprzedza, że to nowa technologia i Gemini „może nie zawsze trafić w dziesiątkę przy pierwszej próbie”. Jeśli AI wybierze niewłaściwe zdjęcie referencyjne lub pomyli szczegóły, można po prostu napisać, co jest nie tak, a model skoryguje wynik. Dodatkowo, przyciski „Źródła” pozwalają sprawdzić, które konkretnie zdjęcia z galerii posłużyły za inspirację dla danej grafiki.
Czytaj też: Huawei Watch Fit 5 i 5 Pro bez tajemnic. Czym tym razem zaskoczy nas producent?
Jeśli natomiast martwicie się o prywatność, to gigant z Mountain View obiecuje, że nie będzie wykorzystywał naszych prywatnych zdjęć do szkolenia swoich modeli. Proces generowania obrazu wykorzystuje bibliotekę jako kontekst „tu i teraz”, a do ulepszania samego modelu wykorzystywane są jedynie ograniczone informacje, takie jak treść promptów i odpowiedzi asystenta. Cała funkcja jest opcjonalna i wymaga wyraźnej zgody użytkownika w ustawieniach. Na ten moment nowość trafia do subskrybentów planów Google AI Plus, Pro oraz Ultra w USA, ale wkrótce ma pojawić się również w wersji na desktopy oraz w innych regionach.
Źródło: Google
