Kiedy ostatnio poprosiłeś aplikację o to, żeby ktoś na zdjęciu się uśmiechnął – i faktycznie to zrobił? Google Photos właśnie wchodzi w ten obszar bez pytania o pozwolenie.
Google dorzuca do Zdjęć sześć nowych sztuczek z AI: od personalizowanych poprawek twarzy i edycji „na głos”, po gotowe szablony i stylizacje napędzane modelem Nano Banana. Do tego dochodzi sensowna nowość w wyszukiwaniu: po prostu mówisz, czego szukasz, a aplikacja ma zrozumieć kontekst. Efekt? Mniej suwaczków, więcej „powiedz, czego chcesz”.
To ważne, bo Zdjęcia Google są dziś dla wielu domyślnym archiwum życia. Kiedy narzędzie pamięci zaczyna generować nowe wersje wspomnień, stawką jest nie tylko wygoda edycji. To pytanie o granice „pamięci cyfrowej”: czy akceptujemy zdjęcia poprawione tak, jakby świat był odrobinę lepiej ustawiony pod nas?
Nowy zestaw sztuczek wygląda tak.
Poprawiamy ludzi… ludźmi
Najgłośniejsza funkcja to personalizowane edycje twarzy. Masz kogoś w okularach przeciwsłonecznych, ktoś inny mrugnął, a dziecko nie złapało uśmiechu? Wybierasz zdjęcie, stukasz „Pomóż mi edytować” i piszesz: „Zdejmij okulary Riley, otwórz mi oczy, spraw, by Engel się uśmiechnęła i otwórz jej oczy”. Zdjęcia użyją prywatnych grup twarzy z twojej biblioteki, żeby wygenerować możliwie wiarygodne poprawki. Brzmi jak magia, ale to po prostu uczenie maszynowe, które zna te twarze, bo widziało je na dziesiątkach kadrów. Tak, to korzysta z twoich danych – i tak, to wywoła dyskusje o tym, gdzie naturalna pamiątka kończy się, a zaczyna kreacja.
Edycja „powiedz i zrobione”, także na iOS
Google od miesięcy testował edycję „na prośbę” na Pixelach. Teraz rozpycha się szerzej: na iOS w USA zaczyna się rollout opcji, w której opisujesz, co chcesz osiągnąć – tekstem albo głosem – a edytor robi resztę. Koniec z przeskakiwaniem między narzędziami i mikrokręceniem suwakami. Mówisz: „rozmyj tło i podbij kolory nieba”, i… gotowe. Razem z tym na iOS trafia przeprojektowany edytor z prostszymi kontrolkami, więc wejście w tę całą „promptową” zabawę ma być mniej straszne dla kogoś, kto z Lightroomem nie jest na „ty”. [1]
Przycisk „Zapytaj” – nie tylko o edycję
W interfejsie pojawia się „Zapytaj” (Ask). To ten sam duch: zamiast szukać opcji, zadajesz pytanie albo formułujesz prośbę. „Usuń odbicie w okularach”, „przesuń kubek w lewo”, „dlaczego zdjęcie jest takie ciemne?” – i dostajesz albo automatyczną poprawkę, albo podpowiedź, co klikasz dalej. To mały detal, ale właśnie takie detale decydują, czy AI faktycznie upraszcza życie, czy dokleja kolejny panel i 15 minut zastanawiania się „gdzie to było”.
Szablony AI: szybkie kreacje bez grafika
Dalej są szablony AI do tworzenia nowych wersji zdjęć. Chcesz zrobić pocztówkę z wakacji, zaproszenie albo okładkę „pseudo-magazynu” z twoim psem jako gwiazdą numeru? Wybierasz template, aplikacja podpowiada kompozycję, tekst, tło – a ty zatwierdzasz lub poprawiasz. Dla wielu to będzie pierwszy realny kontakt z „tworzeniem” obrazów bez poczucia, że trzeba mieć pół semestru designu za sobą.
Nano Banana: renesans w jednym stuknięciu
Sercem tych popisów jest Nano Banana – model edycji obrazów z rodziny Gemini, który Google właśnie wbudował w Zdjęcia. Dzięki niemu możesz „przerysować” zdjęcie w stylu renesansowego portretu albo pasków komiksowych. To nie jest filtr upiększający 2.0, to generatywna przebudowa stylu, która próbuje zachować tożsamość sceny. Raz wyjdzie spektakularnie, raz kiczowato – jak to w sztuce. Ale mieć tę opcję pod ręką, to jak trzymać w kieszeni małego ilustratora na telefonicznym etacie.
Pytaj o wspomnienia jak o ludzi
Na koniec wyszukiwanie. Google rozszerza naturalne wyszukiwanie i „Ask Photos” na ponad 100 krajów. Zamiast wpisywać „plaża 2023”, możesz napisać: „Pokaż zdjęcia z zeszłego lata, kiedy byliśmy na szlaku z Anią i psem, kiedy padało”. AI rozpoznaje kontekst: osoby, miejsca, aktywności, a nawet wyłuskuje teksty z kadrów (paragony, plakaty, hasła do Wi‑Fi). Brzmi prosto, ale to zmienia relację z biblioteką: nie musisz pamiętać albumów i tagów – wystarczy pamiętać historię.
Dlaczego to wszystko ma znaczenie
Te nowości składają się na jedną tezę: edycja i wyszukiwanie wchodzi w etap „powiedz, czego chcesz”. Google Photos nie próbuje nauczyć cię narzędzi – to narzędzia uczą się ciebie. Jasne, Apple, Adobe i reszta też pchają AI w obraz, ale to Google ma miliardy zdjęć w jednej aplikacji i wystarczająco długi trening z rozpoznawaniem scen, by robić to bez bólu. Właśnie dlatego te zmiany nie są tylko „fajerwerkami”, tylko realną zmianą zachowania masowego użytkownika. [2]
Fakty, które warto znać
- Personalizowane edycje twarzy używają twoich prywatnych grup twarzy, by tworzyć wiarygodne poprawki (ściąganie okularów, otwieranie oczu, wymuszanie uśmiechu).
- Edycja opisowa i przeprojektowany edytor trafiają na iOS (na start w USA); wcześniej debiut na Pixelach.
- Pojawia się przycisk „Zapytaj” do pytań o zdjęcie i żądań edycji.
- AI templates ułatwiają szybkie tworzenie nowych wersji kadrów bez ręcznej zabawy warstwami.
- Model Nano Banana umożliwia stylizacje w trybie „renesans”, „komiks” i inne kreatywne wariacje.
- Naturalne wyszukiwanie i „Ask Photos” rozszerzają zasięg na ponad 100 krajów.
Parametry i technikalia: firma nie podaje publicznie wielkości modelu (mld), kontekstu tokenów ani wyników benchmarków. Brak też szczegółów o licencjonowaniu i wymaganiach sprzętowych po stronie użytkownika – część funkcji działa w aplikacji, część w chmurze.
Małe zastrzeżenie? Te funkcje „naprawiają” rzeczywistość równie łatwo, jak ją dokumentują. Jeśli pamięć ma być bez skaz, może stracimy trochę prawdy. Z drugiej strony – ilu z nas nie prosiło nigdy fotografa: „Jeszcze raz, tylko tym razem się uśmiechnij”? To po prostu kolejny etap tego samego rytuału, tyle że bez powtórki.
Na koniec
Jeśli Google zrobił to, co zwykle – schował mocne technologie za prostymi słowami – większość z nas zacznie edytować częściej, lepiej i szybciej. Pytanie nie brzmi już: „Czy AI w foto ma sens?”, tylko: „Ile jeszcze zostanie w albumie kadrów, których nie poprawimy?”. Może warto zostawić kilka mrugnięć i krzywych uśmiechów – dla równowagi.




