Czy twoja sztuczna inteligencja może wreszcie przestać udawać, że zna cię tylko z imienia? Google twierdzi, że tak – i daje Gemini nową supermoc: Personal Intelligence.
Gemini właśnie dostał opcjonalną warstwę, która łączy twoje usługi Google (Gmail, Zdjęcia, Wyszukiwarka, YouTube) w jeden kontekst dla odpowiedzi. Efekt: zamiast „uniwersalnych” porad, dostajesz wskazówki skrojone pod ciebie, twoją historię i nawyki. Start w USA, na razie w becie, dla subskrybentów Google AI Pro i AI Ultra – i tylko po włączeniu przez użytkownika.
To ważne, bo AI bez kontekstu to jak GPS bez danych o ruchu – niby jedzie, ale często w korku. Personal Intelligence jest kolejnym krokiem w stronę agentów, którzy rozumieją twoją sytuację i działają proaktywnie. Google nazywa to „fundamentalną zmianą” i nieprzypadkowo: chodzi nie tylko o pamięć, ale o rozumowanie na żywych danych z twojego ekosystemu. [1]
O co chodzi
Dotąd Gemini (wcześniej Bard) potrafił coś wyciągnąć z Gmaila czy Zdjęć Google, jeśli wyraźnie o to poprosiłeś. Teraz potrafi sam połączyć kropki i „przeskakiwać” między źródłami. Przykład, którym chwali się Google: stoisz w kolejce do serwisu opon, nie pamiętasz rozmiaru ani numeru rejestracyjnego. Asystent wyciąga specyfikację z e-maili, numer z fotki tablicy w Zdjęciach, a do tego proponuje konkretny typ opon – bo widzi, że często jeździcie rodzinnie, więc sensowne są all-weather – i dorzuca ceny z ocenami. Podobnie z podróżami: zamiast listy top 10 z bloga, dostajesz trasę i atrakcje pasujące do twoich realnych preferencji, odczytanych z korespondencji i zdjęć. [1][2]
Dlaczego to istotne
To nie kolejny „tryb AI” do generowania ładnych akapitów. Sedno to personalizacja w działaniu: rozumowanie na wielu prywatnych źródłach jednocześnie i wyłuskanie konkretów, kiedy o nie prosisz. Jak ujął to Josh Woodward z Google, Personal Intelligence ma dwie główne supermoce: potrafi łączyć złożone źródła oraz wyciągać detale z e-maila czy zdjęcia, by odpowiedzieć na pytanie. Upraszczając: mniej promptowania, więcej sensownych odpowiedzi. [1][2]
Jak to działa i jakie są ograniczenia
Personal Intelligence jest wyłączone domyślnie. W aplikacji Gemini (Android, iOS, przeglądarka) wybierasz, czy i które usługi łączysz. Google podkreśla kilka zasad: [1][2]
- Tylko gdy ma to pomóc. Asystent korzysta z Personal Intelligence wtedy, kiedy uzna, że to zwiększy trafność odpowiedzi, nie „dla sportu”. [1][2]
- Prywatność i kontrola. Możesz odłączyć aplikacje i wyczyścić historię rozmów w każdej chwili.
- Szkolenie modeli. Google mówi wprost: Gemini nie trenuje bezpośrednio na zawartości twojego Gmaila czy biblioteki Zdjęć. Do ulepszania używa m.in. samych promptów i odpowiedzi, po przefiltrowaniu danych osobistych. Innymi słowy: zdjęcia tablicy rejestracyjnej służą do udzielenia odpowiedzi teraz, nie do karmienia modelu na przyszłość. [3]
- Wrażliwe tematy. Asystent ma „barierki” – nie będzie proaktywnie wyciągał wniosków o zdrowiu i innych delikatnych sprawach, choć porozmawia o nich, jeśli zapytasz.
Jest też kubełek zimnej wody. Google przyznaje, że mimo testów mogą zdarzać się błędy lub „nadpersonalizacja”, czyli łączenie niepowiązanych faktów. Problemy z czasem i niuansami – np. zmiany w relacjach – też bywają zdradliwe. To wciąż beta, tyle że bardzo ambitna. [2]
Szerszy trend, mniej marketingu
W tle mamy wyścig o „inteligentnych agentów”, którzy działają w naszym imieniu w realnym kontekście. Dotychczasowe pamięci w czatbotach były jak notatki na lodówce. Personal Intelligence przypomina raczej prywatny graf danych, który AI potrafi przeszukiwać i interpretować. Google spina własny ekosystem jak kręgosłup – i to jest przewaga, której nie ma większość konkurentów. Cena? Zaufanie. Bo nawet jeśli dane nie trafiają do treningu, oddajesz asystentowi wgląd w bardzo prywatne źródła. Nie każdy będzie chciał taki „asystent domowy” wpuścić do sypialni. [1][2]
Co to znaczy na dziś
Na start – 14.01.2026 r. – funkcja trafia wyłącznie do USA, do użytkowników Google AI Pro i AI Ultra, na kontach prywatnych. Działa w aplikacji Gemini i w przeglądarce, z modelami z rodziny Gemini. Google zapowiada, że później rozszerzy dostęp na kolejne kraje, na darmowy plan i do Trybu AI w wyszukiwarce. Dla reszty świata to więc raczej zapowiedź kierunku niż natychmiastowa zmiana codzienności. [1]
Komentarz
Jeśli Personal Intelligence dowiezie jakość, to wygoda będzie trudno odstawialna. Mniej „podaj numer zamówienia”, więcej „zrób to za mnie”. Jednocześnie granica między pomocnym a nachalnym bywa cienka. „Proaktywność” brzmi cudnie na slajdzie, ale w praktyce łatwo o moment, w którym AI zacznie łączyć kropki, których wolelibyśmy nie łączyć. Google zdaje się to rozumieć – i stąd ostrożny, opt-inowy start. Słusznie.
Podsumowanie
Personal Intelligence to mocny sygnał: epoka ogólnych czatów się kończy, zaczyna się era kontekstowych asystentów. Jeśli Google utrzyma kurs i nie zaliczy wpadki prywatnościowej, Gemini faktycznie może stać się „osobistą inteligencją”, a nie tylko mądrą wyszukiwarką. Pytanie do ciebie brzmi prosto: czy chcesz, by AI znała cię tak dobrze – i czy ufasz Google na tyle, by jej na to pozwolić?
FAQ
Czy Personal Intelligence w Gemini jest domyślnie włączone?
Nie, Personal Intelligence jest domyślnie wyłączone. Użytkownik musi sam włączyć funkcję i wybrać, które aplikacje Google połączyć. [1][2]
Kiedy Personal Intelligence będzie dostępne w Polsce?
Nie wiadomo; Google zapowiada rozszerzenie na kolejne kraje „później”. Na razie funkcja jest w becie i dostępna w USA. [1][2]
Czy Google trenuje modele na moich mailach i zdjęciach?
Nie, Google deklaruje, że nie trenuje modeli bezpośrednio na zawartości Gmaila ani Zdjęć. Do ulepszania używa m.in. promptów i odpowiedzi, po usunięciu danych osobistych. [1]
Jak włączyć Personal Intelligence w Gemini?
Trzeba wejść do aplikacji Gemini (Android, iOS lub przeglądarka) i wyrazić zgodę na połączenie usług, wybierając konkretne źródła danych. Funkcję można w każdej chwili wyłączyć i wyczyścić historię. [1][2]
Czy Personal Intelligence działa w darmowym planie Gemini?
Nie, na start funkcja jest dla subskrybentów Google AI Pro i AI Ultra w USA. Google zapowiada, że z czasem trafi także do darmowego planu. [2]
Źródła
- [1] https://antyweb.pl/personal-intelligence-google-gemini
- [2] https://spidersweb.pl/2026/01/google-osobista-inteligencja-gemini-sztuczna-inteligencja.html
- [3] https://techcrunch.com/2026/01/14/geminis-new-beta-feature-provides-proactive-responses-based-on-your-photos-emails-and-more/
- [4] https://theverge.com/news/861576/google-gemini-ai-personal-intelligence-gmail-search-youtube-photos
- [5] https://blog.google/innovation-and-ai/technology/ai/look-back-2025/
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 63
- RSS - stan źródeł
- 63 / 63 OK
- RSS - przepływ (od surowych do unikalnych)
- 2432 -> 2377 -> 377 -> 319
- RSS - usunięte duplikaty tytułów
- 1
- Pula tematów (z RSS)
- 319
- Wybrane do analizy
- 212
- Odrzucone
- 107
- Klastry (wątki)
- 122
2. Selekcja i filtrowanie
- Odrzucono semantycznie (embedding)
- 0
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 0
- Unikalne wyniki
- 0
- Kandydaci
- 0
- Dodane z wyszukiwania (cache+live)
- 0
- Przeskanowano URL-i (research)
- 5
4. Finalny kontekst
- Źródła użyte w tekście
- 5
- Źródła (domeny)
- 5
- Wikipedia - kontekst
- nie
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 1




