Sztuczna inteligencja

Google wprowadza Personal Intelligence w Gemini – koniec ogólnych odpowiedzi?

Czy twoja sztuczna inteligencja może wreszcie przestać udawać, że zna cię tylko z imienia? Google twierdzi, że tak – i daje Gemini nową supermoc: Personal Intelligence.

Gemini właśnie dostał opcjonalną warstwę, która łączy twoje usługi Google (Gmail, Zdjęcia, Wyszukiwarka, YouTube) w jeden kontekst dla odpowiedzi. Efekt: zamiast „uniwersalnych” porad, dostajesz wskazówki skrojone pod ciebie, twoją historię i nawyki. Start w USA, na razie w becie, dla subskrybentów Google AI Pro i AI Ultra – i tylko po włączeniu przez użytkownika.

To ważne, bo AI bez kontekstu to jak GPS bez danych o ruchu – niby jedzie, ale często w korku. Personal Intelligence jest kolejnym krokiem w stronę agentów, którzy rozumieją twoją sytuację i działają proaktywnie. Google nazywa to „fundamentalną zmianą” i nieprzypadkowo: chodzi nie tylko o pamięć, ale o rozumowanie na żywych danych z twojego ekosystemu. [1]

Ilustracja przedstawiająca futurystyczny interfejs AI z neonowymi akcentami.
Grafika koncepcyjna (AI)

O co chodzi

Dotąd Gemini (wcześniej Bard) potrafił coś wyciągnąć z Gmaila czy Zdjęć Google, jeśli wyraźnie o to poprosiłeś. Teraz potrafi sam połączyć kropki i „przeskakiwać” między źródłami. Przykład, którym chwali się Google: stoisz w kolejce do serwisu opon, nie pamiętasz rozmiaru ani numeru rejestracyjnego. Asystent wyciąga specyfikację z e-maili, numer z fotki tablicy w Zdjęciach, a do tego proponuje konkretny typ opon – bo widzi, że często jeździcie rodzinnie, więc sensowne są all-weather – i dorzuca ceny z ocenami. Podobnie z podróżami: zamiast listy top 10 z bloga, dostajesz trasę i atrakcje pasujące do twoich realnych preferencji, odczytanych z korespondencji i zdjęć. [1][2]

Ilustracja przedstawiająca futurystyczny interfejs AI w ciemnym otoczeniu z neonowymi akcentami.
Grafika koncepcyjna (AI)

Dlaczego to istotne

To nie kolejny „tryb AI” do generowania ładnych akapitów. Sedno to personalizacja w działaniu: rozumowanie na wielu prywatnych źródłach jednocześnie i wyłuskanie konkretów, kiedy o nie prosisz. Jak ujął to Josh Woodward z Google, Personal Intelligence ma dwie główne supermoce: potrafi łączyć złożone źródła oraz wyciągać detale z e-maila czy zdjęcia, by odpowiedzieć na pytanie. Upraszczając: mniej promptowania, więcej sensownych odpowiedzi. [1][2]

Jak to działa i jakie są ograniczenia

Personal Intelligence jest wyłączone domyślnie. W aplikacji Gemini (Android, iOS, przeglądarka) wybierasz, czy i które usługi łączysz. Google podkreśla kilka zasad: [1][2]

  • Tylko gdy ma to pomóc. Asystent korzysta z Personal Intelligence wtedy, kiedy uzna, że to zwiększy trafność odpowiedzi, nie „dla sportu”. [1][2]
  • Prywatność i kontrola. Możesz odłączyć aplikacje i wyczyścić historię rozmów w każdej chwili.
  • Szkolenie modeli. Google mówi wprost: Gemini nie trenuje bezpośrednio na zawartości twojego Gmaila czy biblioteki Zdjęć. Do ulepszania używa m.in. samych promptów i odpowiedzi, po przefiltrowaniu danych osobistych. Innymi słowy: zdjęcia tablicy rejestracyjnej służą do udzielenia odpowiedzi teraz, nie do karmienia modelu na przyszłość. [3]
  • Wrażliwe tematy. Asystent ma „barierki” – nie będzie proaktywnie wyciągał wniosków o zdrowiu i innych delikatnych sprawach, choć porozmawia o nich, jeśli zapytasz.

Jest też kubełek zimnej wody. Google przyznaje, że mimo testów mogą zdarzać się błędy lub „nadpersonalizacja”, czyli łączenie niepowiązanych faktów. Problemy z czasem i niuansami – np. zmiany w relacjach – też bywają zdradliwe. To wciąż beta, tyle że bardzo ambitna. [2]

Szerszy trend, mniej marketingu

W tle mamy wyścig o „inteligentnych agentów”, którzy działają w naszym imieniu w realnym kontekście. Dotychczasowe pamięci w czatbotach były jak notatki na lodówce. Personal Intelligence przypomina raczej prywatny graf danych, który AI potrafi przeszukiwać i interpretować. Google spina własny ekosystem jak kręgosłup – i to jest przewaga, której nie ma większość konkurentów. Cena? Zaufanie. Bo nawet jeśli dane nie trafiają do treningu, oddajesz asystentowi wgląd w bardzo prywatne źródła. Nie każdy będzie chciał taki „asystent domowy” wpuścić do sypialni. [1][2]

Co to znaczy na dziś

Na start – 14.01.2026 r. – funkcja trafia wyłącznie do USA, do użytkowników Google AI Pro i AI Ultra, na kontach prywatnych. Działa w aplikacji Gemini i w przeglądarce, z modelami z rodziny Gemini. Google zapowiada, że później rozszerzy dostęp na kolejne kraje, na darmowy plan i do Trybu AI w wyszukiwarce. Dla reszty świata to więc raczej zapowiedź kierunku niż natychmiastowa zmiana codzienności. [1]

Komentarz

Jeśli Personal Intelligence dowiezie jakość, to wygoda będzie trudno odstawialna. Mniej „podaj numer zamówienia”, więcej „zrób to za mnie”. Jednocześnie granica między pomocnym a nachalnym bywa cienka. „Proaktywność” brzmi cudnie na slajdzie, ale w praktyce łatwo o moment, w którym AI zacznie łączyć kropki, których wolelibyśmy nie łączyć. Google zdaje się to rozumieć – i stąd ostrożny, opt-inowy start. Słusznie.

Podsumowanie

Personal Intelligence to mocny sygnał: epoka ogólnych czatów się kończy, zaczyna się era kontekstowych asystentów. Jeśli Google utrzyma kurs i nie zaliczy wpadki prywatnościowej, Gemini faktycznie może stać się „osobistą inteligencją”, a nie tylko mądrą wyszukiwarką. Pytanie do ciebie brzmi prosto: czy chcesz, by AI znała cię tak dobrze – i czy ufasz Google na tyle, by jej na to pozwolić?

FAQ

Czy Personal Intelligence w Gemini jest domyślnie włączone?

Nie, Personal Intelligence jest domyślnie wyłączone. Użytkownik musi sam włączyć funkcję i wybrać, które aplikacje Google połączyć. [1][2]

Kiedy Personal Intelligence będzie dostępne w Polsce?

Nie wiadomo; Google zapowiada rozszerzenie na kolejne kraje „później”. Na razie funkcja jest w becie i dostępna w USA. [1][2]

Czy Google trenuje modele na moich mailach i zdjęciach?

Nie, Google deklaruje, że nie trenuje modeli bezpośrednio na zawartości Gmaila ani Zdjęć. Do ulepszania używa m.in. promptów i odpowiedzi, po usunięciu danych osobistych. [1]

Jak włączyć Personal Intelligence w Gemini?

Trzeba wejść do aplikacji Gemini (Android, iOS lub przeglądarka) i wyrazić zgodę na połączenie usług, wybierając konkretne źródła danych. Funkcję można w każdej chwili wyłączyć i wyczyścić historię. [1][2]

Czy Personal Intelligence działa w darmowym planie Gemini?

Nie, na start funkcja jest dla subskrybentów Google AI Pro i AI Ultra w USA. Google zapowiada, że z czasem trafi także do darmowego planu. [2]

Źródła

🧠 Czy ten artykuł dał Ci nową perspektywę?
Jedno kliknięcie. Zero kont. PressMind uczy się razem z Tobą.
Ładowanie oceny…

PressMind Labs - Ślad badawczy

To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.

5 źródeł użytych w tekście
5 niezależnych domen
10 s czas researchu
Wysoki sygnał jakości
Skan tematu
212 z 319 sygnałów (RSS: 2432)
Zachowano: 212 (66%) | Odrzucono: 107 (34%)
Źródła (finalne)
5 źródeł z 5 domen
Start: 5 | Finalnie: 5
Czas researchu
10 s
Różnorodność domen: 5 Źródła użyte: 5 Kontekst: pominięty Liczby w tekście: 1

1. Zbieranie sygnałów (discovery)

Temat
Gemini z nową supermocą - poznajcie Personal Intelligence od Google
RSS - źródeł w configu
63
RSS - stan źródeł
63 / 63 OK
RSS - przepływ (od surowych do unikalnych)
2432 -> 2377 -> 377 -> 319
RSS - usunięte duplikaty tytułów
1
Pula tematów (z RSS)
319
Wybrane do analizy
212
Odrzucone
107
Klastry (wątki)
122

2. Selekcja i filtrowanie

Odrzucono semantycznie (embedding)
0

3. Wyszukiwanie i wzbogacanie

Zapytania wyszukiwawcze
0
Unikalne wyniki
0
Kandydaci
0
Dodane z wyszukiwania (cache+live)
0
Przeskanowano URL-i (research)
5

4. Finalny kontekst

Źródła użyte w tekście
5
Źródła (domeny)
5
Wikipedia - kontekst
nie
Expansion - kontekst
nie
Wyłuskane liczby
1
Ten proces pokazuje, jak z dziesiątek sygnałów wyłania się kilka sprawdzonych źródeł, na których oparto finalny tekst.

Dodaj komentarz