Czy to ten moment, w którym Siri przestanie udawać, że „nie zrozumiała pytania”? Wszystko wskazuje na to, że Apple szykuje jej największą w historii przemianę – w pełnoprawnego chatbota à la ChatGPT, osadzonego w samym sercu iPhone’a i Maca.
Według Bloomberga (przez The Verge i 9to5Mac) Apple zamierza porzucić dotychczasowy interfejs Siri i zastąpić go doświadczeniem konwersacyjnym, działającym zarówno głosem, jak i tekstem. Projekt o kryptonimie Campos ma zostać pokazany na WWDC w czerwcu, a trafić do użytkowników jesienią – jako „główna nowość” w iOS 27, iPadOS 27 i macOS 27. W tle: niestandardowy model Google Gemini, który ma napędzać nową inteligencję.
Dlaczego to ważne? Bo Apple przez ostatnie dwa lata grało w AI ostrożnie, a czasem po prostu z tyłu. ChatGPT zrobił popkulturową furorę, Google przepchnął Gemini do każdego zakamarka ekosystemu, a Siri… cóż, nadal potrafiła odesłać użytkownika do wyszukiwarki. Jeśli Campos dowiezie obietnice, zmieni to nie tylko parametry rozmów z asystentem, ale sposób, w jaki sterujemy całym urządzeniem.
Siri, ale po nowemu
Główna zmiana to forma. Zamiast krótkich komend i odpowiedzi, nowa Siri ma prowadzić swobodne, ciągłe rozmowy (głosem lub na czacie), rozumieć kontekst i wykonywać złożone zadania w aplikacjach i ustawieniach systemu. To nie będzie „apka z botem”, tylko asystent wszyty w platformę, przywoływany jak zawsze: komendą „Siri” albo przyciskiem bocznym.
Zakres możliwości? Według Bloomberga nowa Siri ma:
- przeszukiwać sieć, streszczać wyniki i „syntetyzować” dane z wielu źródeł,
- tworzyć treści i obrazy, analizować przesłane pliki,
- kontrolować funkcje urządzenia i ustawienia, rozumieć to, co jest na ekranie,
- działać w rdzeniowych aplikacjach Apple: Mail, Muzyce, Podcastach, Zdjęciach, TV czy nawet Xcode,
- wykorzystywać prywatne dane (kalendarz, wiadomości, pliki), by domykać zadania – np. znaleźć zdjęcie „tego zielonego kajaka z sierpnia” i od razu je przyciąć, albo napisać maila na bazie planów z kalendarza.
Za kulisami: Gemini w roli silnika
To, co jeszcze rok temu brzmiało jak herezja, dziś jest pragmatyką: Apple licencjonuje Google Gemini i szykuje jego customową wersję do nowej Siri. Raporty mówią o wieloletnim partnerstwie, a iPhone in Canada dodaje, że cięższe modele mają działać w chmurze Google (TPU), podczas gdy lżejsze – na serwerach Apple w ramach Apple Intelligence. The Shortcut dorzuca wzmianki o Apple Foundation Model w wersjach 10 i 11 – ten nowszy miałby być rdzeniem Siri-chatbota. Krótko mówiąc: Apple łączy własne elementy z zewnętrznym turbodoładowaniem.
To nie wydarzy się z dnia na dzień. Najpierw – jeszcze wiosną – mamy zobaczyć przedsmak w iOS 26.4: lepsze rozumienie ekranu, odpowiedzi o „wiedzy ze świata” i bardziej świadomą kontekstu Siri, ale nadal w starym interfejsie. Duży przełącznik w tryb chatbota ma przyjść dopiero jesienią, równolegle z iOS 27, gdy reszta systemu skupi się raczej na stabilności niż na fajerwerkach. [2]
Zanim to wyjdzie: sporo testów i mały zwrot filozofii
Apple długo odrzucał pomysł „chatbota dla wszystkich”. Bloomberg opisywał nawet powstanie wewnętrznego zespołu Answers/AKI, który miał testować własne rozwiązania wyszukiwawczo-konwersacyjne, oraz wewnętrzną apkę „Veritas” – klona ChatGPT do sprawdzania nowych zdolności Siri w praktyce. I coś drgnęło: według 9to5Mac menedżerowie zaczęli mówić, że wewnętrzny bot jest już „na poziomie ostatnich wersji ChatGPT”. Owszem, to anegdotyczne i zza muru z logo nadgryzionego jabłka, ale wskazuje kierunek. [7][8]
Prywatność kontra pamięć
Jest też minus. ZDNet pisze, że Apple zamierza ostro ograniczać to, co Siri zapamiętuje o użytkowniku w dłuższym horyzoncie – z powodów prywatności. Konkurenci potrafią trzymać szeroką „pamięć” rozmów i preferencji; tutaj sufit może być niższy. To decyzja spójna z DNA firmy, ale użytkownicy będą ją odczuwać: mniejsza „długofalowa pamięć” to czasem więcej tłumaczenia asystentowi, o co nam chodzi.
Czy to wystarczy, by dogonić konkurencję?
Paradoksalnie, żeby faktycznie przyspieszyć w AI, Apple musi dziś brać na pokład model konkurenta z Mountain View. Z drugiej strony, siła Apple zawsze leżała w integracji i kontroli doświadczenia, a nie w tym, czyj model jest na plakacie. Jeśli Campos dowiezie obiecywaną głęboką integrację z aplikacjami i systemem, Siri może stać się nie tyle „botem do gadki”, co nową warstwą sterowania iPhone’em. To dużo więcej niż kolejna ikonka z czatem. [4]
Podsumowanie
Nowa Siri to test zaufania do Apple na kilku frontach: czy rzeczywiście połączy prywatność z użytecznością, czy integracja z aplikacjami będzie realna, a nie pokazowa, i czy licencjonowany silnik nie rozmyje ambicji „Apple Intelligence”. Jeśli odpowiedzi będą na „tak”, jesienią dostaniemy asystenta, który wreszcie rozumie, co mówimy – i potrafi zrobić coś więcej niż wyświetlić link. A jeśli nie? Cóż, wtedy pozostanie nam stare, dobre „Hej Siri, otwórz Google”.
FAQ
Kiedy Apple pokaże nowego, chatbotowego Siri?
Apple planuje prezentację na WWDC w czerwcu 2026, z premierą wraz z iOS 27 we wrześniu 2026 – to wciąż raporty, nie oficjalne daty. Harmonogram może się zmienić, ale źródła są zgodne co do lata/jesieni.
Czy nowy Siri będzie działał jak ChatGPT?
Tak – ma to być pełnoprawny chatbot z rozmową głosową i tekstową oraz ciągłym kontekstem. Różnica: będzie głęboko zintegrowany z aplikacjami i ustawieniami systemu.
Czy Siri będzie korzystać z Google Gemini?
Tak – według licznych raportów Apple użyje niestandardowej wersji Gemini w ramach wieloletniego partnerstwa. Apple nie potwierdziło oficjalnie szczegółów ani kosztów licencji.
Czy Apple ograniczy pamięć rozmów w Siri ze względu na prywatność?
Tak – raporty mówią o wyraźnie ograniczonej „pamięci” w porównaniu z konkurencją. To kompromis: więcej prywatności, mniej długofalowego kontekstu.
Czy coś zobaczymy wcześniej niż iOS 27?
Tak – wiosną, wraz z iOS 26.4, ma trafić ulepszona Siri z rozumieniem ekranu i podsumowaniami z sieci. To jednak mniejszy krok niż chatbot planowany na jesień.
Źródła
- [1] https://theverge.com/news/865172/apple-siri-ai-chatbot-chatgpt
- [2] https://theshortcut.com/p/apple-siri-chatbot-ios-27-report
- [3] https://techbuzz.ai/articles/apple-transforms-siri-into-chatgpt-like-ai-chatbot
- [4] https://9to5mac.com/2026/01/21/apple-reportedly-replacing-siri-interface-with-actual-chatbot-experience-for-ios-27/
- [5] https://zdnet.com/article/apple-turning-siri-into-chatgpt-chatbot-ai-ios-27-iphone-mac-ipad/
- [6] https://iphoneincanada.ca/2026/01/21/apples-secret-campos-project-when-the-old-siri-will-finally-disappear/
- [7] https://israelhayom.com/2025/08/04/apple-builds-secret-chatgpt-rival-after-dismissing-chatbot-technology/
- [8] https://engadget.com/ai/apple-reportedly-made-a-chatgpt-clone-to-test-siris-new-capabilities-194902560.html
- [9] https://9to5mac.com/2025/05/19/apple-chatgpt-chatbot-features/
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 92
- RSS - stan źródeł
- 92 / 92 OK
- RSS - przepływ (od surowych do unikalnych)
- 3132 -> 3044 -> 459 -> 319
- RSS - usunięte duplikaty tytułów
- 1
- Pula tematów (z RSS)
- 319
- Wybrane do analizy
- 184
- Odrzucone
- 107
- Duplikaty (archiwum tematów)
- 2
- Klastry (wątki)
- 140
2. Selekcja i filtrowanie
- Odrzucono semantycznie (embedding)
- 6
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 11
- Unikalne wyniki
- 48
- Kandydaci
- 23
- Dodane z wyszukiwania (cache+live)
- 8
- Przeskanowano URL-i (research)
- 1
4. Finalny kontekst
- Źródła użyte w tekście
- 9
- Źródła (domeny)
- 8
- Wikipedia - kontekst
- nie
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 2




