Sztuczna inteligencja & Gadżety i sprzęt

Siri zmienia zasady gry – Apple wprowadza chatbota w iPhone’y

Czy to ten moment, w którym Siri przestanie udawać, że „nie zrozumiała pytania”? Wszystko wskazuje na to, że Apple szykuje jej największą w historii przemianę – w pełnoprawnego chatbota à la ChatGPT, osadzonego w samym sercu iPhone’a i Maca.

Według Bloomberga (przez The Verge i 9to5Mac) Apple zamierza porzucić dotychczasowy interfejs Siri i zastąpić go doświadczeniem konwersacyjnym, działającym zarówno głosem, jak i tekstem. Projekt o kryptonimie Campos ma zostać pokazany na WWDC w czerwcu, a trafić do użytkowników jesienią – jako „główna nowość” w iOS 27, iPadOS 27 i macOS 27. W tle: niestandardowy model Google Gemini, który ma napędzać nową inteligencję.

Dlaczego to ważne? Bo Apple przez ostatnie dwa lata grało w AI ostrożnie, a czasem po prostu z tyłu. ChatGPT zrobił popkulturową furorę, Google przepchnął Gemini do każdego zakamarka ekosystemu, a Siri… cóż, nadal potrafiła odesłać użytkownika do wyszukiwarki. Jeśli Campos dowiezie obietnice, zmieni to nie tylko parametry rozmów z asystentem, ale sposób, w jaki sterujemy całym urządzeniem.

Futurystyczny iPhone z interfejsem chatbota na ciemnym tle.
Grafika koncepcyjna (AI)

Siri, ale po nowemu

Główna zmiana to forma. Zamiast krótkich komend i odpowiedzi, nowa Siri ma prowadzić swobodne, ciągłe rozmowy (głosem lub na czacie), rozumieć kontekst i wykonywać złożone zadania w aplikacjach i ustawieniach systemu. To nie będzie „apka z botem”, tylko asystent wszyty w platformę, przywoływany jak zawsze: komendą „Siri” albo przyciskiem bocznym.

Ilustracja przedstawiająca interfejs smartfona z funkcją chatbota w stylu 2.5D.
Grafika koncepcyjna (AI)

Zakres możliwości? Według Bloomberga nowa Siri ma:

  • przeszukiwać sieć, streszczać wyniki i „syntetyzować” dane z wielu źródeł,
  • tworzyć treści i obrazy, analizować przesłane pliki,
  • kontrolować funkcje urządzenia i ustawienia, rozumieć to, co jest na ekranie,
  • działać w rdzeniowych aplikacjach Apple: Mail, Muzyce, Podcastach, Zdjęciach, TV czy nawet Xcode,
  • wykorzystywać prywatne dane (kalendarz, wiadomości, pliki), by domykać zadania – np. znaleźć zdjęcie „tego zielonego kajaka z sierpnia” i od razu je przyciąć, albo napisać maila na bazie planów z kalendarza.

Za kulisami: Gemini w roli silnika

To, co jeszcze rok temu brzmiało jak herezja, dziś jest pragmatyką: Apple licencjonuje Google Gemini i szykuje jego customową wersję do nowej Siri. Raporty mówią o wieloletnim partnerstwie, a iPhone in Canada dodaje, że cięższe modele mają działać w chmurze Google (TPU), podczas gdy lżejsze – na serwerach Apple w ramach Apple Intelligence. The Shortcut dorzuca wzmianki o Apple Foundation Model w wersjach 10 i 11 – ten nowszy miałby być rdzeniem Siri-chatbota. Krótko mówiąc: Apple łączy własne elementy z zewnętrznym turbodoładowaniem.

To nie wydarzy się z dnia na dzień. Najpierw – jeszcze wiosną – mamy zobaczyć przedsmak w iOS 26.4: lepsze rozumienie ekranu, odpowiedzi o „wiedzy ze świata” i bardziej świadomą kontekstu Siri, ale nadal w starym interfejsie. Duży przełącznik w tryb chatbota ma przyjść dopiero jesienią, równolegle z iOS 27, gdy reszta systemu skupi się raczej na stabilności niż na fajerwerkach. [2]

Zanim to wyjdzie: sporo testów i mały zwrot filozofii

Apple długo odrzucał pomysł „chatbota dla wszystkich”. Bloomberg opisywał nawet powstanie wewnętrznego zespołu Answers/AKI, który miał testować własne rozwiązania wyszukiwawczo-konwersacyjne, oraz wewnętrzną apkę „Veritas” – klona ChatGPT do sprawdzania nowych zdolności Siri w praktyce. I coś drgnęło: według 9to5Mac menedżerowie zaczęli mówić, że wewnętrzny bot jest już „na poziomie ostatnich wersji ChatGPT”. Owszem, to anegdotyczne i zza muru z logo nadgryzionego jabłka, ale wskazuje kierunek. [7][8]

Prywatność kontra pamięć

Jest też minus. ZDNet pisze, że Apple zamierza ostro ograniczać to, co Siri zapamiętuje o użytkowniku w dłuższym horyzoncie – z powodów prywatności. Konkurenci potrafią trzymać szeroką „pamięć” rozmów i preferencji; tutaj sufit może być niższy. To decyzja spójna z DNA firmy, ale użytkownicy będą ją odczuwać: mniejsza „długofalowa pamięć” to czasem więcej tłumaczenia asystentowi, o co nam chodzi.

Czy to wystarczy, by dogonić konkurencję?

Paradoksalnie, żeby faktycznie przyspieszyć w AI, Apple musi dziś brać na pokład model konkurenta z Mountain View. Z drugiej strony, siła Apple zawsze leżała w integracji i kontroli doświadczenia, a nie w tym, czyj model jest na plakacie. Jeśli Campos dowiezie obiecywaną głęboką integrację z aplikacjami i systemem, Siri może stać się nie tyle „botem do gadki”, co nową warstwą sterowania iPhone’em. To dużo więcej niż kolejna ikonka z czatem. [4]

Podsumowanie

Nowa Siri to test zaufania do Apple na kilku frontach: czy rzeczywiście połączy prywatność z użytecznością, czy integracja z aplikacjami będzie realna, a nie pokazowa, i czy licencjonowany silnik nie rozmyje ambicji „Apple Intelligence”. Jeśli odpowiedzi będą na „tak”, jesienią dostaniemy asystenta, który wreszcie rozumie, co mówimy – i potrafi zrobić coś więcej niż wyświetlić link. A jeśli nie? Cóż, wtedy pozostanie nam stare, dobre „Hej Siri, otwórz Google”.

FAQ

Kiedy Apple pokaże nowego, chatbotowego Siri?

Apple planuje prezentację na WWDC w czerwcu 2026, z premierą wraz z iOS 27 we wrześniu 2026 – to wciąż raporty, nie oficjalne daty. Harmonogram może się zmienić, ale źródła są zgodne co do lata/jesieni.

Czy nowy Siri będzie działał jak ChatGPT?

Tak – ma to być pełnoprawny chatbot z rozmową głosową i tekstową oraz ciągłym kontekstem. Różnica: będzie głęboko zintegrowany z aplikacjami i ustawieniami systemu.

Czy Siri będzie korzystać z Google Gemini?

Tak – według licznych raportów Apple użyje niestandardowej wersji Gemini w ramach wieloletniego partnerstwa. Apple nie potwierdziło oficjalnie szczegółów ani kosztów licencji.

Czy Apple ograniczy pamięć rozmów w Siri ze względu na prywatność?

Tak – raporty mówią o wyraźnie ograniczonej „pamięci” w porównaniu z konkurencją. To kompromis: więcej prywatności, mniej długofalowego kontekstu.

Czy coś zobaczymy wcześniej niż iOS 27?

Tak – wiosną, wraz z iOS 26.4, ma trafić ulepszona Siri z rozumieniem ekranu i podsumowaniami z sieci. To jednak mniejszy krok niż chatbot planowany na jesień.

Źródła

🧠 Czy ten artykuł dał Ci nową perspektywę?
Jedno kliknięcie. Zero kont. PressMind uczy się razem z Tobą.
Ładowanie oceny…

PressMind Labs - Ślad badawczy

To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.

9 źródeł użytych w tekście
8 niezależnych domen
1 min 40 s czas researchu
Wysoki sygnał jakości
Skan tematu
184 z 319 sygnałów (RSS: 3132)
Zachowano: 184 (58%) | Odrzucono: 107 (34%)
Źródła (finalne)
9 źródeł z 8 domen
Start: 1 | Finalnie: 9
Czas researchu
1 min 40 s
Różnorodność domen: 8 Źródła użyte: 9 Kontekst: pominięty Liczby w tekście: 2

1. Zbieranie sygnałów (discovery)

Temat
Apple is turning Siri into an AI bot that’s more like ChatGPT
RSS - źródeł w configu
92
RSS - stan źródeł
92 / 92 OK
RSS - przepływ (od surowych do unikalnych)
3132 -> 3044 -> 459 -> 319
RSS - usunięte duplikaty tytułów
1
Pula tematów (z RSS)
319
Wybrane do analizy
184
Odrzucone
107
Duplikaty (archiwum tematów)
2
Klastry (wątki)
140

2. Selekcja i filtrowanie

Odrzucono semantycznie (embedding)
6

3. Wyszukiwanie i wzbogacanie

Zapytania wyszukiwawcze
11
Unikalne wyniki
48
Kandydaci
23
Dodane z wyszukiwania (cache+live)
8
Przeskanowano URL-i (research)
1

4. Finalny kontekst

Źródła użyte w tekście
9
Źródła (domeny)
8
Wikipedia - kontekst
nie
Expansion - kontekst
nie
Wyłuskane liczby
2
Ten proces pokazuje, jak z dziesiątek sygnałów wyłania się kilka sprawdzonych źródeł, na których oparto finalny tekst.

Dodaj komentarz