Czy twoja ulubiona aplikacja mówi ci wprost, kiedy przesyła twoje dane do cudzego AI, czy robi to „po cichu dla poprawy jakości”? Apple postanowiło, że ta granica musi być wyraźna – i to zanim cokolwiek opuści twój telefon.
Apple zaktualizowało wytyczne App Store: aplikacje muszą jasno ujawniać i uzyskać zgodę użytkownika, zanim przekażą dane osobowe do „zewnętrznego AI” – czyli systemów i firm spoza Apple. To nie tylko porządek w papierach. To ruch wyprzedzający duży upgrade Siri planowany na 2026 r., który – według Bloomberga – ma być częściowo napędzany technologią Google Gemini.
W świecie, w którym tysiące aplikacji chętnie przepuszczają nasze wpisy, nagrania i metadane przez API modeli językowych, taki zapis to nie kosmetyka. Platformowe zasady Apple de facto wyznaczają standardy dla całej branży: jeśli chcesz być na iPhonie, grasz według tych reguł. A reguły mówią teraz głośno o jednym: sztuczna inteligencja nie jest magiczną czarną skrzynką poza prawem – obowiązują ją te same (albo ostrzejsze) zasady prywatności.
O co chodzi
W czwartek Apple doprecyzowało zasady przeglądu aplikacji. Konkretnie, punkt 5.1.2(i) – ten od prywatności i udostępniania danych – dostaje nowy, jednoznaczny akcent: jeśli aplikacja planuje wysłać dane osobowe użytkownika do podmiotów trzecich, w tym do zewnętrznych systemów AI, musi to wyraźnie zakomunikować i uzyskać zgodę. Wcześniej wytyczne mówiły o zgodzie przy udostępnianiu danych „stronom trzecim” w ogóle. Nowość polega na nazwaniu po imieniu firm AI i wskazaniu, że również one mają się podporządkować temu reżimowi. [1]
To pozornie subtelna edycja, ale dla deweloperów oznacza konieczność audytu: które funkcje aplikacji pchają dane do modeli w chmurze, jakie to dane i czy użytkownik faktycznie wyraził na to zgodę w sposób „jasny i zrozumiały”. W praktyce to także wymaganie przejrzystych ekranów zgód i aktualizacji polityk prywatności. Bez tego – ryzyko odrzutu podczas recenzji w App Store.
Szerszy kontekst
Moment nie jest przypadkowy. Apple szykuje własny duży ruch w AI: nową, „podkręconą” Siri, która ma wykonywać działania w aplikacjach na podstawie komend głosowych. I, co smakowicie ironiczne, według doniesień ma to być częściowo oparte na Google Gemini. Apple więc jedną ręką buduje własne AI, a drugą skręca kurek z danymi płynącymi do cudzych systemów – tyle że nie w tajemnicy, tylko wprost, pod sztandarem prywatności. [2]
Ta polityka wpisuje się w wieloletnią narrację Apple o „prywatności jako funkcji”. Równocześnie to realna implementacja wymogów pokroju RODO: informuj, zanim przetworzysz; uzyskaj zgodę, zanim wyślesz. TechCrunch trafnie zauważa, że sedno nie jest w samym wymogu (ten istniał), tylko w tym, kogo teraz jasno obejmuje: firmy od AI i ich integracje w aplikacjach.
Co, jak, ile – fakty i konsekwencje
- Apple zaktualizowało wytyczne App Store i wprost wskazało „third-party AI” jako kategorie podmiotów, którym nie wolno przekazywać danych osobowych bez uprzedniej, jasnej zgody użytkownika.
- Zmiana dotyczy reguły 5.1.2(i) o prywatności i zgodach. W praktyce wpływa na każdy scenariusz, w którym aplikacja przesyła treści użytkownika, identyfikatory czy kontekst do modelu AI operowanego przez firmę trzecią.
- Ruch pojawia się na progu debiutu Siri z funkcjami sterowania aplikacjami (plan na 2026 r.), która według Bloomberga ma korzystać m.in. z technologii Google Gemini.
- Celem jest nie tylko compliance, ale też domknięcie luk, przez które dane użytkowników mogły „rozpływać się” po dostawcach AI i ich podwykonawcach bez wystarczającej świadomości użytkownika.
Dla twórców aplikacji oznacza to twarde pytania. Czy nasz czat-bot wysyła transkrypcję rozmów do modelu w chmurze? Czy funkcja „streszczania PDF-ów” przepycha dokumenty przez zewnętrzne API? Czy zdjęcia trafiają do modelu rozpoznawania obrazów poza urządzenie? Jeśli tak, trzeba to z użytkownikiem załatwić uczciwie: pokazać, wyjaśnić, zapytać. A potem respektować „nie”.
Krótka interpretacja
Apple gra tu w podwójną grę – i robi to świadomie. Z jednej strony cementuje swój wizerunek strażnika prywatności i wyrównuje rachunki z regulacjami. Z drugiej, ogranicza niekontrolowane wysysanie danych przez konkurencyjne ekosystemy AI, podczas gdy samo będzie uruchamiać własne funkcje. Czy to cyniczne? Niekoniecznie. Platformy zawsze ustawiają szlabany według swoich interesów – pytanie brzmi, czy użytkownik coś z tego ma. Tu odpowiedź brzmi: tak, przynajmniej w postaci większej przejrzystości i realnej zgody. [2]
Oczywiście, to nie jest zakaz integracji z AI. To wymóg „powiedz prawdę i zapytaj”. Skutkiem ubocznym może być większa presja na inferencję na urządzeniu i minimalizację danych – trend, który i tak przyspiesza. A także więcej tarcia w interfejsach: dodatkowe okienka, które część użytkowników bezrefleksyjnie przeklika. Regulacje uczą, że sama zgoda to nie panaceum. Liczy się, jak jest sformułowana, kiedy się pojawia i czy da się ją odwołać równie łatwo, jak udzielić.
Co dalej
Najciekawsze dopiero przed nami: jak App Review będzie egzekwować te zapisy i jak kreatywni będą deweloperzy w opisywaniu „do czego służy przetwarzanie”. Warto pamiętać, że Apple ma narzędzia i precedensy – od etykiet prywatności po wcześniejsze ograniczenia śledzenia – by wymusić zmianę zachowań w całym ekosystemie. A 2026 r. z nową Siri będzie dobrym testem, czy firma potrafi być zarówno regulatorem, jak i graczem, nie gubiąc wiarygodności.
Na koniec zostaje proste przesłanie, które brzmi jak zdrowy rozsądek, a rzadko bywa standardem: jeśli chcesz wysłać moje dane do czyjegoś AI, zapytaj mnie o to wprost. A ja zdecyduję, komu ufam – tobie, Apple, czy może nikomu.