Masz 30 lat, ale ChatGPT patrzy na twoje pytania i mówi: „Zachowujesz się jak 16-latek”? OpenAI właśnie włącza w ChatGPT „radar wieku” – algorytm, który ma odróżniać dorosłych od nastolatków i automatycznie przykręcać kurek z wrażliwymi treściami.
W skrócie: nowy model przewidywania wieku analizuje zachowanie i sygnały z konta, by ocenić, czy użytkownik prawdopodobnie ma mniej niż 18 lat. Jeśli tak, ChatGPT włączy ostrzejsze zabezpieczenia. Błędy będą się zdarzać – wtedy dorośli odzyskają pełny dostęp po weryfikacji wieku przez usługę Persona (selfie i, w niektórych krajach, dokument tożsamości).
To ważne, bo AI przestaje być tylko gadżetem do pisania wypracowań. OpenAI działa pod presją regulatorów i opinii publicznej po głośnych sprawach związanych z bezpieczeństwem młodych użytkowników. Stawką jest to, czy platformy AI nauczą się efektywnie chronić nieletnich bez nadmiernej ingerencji w prywatność dorosłych.
Jak to ma działać
OpenAI uruchamia przewidywanie wieku w planach konsumenckich ChatGPT na całym świecie, z zastrzeżeniem, że w Unii Europejskiej funkcja pojawi się „w nadchodzących tygodniach”. System nie skanuje twarzy przy każdym logowaniu – ocenia wiek pośrednio, łącząc sygnały z konta i zachowania: jak długo istnieje konto, o jakich porach ktoś jest aktywny, jak wyglądają wzorce użycia w czasie oraz jaka jest zadeklarowana data urodzenia. Jeśli algorytm nie jest pewny, domyślnie przypisze konto do bezpieczniejszego trybu „poniżej 18”. [5][2]
Co to zmienia dla użytkowników
W trybie dla nieletnich ChatGPT ucina rozmowy o treściach uznanych za ryzykowne dla nastolatków: od drastycznej przemocy i „viralowych wyzwań”, przez seksualny czy romantyczny role play, po opisy samookaleczeń oraz materiały promujące skrajne standardy urody, restrykcyjne diety czy body shaming. Już wcześniej firma dodała kontrolę rodzicielską (linkowanie kont, „godziny ciszy”, ograniczenia dostępu do głosu i obrazów); teraz tryb bezpieczny ma się włączać automatycznie, gdy system „wyczuje” nieletniego.
A co jeśli ChatGPT pomyli się i uzna dorosłego za nastolatka? OpenAI mówi wprost: to się zdarzy. Dorośli mogą wtedy potwierdzić wiek przez Persona – zrobisz selfie, czasem dołączysz fotografię dokumentu (paszport, prawo jazdy; zależnie od kraju). Po weryfikacji ograniczenia znikają, choć wdrożenie zmian może zająć chwilę. Spółka podaje, że partner usuwa selfie i skan dokumentu w ciągu 7 dni.
Dlaczego teraz
Na firmie ciąży coraz większa presja. Amerykańska FTC przygląda się wpływowi chatbotów na dzieci i nastolatków, a OpenAI jest pozwane m.in. w sprawach dotyczących samobójstw nastolatków po interakcjach z AI. Jesienią spółka obiecała zestaw narzędzi dla rodziców i zapowiedziała system przewidywania wieku. Powołała też radę ekspertów od zdrowia psychicznego, a w Model Spec doprecyzowała zasady reagowania na użytkowników poniżej 18 lat w „wysokostawkowych” sytuacjach. [2]
Sam Altman mówi o „prymacie bezpieczeństwa nad prywatnością i wolnością” w przypadku nastolatków. Taki język dobrze brzmi w zeznaniach przed Kongresem, ale w praktyce oznacza trudny balans: im więcej behawioralnych danych do szacowania wieku, tym większy cień na prywatności dorosłych.
Fakty bez pudru
- Start globalny obejmuje większość kont już teraz; w UE wdrożenie „w najbliższych tygodniach”.
- Firma nie podaje skuteczności modelu; zapowiada jego „doskonalenie z czasem”.
- Jeśli system nie ma pewności, domyślnie włącza tryb poniżej 18 lat i delikatniejsze odpowiedzi m.in. na tematy samookaleczeń.
- Weryfikacja wieku przechodzi przez Persona; według OpenAI partner usuwa selfie/ID w ciągu 7 dni.
- Akceptowane dokumenty zależą od kraju; szczegóły retencji poza tym oknem nie są publicznie doprecyzowane.
Komentarz: prywatność za bezpieczeństwo, rachunek nie do końca równy
To, co OpenAI nazywa „przewidywaniem wieku”, to w praktyce profilowanie zachowania i metadanych konta. Nie trzeba być złoczyńcą z filmów, żeby krzywo spojrzeć na system, który ocenia twoją pełnoletniość po tym, o której piszesz do bota. Dla dorosłych ryzyko to fałszywe pozytywy i konieczność oddania selfie oraz ID firmie trzeciej. Dla nastolatków – nadzieja na realną siatkę bezpieczeństwa tam, gdzie moderacja „po tekście” zbyt często zawodziła. Czy to działa? Inne platformy też stosują automatyczne zabezpieczenia i wiedzą, że algorytm bywa nadgorliwy. Rodzice za to wiedzą jedno: żadne „age gating” nie jest kuloodporne. Algorytmy mają pomagać, ale nie zastąpią zdrowego rozsądku i rozmowy.
Podsumowanie
OpenAI próbuje pogodzić dwa cele: chronić nieletnich i nie zrazić dorosłych. Kierunek ma sens, ale diabeł siedzi w detalach – przejrzystości, skuteczności i tym, jak często system będzie się mylił. Pytanie do ciebie: wolisz grzeczniejszego ChatGPT od ręki, czy najpierw machnąć selfie, żeby algorytm przestał traktować cię jak ucznia pierwszej klasy liceum?
FAQ
Czy przewidywanie wieku w ChatGPT działa już w Polsce i Unii Europejskiej?
Nie, w UE rollout ma nastąpić „w nadchodzących tygodniach”; poza UE funkcja startuje już teraz.
Jak ChatGPT przewiduje mój wiek bez proszenia o dokument?
Model używa sygnałów z konta i zachowania (czas istnienia konta, pory aktywności, wzorce użycia, zadeklarowany wiek). Nie wymaga selfie ani dokumentu, dopóki nie trzeba odblokować trybu dla dorosłych po błędnej klasyfikacji.
Co zrobić, jeśli jestem dorosły i zostałem błędnie przypisany do trybu poniżej 18 lat?
Zweryfikuj wiek w ustawieniach konta przez usługę Persona. Najczęściej wystarczy selfie; w niektórych krajach wymagany jest też dokument.
Jakie treści ChatGPT ogranicza dla kont uznanych za nieletnie?
Ograniczenia dotyczą m.in. drastycznej przemocy, seksualnego/romantycznego role play, ryzykownych „viralowych wyzwań”, opisów samookaleczeń oraz treści promujących skrajne standardy urody i restrykcyjne diety.
Czy OpenAI przechowuje moje selfie i skan dokumentu po weryfikacji wieku?
Według OpenAI partner weryfikacyjny Persona usuwa selfie i dokument do 7 dni po weryfikacji. Poza tym firma nie podała publicznie dodatkowych szczegółów retencji.
Źródła
- [1] https://bleepingcomputer.com/news/artificial-intelligence/openai-rolls-out-age-prediction-model-on-chatgpt-to-detect-your-age/
- [2] https://cnbc.com/2026/01/20/open-ai-age-prediction-chatgpt.html
- [3] https://mashable.com/article/open-ai-age-prediction-teens
- [4] https://businessinsider.com/openai-chatgpt-age-protections-parental-controls-2025-9
- [5] https://sherwood.news/tech/openai-rolls-out-age-prediction-system-ahead-of-allowing-adult-content/
- [6] https://therecord.media/openai-age-prediction-chatgpt-children-safety
- [7] https://me.pcmag.com/en/ai/34811/watch-out-chatgpts-age-verification-system-might-decide-youre-a-teen
- [8] https://marketscreener.com/news/openai-rolling-out-age-prediction-on-chatgpt-to-help-determine-when-an-account-likely-belongs-to-so-ce7e58ddd888f723
- [9] https://androidauthority.com/chatgpt-age-prediction-3634063/
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 79
- RSS - stan źródeł
- 79 / 79 OK
- RSS - przepływ (od surowych do unikalnych)
- 2932 -> 2861 -> 394 -> 320
- Pula tematów (z RSS)
- 320
- Wybrane do analizy
- 185
- Odrzucone
- 97
- Duplikaty (archiwum tematów)
- 1
- Klastry (wątki)
- 136
2. Selekcja i filtrowanie
- Odrzucono semantycznie (embedding)
- 4
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 12
- Unikalne wyniki
- 55
- Kandydaci
- 23
- Dodane z wyszukiwania (cache+live)
- 8
- Przeskanowano URL-i (research)
- 2
4. Finalny kontekst
- Źródła użyte w tekście
- 9
- Źródła (domeny)
- 9
- Wikipedia - kontekst
- tak
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 1




