Sztuczna inteligencja & Prawo i regulacje

ChatGPT z nowym algorytmem „radar wieku” – bezpieczeństwo dla nieletnich czy inwigilacja?

Masz 30 lat, ale ChatGPT patrzy na twoje pytania i mówi: „Zachowujesz się jak 16-latek”? OpenAI właśnie włącza w ChatGPT „radar wieku” – algorytm, który ma odróżniać dorosłych od nastolatków i automatycznie przykręcać kurek z wrażliwymi treściami.

W skrócie: nowy model przewidywania wieku analizuje zachowanie i sygnały z konta, by ocenić, czy użytkownik prawdopodobnie ma mniej niż 18 lat. Jeśli tak, ChatGPT włączy ostrzejsze zabezpieczenia. Błędy będą się zdarzać – wtedy dorośli odzyskają pełny dostęp po weryfikacji wieku przez usługę Persona (selfie i, w niektórych krajach, dokument tożsamości).

To ważne, bo AI przestaje być tylko gadżetem do pisania wypracowań. OpenAI działa pod presją regulatorów i opinii publicznej po głośnych sprawach związanych z bezpieczeństwem młodych użytkowników. Stawką jest to, czy platformy AI nauczą się efektywnie chronić nieletnich bez nadmiernej ingerencji w prywatność dorosłych.

Ilustracja przedstawiająca algorytm AI analizujący dane w futurystycznym otoczeniu.
Grafika koncepcyjna (AI)

Jak to ma działać

OpenAI uruchamia przewidywanie wieku w planach konsumenckich ChatGPT na całym świecie, z zastrzeżeniem, że w Unii Europejskiej funkcja pojawi się „w nadchodzących tygodniach”. System nie skanuje twarzy przy każdym logowaniu – ocenia wiek pośrednio, łącząc sygnały z konta i zachowania: jak długo istnieje konto, o jakich porach ktoś jest aktywny, jak wyglądają wzorce użycia w czasie oraz jaka jest zadeklarowana data urodzenia. Jeśli algorytm nie jest pewny, domyślnie przypisze konto do bezpieczniejszego trybu „poniżej 18”. [5][2]

Ilustracja przedstawiająca ChatGPT w futurystycznym krajobrazie cyfrowym z elementami algorytmów.
Grafika koncepcyjna (AI)

Co to zmienia dla użytkowników

W trybie dla nieletnich ChatGPT ucina rozmowy o treściach uznanych za ryzykowne dla nastolatków: od drastycznej przemocy i „viralowych wyzwań”, przez seksualny czy romantyczny role play, po opisy samookaleczeń oraz materiały promujące skrajne standardy urody, restrykcyjne diety czy body shaming. Już wcześniej firma dodała kontrolę rodzicielską (linkowanie kont, „godziny ciszy”, ograniczenia dostępu do głosu i obrazów); teraz tryb bezpieczny ma się włączać automatycznie, gdy system „wyczuje” nieletniego.

A co jeśli ChatGPT pomyli się i uzna dorosłego za nastolatka? OpenAI mówi wprost: to się zdarzy. Dorośli mogą wtedy potwierdzić wiek przez Persona – zrobisz selfie, czasem dołączysz fotografię dokumentu (paszport, prawo jazdy; zależnie od kraju). Po weryfikacji ograniczenia znikają, choć wdrożenie zmian może zająć chwilę. Spółka podaje, że partner usuwa selfie i skan dokumentu w ciągu 7 dni.

Dlaczego teraz

Na firmie ciąży coraz większa presja. Amerykańska FTC przygląda się wpływowi chatbotów na dzieci i nastolatków, a OpenAI jest pozwane m.in. w sprawach dotyczących samobójstw nastolatków po interakcjach z AI. Jesienią spółka obiecała zestaw narzędzi dla rodziców i zapowiedziała system przewidywania wieku. Powołała też radę ekspertów od zdrowia psychicznego, a w Model Spec doprecyzowała zasady reagowania na użytkowników poniżej 18 lat w „wysokostawkowych” sytuacjach. [2]

Sam Altman mówi o „prymacie bezpieczeństwa nad prywatnością i wolnością” w przypadku nastolatków. Taki język dobrze brzmi w zeznaniach przed Kongresem, ale w praktyce oznacza trudny balans: im więcej behawioralnych danych do szacowania wieku, tym większy cień na prywatności dorosłych.

Fakty bez pudru

  • Start globalny obejmuje większość kont już teraz; w UE wdrożenie „w najbliższych tygodniach”.
  • Firma nie podaje skuteczności modelu; zapowiada jego „doskonalenie z czasem”.
  • Jeśli system nie ma pewności, domyślnie włącza tryb poniżej 18 lat i delikatniejsze odpowiedzi m.in. na tematy samookaleczeń.
  • Weryfikacja wieku przechodzi przez Persona; według OpenAI partner usuwa selfie/ID w ciągu 7 dni.
  • Akceptowane dokumenty zależą od kraju; szczegóły retencji poza tym oknem nie są publicznie doprecyzowane.

Komentarz: prywatność za bezpieczeństwo, rachunek nie do końca równy

To, co OpenAI nazywa „przewidywaniem wieku”, to w praktyce profilowanie zachowania i metadanych konta. Nie trzeba być złoczyńcą z filmów, żeby krzywo spojrzeć na system, który ocenia twoją pełnoletniość po tym, o której piszesz do bota. Dla dorosłych ryzyko to fałszywe pozytywy i konieczność oddania selfie oraz ID firmie trzeciej. Dla nastolatków – nadzieja na realną siatkę bezpieczeństwa tam, gdzie moderacja „po tekście” zbyt często zawodziła. Czy to działa? Inne platformy też stosują automatyczne zabezpieczenia i wiedzą, że algorytm bywa nadgorliwy. Rodzice za to wiedzą jedno: żadne „age gating” nie jest kuloodporne. Algorytmy mają pomagać, ale nie zastąpią zdrowego rozsądku i rozmowy.

Podsumowanie

OpenAI próbuje pogodzić dwa cele: chronić nieletnich i nie zrazić dorosłych. Kierunek ma sens, ale diabeł siedzi w detalach – przejrzystości, skuteczności i tym, jak często system będzie się mylił. Pytanie do ciebie: wolisz grzeczniejszego ChatGPT od ręki, czy najpierw machnąć selfie, żeby algorytm przestał traktować cię jak ucznia pierwszej klasy liceum?

FAQ

Czy przewidywanie wieku w ChatGPT działa już w Polsce i Unii Europejskiej?

Nie, w UE rollout ma nastąpić „w nadchodzących tygodniach”; poza UE funkcja startuje już teraz.

Jak ChatGPT przewiduje mój wiek bez proszenia o dokument?

Model używa sygnałów z konta i zachowania (czas istnienia konta, pory aktywności, wzorce użycia, zadeklarowany wiek). Nie wymaga selfie ani dokumentu, dopóki nie trzeba odblokować trybu dla dorosłych po błędnej klasyfikacji.

Co zrobić, jeśli jestem dorosły i zostałem błędnie przypisany do trybu poniżej 18 lat?

Zweryfikuj wiek w ustawieniach konta przez usługę Persona. Najczęściej wystarczy selfie; w niektórych krajach wymagany jest też dokument.

Jakie treści ChatGPT ogranicza dla kont uznanych za nieletnie?

Ograniczenia dotyczą m.in. drastycznej przemocy, seksualnego/romantycznego role play, ryzykownych „viralowych wyzwań”, opisów samookaleczeń oraz treści promujących skrajne standardy urody i restrykcyjne diety.

Czy OpenAI przechowuje moje selfie i skan dokumentu po weryfikacji wieku?

Według OpenAI partner weryfikacyjny Persona usuwa selfie i dokument do 7 dni po weryfikacji. Poza tym firma nie podała publicznie dodatkowych szczegółów retencji.

Źródła

🧠 Czy ten artykuł dał Ci nową perspektywę?
Jedno kliknięcie. Zero kont. PressMind uczy się razem z Tobą.
Ładowanie oceny…

PressMind Labs - Ślad badawczy

To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.

9 źródeł użytych w tekście
9 niezależnych domen
1 min 32 s czas researchu
Wysoki sygnał jakości
Skan tematu
185 z 320 sygnałów (RSS: 2932)
Zachowano: 185 (58%) | Odrzucono: 97 (30%)
Źródła (finalne)
9 źródeł z 9 domen
Start: 2 | Finalnie: 9
Czas researchu
1 min 32 s
Różnorodność domen: 9 Źródła użyte: 9 Kontekst: dodany (Wiki) Liczby w tekście: 1

1. Zbieranie sygnałów (discovery)

Temat
OpenAI rolls out age prediction model on ChatGPT to detect your age
RSS - źródeł w configu
79
RSS - stan źródeł
79 / 79 OK
RSS - przepływ (od surowych do unikalnych)
2932 -> 2861 -> 394 -> 320
Pula tematów (z RSS)
320
Wybrane do analizy
185
Odrzucone
97
Duplikaty (archiwum tematów)
1
Klastry (wątki)
136

2. Selekcja i filtrowanie

Odrzucono semantycznie (embedding)
4

3. Wyszukiwanie i wzbogacanie

Zapytania wyszukiwawcze
12
Unikalne wyniki
55
Kandydaci
23
Dodane z wyszukiwania (cache+live)
8
Przeskanowano URL-i (research)
2

4. Finalny kontekst

Źródła użyte w tekście
9
Źródła (domeny)
9
Wikipedia - kontekst
tak
Expansion - kontekst
nie
Wyłuskane liczby
1
Ten proces pokazuje, jak z dziesiątek sygnałów wyłania się kilka sprawdzonych źródeł, na których oparto finalny tekst.

Dodaj komentarz