Sztuczna inteligencja

ChatGPT cytuje Grokipedię Elona Muska – nowy problem w AI?

Czy Wikipedia ma nowego sąsiada z megafonem? ChatGPT zaczął cytować Grokipedię Elona Muska – i to nie jest clickbait, tylko wynik testów.

Nowa wersja ChatGPT (GPT-5.2) w odpowiedziach zaczęła sięgać po Grokipedię, AI-encyklopedię od xAI. W testach odnotowano dziewięć cytowań przy ponad tuzinie pytań – głównie na niszowe tematy. To drobiazg? Raczej sygnał ostrzegawczy: w dobie LLM-ów to, skąd model czerpie wiedzę, bywa ważniejsze niż to, jak ładnie ją podaje.

Kontekst jest większy niż wieczna sprzeczka Musk-Altman. Dzisiejsze chatboty nie żyją wyłącznie tym, co wchłonęły w treningu – dogrywają dane z sieci na żywo. Jeśli do miksu wpada serwis o wątpliwej redakcyjnej higienie, efektem może być elegancka odpowiedź z krzywą podstawą faktograficzną. A użytkownik widzi tylko, że „AI wie”.

Ilustracja przedstawiająca futurystyczny interfejs AI na ciemnym tle.
Grafika koncepcyjna (AI)

O co chodzi z Grokipedią

Grokipedia wystartowała w październiku jako muskowa alternatywa dla Wikipedii po serii zarzutów, że ta ostatnia ma lewicowy przechył. Szybko okazało się, że wiele haseł jest po prostu skopiowanych z Wikipedii, ale między kopiami pojawiają się własne wstawki: od sugestii, że pornografia przyczyniła się do kryzysu AIDS, przez „ideologiczne uzasadnienia” dla niewolnictwa, po obraźliwe sformułowania wobec osób transpłciowych. Do tego zamiast społecznej redakcji jest scentralizowany system – teksty pisze model, a ludzie mogą co najwyżej wysłać uwagę przez formularz.

Ilustracja przedstawiająca futurystyczną bibliotekę z ekranami i interfejsem chatbota.
Grafika koncepcyjna (AI)

Nie pomaga kontekst ekosystemu: chatbot Grok potrafił nazwać siebie „Mecha Hitlerem”, a platforma X była zalewana seksualizowanymi deepfake’ami. Takie tło nie składa się na wizerunek źródła, które chcesz widzieć w przypisach narzędzia do pracy.

Kiedy ChatGPT sięga po Grokipedię

Testy wykazały, że GPT-5.2 cytował Grokipedię dziewięciokrotnie, odpowiadając na pytania m.in. o struktury polityczne w Iranie: pensje paramilitarnej Basidż czy własność fundacji Mostazafan. Pojawiły się też mocniejsze niż w Wikipedii twierdzenia o związkach rządu Iranu i MTN-Irancell, włącznie z rzekomymi powiązaniami z biurem Najwyższego Przywódcy. W innym przypadku model powtórzył informacje o historyku sir Richardzie Evansie – takie, które wcześniej zdementowano. [4]

Zwraca uwagę selektywność. ChatGPT nie cytował Grokipedii przy tematach, gdzie jej nieścisłości były już nagłaśniane: zamieszki z 6 stycznia, HIV/AIDS czy „uprzedzenia mediów” wobec Donalda Trumpa. Innymi słowy – kontrowersyjne treści nie weszły głównymi drzwiami, tylko przeciekają bocznym korytarzem długiego ogona zapytań.

To nie jest wyłącznie przypadłość jednego modelu. Użytkownicy zauważyli podobne cytowania Grokipedii w odpowiedziach Claude’a od Anthropic – od ropy naftowej po szkockie ale.

Jak to się w ogóle dzieje

Dzisiejsze LLM-y to internetowe odkurzacze z modułem wyszukiwawczym: w czasie odpowiedzi dociągają treści z sieci i łączą je z wytrenowaną wiedzą. Jeśli strony Grokipedii są zindeksowane i wysoko plasują się w niszowych tematach, mechanizm je wciągnie. OpenAI odpowiada na zarzuty standardowo: ich wyszukiwanie „sięga po szeroki wachlarz publicznych źródeł i punktów widzenia”, a systemy filtrujące mają ograniczać materiały o „wysokiej szkodliwości”. Firma podkreśla, że ChatGPT pokazuje źródła w cytatach.

Problem w tym, że selekcja źródeł nie jest kosmetyką. To kręgosłup faktów w generatywnej odpowiedzi. Wikipedia od lat pełni tę rolę dzięki transparentnym przypisom i społecznej moderacji – nic dziwnego, że w klasycznych zbiorach treningowych (jak The Pile) stanowi zauważalny ułamek danych. Grokipedia gra w innej lidze: łączy kopie z Wikipedii z ideologicznymi dopiskami i nietypowymi tezami. Kiedy chatboty zaczynają ją cytować, pojawia się ryzyko „prania wiarygodności” – bo sama obecność źródła w przypisie sugeruje, że przeszło jakieś sito. A to niekoniecznie prawda. [7]

Granice odporności

Co ciekawe, wzorzec z testów układa się w dobrze znaną bolączkę systemów wyszukiwania: modele są twardsze na tematach z szerokim konsensem i gęstą siecią jakościowych źródeł, a podatne na obrzeżach, gdzie wystarczy jeden dobrze wypozycjonowany tekst, by przejąć narrację. Dla badaczy dezinformacji to realne zagrożenie. Już w zeszłym roku ostrzegano przed „groomingiem LLM-ów” – metodycznym sianiem treści w sieci, by chatboty zaczęły je powtarzać. Jak zauważa Nina Jankowicz, takie cytowania podnoszą percepcyjną wiarygodność podejrzanych sieci wydawniczych: „Skoro cytuje to ChatGPT, to musi być w porządku”.

OpenAI twierdzi, że pracuje nad filtrami niskiej wiarygodności i kampanii wpływu. Po stronie faktów widać też pewną dobrą wiadomość: w obszarach, gdzie Grokipedia najczęściej mija się z prawdą, model jej nie krzyczy z megafonu. Ale to wciąż pół sukcesu. Codzienna jakość LLM-ów rozstrzyga się w szarej strefie rzadkich pytań, nie na sztandarowych sporach politycznych.

Co z tym zrobić

Nie ma jednej magicznej łatki. Technicznie – lepsze rankingi, ostrzejsze sygnały jakości, wykrywanie klonów Wikipedii z doklejoną agendą, post-retrieval weryfikacja. Operacyjnie – większa transparentność: pokazywanie nie tylko linków, ale też krótkiej oceny wiarygodności domeny. Dla nas, użytkowników – odruch patrzenia w przypisy i krótka weryfikacja drugiego źródła, gdy temat jest egzotyczny, a teza brzmi zbyt „pewnie”.

Konkurencja Musk-Altman robi tu medialny szum, ale istota problemu jest starsza niż ich wojny na posty. Gdy modele językowe stają się dla wielu ludzi interfejsem do wiedzy, dyscyplina doboru źródeł to nie „ładna cecha”, tylko obowiązek. Pytanie do nas wszystkich: czy będziemy klikać w przypisy, czy uznamy, że ładnie sformatowana odpowiedź to cała prawda?

Źródła

🧠 Czy ten artykuł dał Ci nową perspektywę?
Jedno kliknięcie. Zero kont. PressMind uczy się razem z Tobą.
Ładowanie oceny…
PressMind Labs - Ślad badawczy

To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.

9 źródeł użytych w tekście
9 niezależnych domen
3 min 2 s czas researchu
Wysoki sygnał jakości
Skan tematu
188 z 318 sygnałów (RSS: 3066)
Zachowano: 188 (59%) | Odrzucono: 101 (32%)
Źródła (finalne)
9 źródeł z 9 domen
Start: 1 | Finalnie: 9
Czas researchu
3 min 2 s
Różnorodność domen: 9 Źródła użyte: 9 Kontekst: pominięty

1. Zbieranie sygnałów (discovery)

Temat
ChatGPT is pulling answers from Elon Musk’s Grokipedia
RSS - źródeł w configu
90
RSS - stan źródeł
90 / 90 OK
RSS - przepływ (od surowych do unikalnych)
3066 -> 2976 -> 449 -> 318
RSS - usunięte duplikaty tytułów
2
Pula tematów (z RSS)
318
Wybrane do analizy
188
Odrzucone
101
Duplikaty (archiwum tematów)
1
Klastry (wątki)
148

2. Selekcja i filtrowanie

Odrzucono tematycznie (tytuł + słowa kluczowe)
1
Odrzucono jako nieaktualne (filtr daty)
1
Odrzucono semantycznie (embedding)
16

3. Wyszukiwanie i wzbogacanie

Zapytania wyszukiwawcze
18
Unikalne wyniki
54
Kandydaci
36
Dodane z wyszukiwania (cache+live)
8
Przeskanowano URL-i (research)
1

4. Finalny kontekst

Źródła użyte w tekście
9
Źródła (domeny)
9
Wikipedia - kontekst
nie
Expansion - kontekst
nie
Wyłuskane liczby
0
Ten proces pokazuje, jak z dziesiątek sygnałów wyłania się kilka sprawdzonych źródeł, na których oparto finalny tekst.

Dodaj komentarz