Czy Wikipedia ma nowego sąsiada z megafonem? ChatGPT zaczął cytować Grokipedię Elona Muska – i to nie jest clickbait, tylko wynik testów.
Nowa wersja ChatGPT (GPT-5.2) w odpowiedziach zaczęła sięgać po Grokipedię, AI-encyklopedię od xAI. W testach odnotowano dziewięć cytowań przy ponad tuzinie pytań – głównie na niszowe tematy. To drobiazg? Raczej sygnał ostrzegawczy: w dobie LLM-ów to, skąd model czerpie wiedzę, bywa ważniejsze niż to, jak ładnie ją podaje.
Kontekst jest większy niż wieczna sprzeczka Musk-Altman. Dzisiejsze chatboty nie żyją wyłącznie tym, co wchłonęły w treningu – dogrywają dane z sieci na żywo. Jeśli do miksu wpada serwis o wątpliwej redakcyjnej higienie, efektem może być elegancka odpowiedź z krzywą podstawą faktograficzną. A użytkownik widzi tylko, że „AI wie”.
O co chodzi z Grokipedią
Grokipedia wystartowała w październiku jako muskowa alternatywa dla Wikipedii po serii zarzutów, że ta ostatnia ma lewicowy przechył. Szybko okazało się, że wiele haseł jest po prostu skopiowanych z Wikipedii, ale między kopiami pojawiają się własne wstawki: od sugestii, że pornografia przyczyniła się do kryzysu AIDS, przez „ideologiczne uzasadnienia” dla niewolnictwa, po obraźliwe sformułowania wobec osób transpłciowych. Do tego zamiast społecznej redakcji jest scentralizowany system – teksty pisze model, a ludzie mogą co najwyżej wysłać uwagę przez formularz.
Nie pomaga kontekst ekosystemu: chatbot Grok potrafił nazwać siebie „Mecha Hitlerem”, a platforma X była zalewana seksualizowanymi deepfake’ami. Takie tło nie składa się na wizerunek źródła, które chcesz widzieć w przypisach narzędzia do pracy.
Kiedy ChatGPT sięga po Grokipedię
Testy wykazały, że GPT-5.2 cytował Grokipedię dziewięciokrotnie, odpowiadając na pytania m.in. o struktury polityczne w Iranie: pensje paramilitarnej Basidż czy własność fundacji Mostazafan. Pojawiły się też mocniejsze niż w Wikipedii twierdzenia o związkach rządu Iranu i MTN-Irancell, włącznie z rzekomymi powiązaniami z biurem Najwyższego Przywódcy. W innym przypadku model powtórzył informacje o historyku sir Richardzie Evansie – takie, które wcześniej zdementowano. [4]
Zwraca uwagę selektywność. ChatGPT nie cytował Grokipedii przy tematach, gdzie jej nieścisłości były już nagłaśniane: zamieszki z 6 stycznia, HIV/AIDS czy „uprzedzenia mediów” wobec Donalda Trumpa. Innymi słowy – kontrowersyjne treści nie weszły głównymi drzwiami, tylko przeciekają bocznym korytarzem długiego ogona zapytań.
To nie jest wyłącznie przypadłość jednego modelu. Użytkownicy zauważyli podobne cytowania Grokipedii w odpowiedziach Claude’a od Anthropic – od ropy naftowej po szkockie ale.
Jak to się w ogóle dzieje
Dzisiejsze LLM-y to internetowe odkurzacze z modułem wyszukiwawczym: w czasie odpowiedzi dociągają treści z sieci i łączą je z wytrenowaną wiedzą. Jeśli strony Grokipedii są zindeksowane i wysoko plasują się w niszowych tematach, mechanizm je wciągnie. OpenAI odpowiada na zarzuty standardowo: ich wyszukiwanie „sięga po szeroki wachlarz publicznych źródeł i punktów widzenia”, a systemy filtrujące mają ograniczać materiały o „wysokiej szkodliwości”. Firma podkreśla, że ChatGPT pokazuje źródła w cytatach.
Problem w tym, że selekcja źródeł nie jest kosmetyką. To kręgosłup faktów w generatywnej odpowiedzi. Wikipedia od lat pełni tę rolę dzięki transparentnym przypisom i społecznej moderacji – nic dziwnego, że w klasycznych zbiorach treningowych (jak The Pile) stanowi zauważalny ułamek danych. Grokipedia gra w innej lidze: łączy kopie z Wikipedii z ideologicznymi dopiskami i nietypowymi tezami. Kiedy chatboty zaczynają ją cytować, pojawia się ryzyko „prania wiarygodności” – bo sama obecność źródła w przypisie sugeruje, że przeszło jakieś sito. A to niekoniecznie prawda. [7]
Granice odporności
Co ciekawe, wzorzec z testów układa się w dobrze znaną bolączkę systemów wyszukiwania: modele są twardsze na tematach z szerokim konsensem i gęstą siecią jakościowych źródeł, a podatne na obrzeżach, gdzie wystarczy jeden dobrze wypozycjonowany tekst, by przejąć narrację. Dla badaczy dezinformacji to realne zagrożenie. Już w zeszłym roku ostrzegano przed „groomingiem LLM-ów” – metodycznym sianiem treści w sieci, by chatboty zaczęły je powtarzać. Jak zauważa Nina Jankowicz, takie cytowania podnoszą percepcyjną wiarygodność podejrzanych sieci wydawniczych: „Skoro cytuje to ChatGPT, to musi być w porządku”.
OpenAI twierdzi, że pracuje nad filtrami niskiej wiarygodności i kampanii wpływu. Po stronie faktów widać też pewną dobrą wiadomość: w obszarach, gdzie Grokipedia najczęściej mija się z prawdą, model jej nie krzyczy z megafonu. Ale to wciąż pół sukcesu. Codzienna jakość LLM-ów rozstrzyga się w szarej strefie rzadkich pytań, nie na sztandarowych sporach politycznych.
Co z tym zrobić
Nie ma jednej magicznej łatki. Technicznie – lepsze rankingi, ostrzejsze sygnały jakości, wykrywanie klonów Wikipedii z doklejoną agendą, post-retrieval weryfikacja. Operacyjnie – większa transparentność: pokazywanie nie tylko linków, ale też krótkiej oceny wiarygodności domeny. Dla nas, użytkowników – odruch patrzenia w przypisy i krótka weryfikacja drugiego źródła, gdy temat jest egzotyczny, a teza brzmi zbyt „pewnie”.
Konkurencja Musk-Altman robi tu medialny szum, ale istota problemu jest starsza niż ich wojny na posty. Gdy modele językowe stają się dla wielu ludzi interfejsem do wiedzy, dyscyplina doboru źródeł to nie „ładna cecha”, tylko obowiązek. Pytanie do nas wszystkich: czy będziemy klikać w przypisy, czy uznamy, że ładnie sformatowana odpowiedź to cała prawda?
Źródła
- [1] https://techcrunch.com/2026/01/25/chatgpt-is-pulling-answers-from-elon-musks-grokipedia/
- [2] https://tech.yahoo.com/ai/chatgpt/articles/chatgpt-pulling-answers-elon-musk-223553608.html
- [3] https://beritaja.com/chatgpt-is-pulling-answers-from-elon-musk-s-grokipedia-beritaja-402091.html
- [4] https://findarticles.com/chatgpt-pulls-answers-from-musks-grokipedia/
- [5] https://eng.pressbee.net/show4483498.html?title=chatgpt-is-pulling-answers-from-elon-musk-s-grokipedia
- [6] https://newsbytesapp.com/news/science/gpt-5-2-cites-musk-s-xai-powered-grokipedia-amid-openai-musk-rivalry/story
- [7] https://theguardian.com/technology/2026/jan/24/latest-chatgpt-model-uses-elon-musks-grokipedia-as-source-tests-reveal
- [8] https://livemint.com/technology/tech-news/is-wikipedia-dead-openais-gpt-5-2-turns-to-elon-musks-grokipedia-for-real-time-answers-11769306121956.html
- [9] https://financialexpress.com/life/technology-sam-altmans-chatgpt-5-2-now-relying-on-elon-musks-grokipedia-for-sourcing-information-4118718/
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 90
- RSS - stan źródeł
- 90 / 90 OK
- RSS - przepływ (od surowych do unikalnych)
- 3066 -> 2976 -> 449 -> 318
- RSS - usunięte duplikaty tytułów
- 2
- Pula tematów (z RSS)
- 318
- Wybrane do analizy
- 188
- Odrzucone
- 101
- Duplikaty (archiwum tematów)
- 1
- Klastry (wątki)
- 148
2. Selekcja i filtrowanie
- Odrzucono tematycznie (tytuł + słowa kluczowe)
- 1
- Odrzucono jako nieaktualne (filtr daty)
- 1
- Odrzucono semantycznie (embedding)
- 16
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 18
- Unikalne wyniki
- 54
- Kandydaci
- 36
- Dodane z wyszukiwania (cache+live)
- 8
- Przeskanowano URL-i (research)
- 1
4. Finalny kontekst
- Źródła użyte w tekście
- 9
- Źródła (domeny)
- 9
- Wikipedia - kontekst
- nie
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 0




