Czytaliście to „wyznanie” rzekomego dewelopera z dużej aplikacji do dostaw jedzenia? Mocny materiał: „desperation score”, „human assets”, lobbyści na zlecenie, a do tego zrzut identyfikatora Uber Eats. Problem w tym, że niemal na pewno napisało to… AI.
Viralowy post z Reddita z 2 stycznia, który zebrał dziesiątki tysięcy plusów i wywołał burzę, okazał się pełen czerwonych flag: od sfabrykowanego zdjęcia przepustki, przez sprzeczne wyniki detektorów, po znikającego „whistleblowera”. Firmy zaprzeczają, dziennikarze nie znaleźli potwierdzenia. I tak, branża dostaw ma brudne sumienie – właśnie dlatego ten tekst tak łatwo wszedł ludziom jak gorące frytki.
To ważne, bo w 2026 r. „anonimowe wycieki” generowane przez AI będą jednym z najszybszych sposobów na rozkręcenie outrage’u, kształtowanie nastrojów i pchanie debat regulacyjnych w określonym kierunku. Krytyka algorytmów i gig-rynku jest potrzebna, ale jeśli oprzemy ją na spreparowanych „wyznaniach”, to dostajemy beton: sklejony mitami, odporny na fakty.
Jak to się rozlało po sieci
Pod nickiem Trowaway_whistleblow pojawił się na Reddicie wywód: „duża” apka do dostaw rzekomo celowo opóźnia zamówienia, kierowców w korpożargonie nazywa „human assets”, a ich wynagrodzenia reguluje ukryty „Desperation Score” mierzący, jak bardzo potrzebują gotówki. „Priority delivery” ma być „totalnym scamem”, a „benefit fee” – zastrzykiem do budżetu lobbingowego. Dodatkowo algorytm miał obniżać podstawę kursu, gdy system wykrywa „hojnego” klienta, by napiwek de facto subsydiował firmę.
Kontekst: algorytmiczna mgła
Brzmi wiarygodnie, bo branża sama sobie zgotowała taki PR. Kierowcy od lat mówią o nieprzejrzystych stawkach, bonusach zmieniających się jak pogoda i presji na akord. To, że ludzie uwierzyli w „desperation score”, to nie tylko łatwowierność. To efekt realnego braku zaufania do platform i ich czarnych skrzynek.
Co się nie zgadzało
The Verge przepuściło tekst przez kilka detektorów. Wnioski były rozbieżne, co przypomina, że takie narzędzia nie są wyrocznią. Za to przy dowodach „z twardego świata” zrobiło się jasne. Autor wysłał dziennikarzom zdjęcie identyfikatora „Uber Eats” z podpisem „senior software engineer”. Narzędzia od Google’a wskazały, że obraz jest generowany/edytowany przez AI: krzywo ułożone litery, artefakty na krawędziach, a przede wszystkim – sam koncept takiej przepustki jest dziwny. Uber potwierdził później, że przepustek z logo Uber Eats nie ma. [1]
To nie wszystko. Casey Newton (Platformer) i ekipa Hard Fork też dostali zdjęcie tej przepustki; modele Google’a znów podniosły alarm. Substack Hard Reset opisał, że Trowaway_whistleblow podesłał rzekomy wewnętrzny dokument Ubera, po czym… skasował konto na Signal, gdy padły pytania o autentyczność. Rozmowa The Verge również zakończyła się komunikatem „This person isn’t using Signal.” [1]
Firmy odpowiedziały ostro. Rzecznik Ubera: „Twierdzenia są fałszywe i kompletnie błędne.” Andrew Macdonald z Uber Eats na X: „To na pewno nie o nas.” Szef DoorDash Tony Xu nazwał wpis „obrzydliwym” i dodał: „To nie DoorDash, zwolniłbym każdego, kto promuje kulturę opisaną w tym poście.” DoorDash opublikował nawet dłuższe dementi: nie używa „Desperation Score”, nie nazywa kierowców „human assets”, „priority delivery” nie jest oszustwem, a „driver benefit fee” nie finansuje antyzwiązkowego lobbingu. Firma zaprzeczyła też tezie, że obniża bazę kursu przy wysokich napiwkach. [1]
AI, która naprawdę psuje dostawy
Ironia losu: choć ten konkretny post to najpewniej fantazja modelu językowego, AI faktycznie zaczyna sprawiać kłopoty w logistyce ostatniej mili – tylko gdzie indziej. TechCrunch opisał przypadek z Austin: kurier DoorDash miał oznaczyć kurs jako dostarczony i wrzucić „zdjęcie” paczki pod drzwiami, które wyglądało na wygenerowane przez AI. DoorDash usunął konto „Dashera” i zwrócił klientowi pieniądze.
A skoro już przy oszustwach: japońska policja zatrzymała mężczyznę, który przez dwa lata wyciągał z Demae-can darmowe jedzenie, zgłaszając „niedostarczone” zamówienia. Ponad tysiąc posiłków i realne straty. To pokazuje, że ekosystem jest kruchy – i to w dwie strony.
Komentarz: idealnie wyjustowane oburzenie
Anonimowe „spowiedzi z piekła open space’u” mają swoją kompozycję: kilka legalnie brzmiących terminów, parę szczegółów „tylko dla wtajemniczonych”, moralne oburzenie podane w punkt. AI potrafi to skleić bardzo gładko. I właśnie ta gładkość powinna budzić czujność. Jeśli do tego dochodzi brak weryfikowalnych szczegółów (nazwa działu, daty, ludzie, dokumenty z metadanymi) i „dowody” obrazkowe z artefaktami generatywnymi – mamy typowy leakbait.
To nie zwalnia firm z odpowiedzi na prawdziwe pytania o algorytmy, stawki i praktyki operacyjne. Ale obrona przed AI-ściemą nie może polegać na „zaufajcie nam, nigdy byśmy tak nie zrobili”. Tu potrzeba przejrzystości i niezależnych audytów – bo tam, gdzie pojawia się mgła, łatwo o narracje trwalsze niż fakty.
Co z tego wynika
- Detektory AI to drogowskazy, nie sędziowie. Szukajmy dowodów materialnych i rozbieżności, a nie tylko „wyniku procentowego”.
- Media i czytelnicy muszą zwalniać tempo: zanim wrzucimy „holy f-ing s-t”, zapytajmy o źródła, proweniencję zdjęć, potwierdzenia u drugiej strony.
- Platformy powinny pomóc: podpisy cyfrowe obrazów, ścieżki audytu dla kluczowych decyzji algorytmów, procesy whistleblowingowe z weryfikacją.
Prawdziwe historie o nadużyciach w gig-ekonomii istnieją i zasługują na światło dzienne. Ale jeśli pozwolimy, by rozmowę przejęły narracje sklejone przez generatory, to jedyną rzeczą, którą „zoptymalizujemy”, będzie chaos informacyjny. Ile jeszcze takich „wyznań” zobaczymy w tym roku – i ile z nich przetrwa konfrontację z rzeczywistością?
FAQ
Czy viralowy post z Reddita o aplikacji do dostaw był prawdziwy?
Najprawdopodobniej nie. Zdjęcie przepustki Uber Eats okazało się generowane/edytowane przez AI, a same przepustki z tym logo nie istnieją; firmy stanowczo zaprzeczyły treści.
Czy DoorDash lub Uber potwierdziły jakiekolwiek elementy z tego wpisu?
Nie. Uber i DoorDash publicznie zaprzeczyły kluczowym zarzutom, w tym istnieniu „Desperation Score” i nazywaniu kierowców „human assets”.
Jak rozpoznać wpis wygenerowany przez AI w podobnych „wyznaniach”?
Nie ma metody 100%. Szukaj braków w weryfikowalnych szczegółach, zbyt gładkiego stylu, powtarzalnych fraz i „dowodów” obrazkowych z artefaktami; proś o dokumenty z metadanymi.
Czy AI-oszustwa w dostawach naprawdę się zdarzają?
Tak. Przykład z Austin pokazuje, że kurier mógł użyć wygenerowanego zdjęcia, by „potwierdzić” doręczenie; platforma usunęła jego konto.
Czy firmy obniżają wypłatę kierowcy, gdy klient daje wysoki napiwek, jak twierdził post?
Brak dowodów. DoorDash zaprzeczył takiej praktyce wprost w oświadczeniu i wpisie na blogu.
Źródła
- [1] https://theverge.com/news/855328/viral-reddit-delivery-app-ai-scam
- [2] https://techcrunch.com/2026/01/04/doordash-says-it-banned-driver-who-seemingly-faked-a-delivery-using-ai/
- [3] https://nypost.com/2026/01/05/business/doordash-ceo-responds-to-viral-reddit-post-on-driver-pay/
- [4] https://gulfnews.com/world/asia/1000-free-meals-later-how-one-man-scammed-japans-biggest-delivery-platform-for-two-years-1.500308266
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- Znaleziono materiałów
- 80
- Wybrane do analizy
- 43
- Odrzucone
- 37
- Duplikaty
- 0
- Klastry (wątki)
- 35
2. Selekcja i filtrowanie
- Odrzucono po tytule
- 37
- Odrzucono semantycznie
- 0
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 10
- Unikalne wyniki
- 52
- Kandydaci
- 2
- Dodane z wyszukiwania
- 2
- Przeskanowano URL-i (seed)
- 2
4. Finalny kontekst
- Źródła użyte w tekście
- 4
- Źródła (domeny)
- 4
- Wikipedia - kontekst
- tak
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 0




