Czy naprawdę wiesz, kto patrzy twoimi oczami, gdy prosisz okulary o pomoc sztucznej inteligencji?
Meta właśnie zerwała duży kontrakt z firmą z Kenii po tym, jak jej pracownicy powiedzieli mediom, że muszą oglądać nagrania z Ray-Ban Meta: od salonów i sypialni, po łazienki i sceny seksu. Firma twierdzi: partner „nie spełniał standardów”. Pracownicy i związkowcy z Nairobi odczytują to jako odwet za nagłośnienie sprawy. W tle: ponad tysiąc osób bez pracy i regulatorzy, którzy już pukają do drzwi.
Ray-Ban Meta to sprytne okulary z dwiema kamerami, mikrofonem i głośnikami w oprawkach. Gdy włączasz nagrywanie albo „pytasz AI” o to, co widzisz, dane nie zawsze zostają tylko w telefonie. Czasem trafiają do ludzi – dokładniej do „annotatorów”, którzy ręcznie opisują obraz i dźwięk, by szkolić modele AI. I tu zaczyna się problem: AI nie działa w próżni, działa na twoich danych. A ktoś to musi obejrzeć.
Co się stało
W lutym szwedzkie redakcje Svenska Dagbladet i Göteborgs-Posten opisały relacje ponad 30 pracowników Sama w Nairobi – firmy podwykonawczej Meta. Opowiadali o klipach nagrywanych okularami: ludzie rozbierający się, wizyty w toalecie, pornografia w kadrze, a nawet zbliżenia numerów kart płatniczych. Jeden z pracowników wspominał sytuację, gdy mężczyzna odłożył okulary na stolik nocny, wyszedł, a kamera nagrała, jak jego żona się przebiera. Inny mówił wprost: „widzimy wszystko – od salonów po nagie ciała”.
Meta przyznała wówczas, że „podwykonawcy mogą czasem przeglądać” treści, które użytkownicy udostępniają Meta AI – po to, by poprawiać działanie systemów. Firma podkreśla, że robi to z „jasną zgodą użytkownika” i że materiały są najpierw filtrowane pod kątem prywatności (np. rozmywanie twarzy). Ale sami annotatorzy i byli pracownicy Meta mówili, że anonimizacja bywa zawodna, zwłaszcza w trudnych warunkach oświetleniowych – twarze i ciała potrafią zostać widoczne.
Standardy kontra odwet
Kilka tygodni po medialnych publikacjach Meta „wstrzymała prace” z Sama, a następnie zakończyła współpracę. Według Sama decyzja oznacza zwolnienia dla 1 108 osób. Oficjalne stanowisko Meta: „zdecydowaliśmy się zakończyć współpracę, bo Sama nie spełnia naszych standardów”. Sama odpowiada: spełniamy, nikt nie zgłaszał zastrzeżeń, stoimy za jakością naszej pracy. Pracownicy i lokalna organizacja pracownicza sugerują inny powód: wystąpienie do mediów z opowieściami o intymnych nagraniach. [1][2]
Czy to było nagrywane za zgodą?
Ray-Ban Meta mają diodę sygnalizującą zapis wideo, a nagrywanie wymaga komendy głosowej lub dotykowej. Ale część klipów wyglądała na zarejestrowane bez świadomości osób w kadrze albo wręcz bez intencji właściciela okularów (zostawione w pokoju, kamera wciąż aktywna). To nie jest nowy grzech technologii ubieralnych, ale w połączeniu z „żywą” AI, która prosi o więcej kontekstu i widzi więcej, skala ryzyka rośnie.
Skąd te nagrania trafiają do ludzi
Kluczowy detal: tryb „live AI”. Gdy użytkownik uruchamia funkcję, która ma odpowiedzieć na pytanie o to, co widzi, okulary aktywnie zbierają obraz i dźwięk, by AI mogła zareagować szybko i sensownie. W regulaminach Meta jest zapis, że takie interakcje mogą być przechowywane i – w niektórych przypadkach – ręcznie przeglądane przez ludzi. Z zewnątrz brzmi to jak oczywista cena rozwoju modeli. Od środka wygląda jak taśma produkcyjna, na której ludzie w Nairobi rysują „bounding boxy” po czyimś życiu prywatnym.
Śledczy pytali Meta, skąd dokładnie pochodzą obrazy trafiające do przeglądu, jak są filtrowane, gdzie są przechowywane i jak długo. Po tygodniach czekania dostali odpowiedzi ogólne: jak dane przepływają z okularów do aplikacji, że obowiązują polityki prywatności, że „ludzki przegląd” jest możliwy. Nie padło „gdzie” i „jak często”. W sklepach optycznych w Szwecji sprzedawcy często nie umieli powiedzieć, jakie dane okulary wysyłają i dokąd – wielu wierzyło, że wszystko zostaje lokalnie w aplikacji. Testy dziennikarzy pokazały, że to nieprawda.
Regulatorzy wchodzą do gry
Po publikacjach brytyjski urząd ochrony danych (ICO) napisał do Meta, nazywając doniesienia „niepokojącymi” i pytając, jak firma realizuje obowiązki informacyjne i kontrolę użytkownika. Kenijski urząd ochrony danych wszczął postępowanie w sprawie okularów i prywatności. To ważne, bo mówimy nie tylko o danych właściciela okularów, ale i o przypadkowych bywalcach kadru – często w sytuacjach, które z definicji nie powinny trafiać do żadnej chmury. [2]
Fakty, które mają znaczenie
- Luty: relacje pracowników Sama o intymnych nagraniach z Ray-Ban Meta.
- Marzec: Meta wstrzymuje prace z Sama, regulatorzy zaczynają zadawać pytania.
- Kwiecień: Meta rozwiązuje kontrakt z Sama; 1 108 osób ma stracić pracę.
- Oficjalny powód Meta: „brak spełnienia standardów”. Odpowiedź Sama: „standardy spełnione, nie było uwag”.
- Meta utrzymuje, że zdjęcia i wideo „są prywatne dla użytkowników”, ale interakcje z AI mogą być przeglądane ręcznie za zgodą – co wynika z polityk prywatności. [4]
Szerszy obraz
To nie jest tylko historia o jednych okularach i jednym podwykonawcy. To realny „człowiek w pętli”: nowoczesna AI opiera się na pracy ludzi w tańszych jurysdykcjach, którzy trafiają na najbardziej wrażliwe resztki naszych cyfrowych śladów. Granica między „ulepszamy usługę” a „ktoś obejrzał twoją łazienkę” bywa cienka. Okulary podbijają stawkę, bo kamera widzi z bliska i często.
Dla Meta konsekwencje są dwojakie. Operacyjne: trzeba pilnie doprecyzować filtry, audyty podwykonawców i informowanie użytkowników – tak, by nie było wątpliwości, kiedy materiał może trafić do człowieka. Reputacyjne i regulacyjne: kiedy mówisz „z jasną zgodą”, a równocześnie sprzedawcy w sklepach nie umieją wyjaśnić podstaw, to nie jest „jasność”, którą lubią urzędy. Dla pracowników w Nairobi to twarda rzeczywistość: z dnia na dzień mogą stracić zatrudnienie, choć to ich praca utrzymywała silnik AI w ruchu.
Podsumowanie
Jeśli chcemy żyć w świecie, gdzie AI patrzy naszymi oczami, musimy wiedzieć, kto jeszcze patrzy – i na jakich zasadach. Transparentne „kiedy, co, kto i gdzie” to nie fanaberia, tylko warunek społecznej licencji na działanie takich produktów. Bo kiedy prywatność kończy się na diodzie w rogu oprawek, szybko pojawia się zainteresowanie regulatorów.
Źródła
- [1] https://arstechnica.com/gadgets/2026/04/meta-cuts-contractors-who-reported-seeing-ray-ban-meta-users-have-sex/
- [2] https://bbc.com/news/articles/c5y7yvgy0w6o
- [3] https://helpnetsecurity.com/2026/03/05/meta-ray-ban-smart-glasses-privacy-risks/
- [4] https://techdigest.tv/2026/03/intimate-footage-from-ray-ban-meta-smartglasses-viewed-by-contractors-report-claims.html
- [5] https://techbuzz.ai/articles/meta-ai-glasses-send-intimate-footage-to-kenya-reviewers
- [6] https://myjoyonline.com/regulator-contacts-meta-over-workers-watching-intimate-ai-glasses-videos/
- [7] https://san.com/cc/what-your-meta-smart-glasses-record-doesnt-stay-on-your-smart-glasses-data-labeling-contractors-say/
- [8] https://arstechnica.com/gadgets/2026/03/workers-report-watching-ray-ban-meta-shot-footage-of-people-using-the-bathroom/
- [9] https://techdigest.tv/2026/04/meta-ends-contract-after-kenyan-workers-view-naked-bodies-citroen-confirms-sub-15000-ev.html
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 98
- RSS - stan źródeł
- 98 / 98 OK
- RSS - przepływ (od surowych do unikalnych)
- 3184 -> 2999 -> 488 -> 315
- RSS - usunięte duplikaty tytułów
- 5
- Pula tematów (z RSS)
- 315
- Wybrane do analizy
- 176
- Odrzucone
- 104
- Klastry (wątki)
- 141
2. Selekcja i filtrowanie
- Odrzucono jako nieaktualne (filtr daty)
- 2
- Odrzucono semantycznie (embedding)
- 9
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 19
- Unikalne wyniki
- 52
- Kandydaci
- 35
- Dodane z wyszukiwania (cache+live)
- 8
- Przeskanowano URL-i (research)
- 1
4. Finalny kontekst
- Źródła użyte w tekście
- 9
- Źródła (domeny)
- 7
- Wikipedia - kontekst
- tak
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 0




