Gadżety i sprzętPrawo i regulacje

Meta kończy współpracę z podwykonawcą po skandalu z Ray-Banami

Czy naprawdę wiesz, kto patrzy twoimi oczami, gdy prosisz okulary o pomoc sztucznej inteligencji?

Meta właśnie zerwała duży kontrakt z firmą z Kenii po tym, jak jej pracownicy powiedzieli mediom, że muszą oglądać nagrania z Ray-Ban Meta: od salonów i sypialni, po łazienki i sceny seksu. Firma twierdzi: partner „nie spełniał standardów”. Pracownicy i związkowcy z Nairobi odczytują to jako odwet za nagłośnienie sprawy. W tle: ponad tysiąc osób bez pracy i regulatorzy, którzy już pukają do drzwi.

Ray-Ban Meta to sprytne okulary z dwiema kamerami, mikrofonem i głośnikami w oprawkach. Gdy włączasz nagrywanie albo „pytasz AI” o to, co widzisz, dane nie zawsze zostają tylko w telefonie. Czasem trafiają do ludzi – dokładniej do „annotatorów”, którzy ręcznie opisują obraz i dźwięk, by szkolić modele AI. I tu zaczyna się problem: AI nie działa w próżni, działa na twoich danych. A ktoś to musi obejrzeć.

Ilustracja przedstawiająca inteligentne okulary na ciemnym tle.
Grafika koncepcyjna (AI)

Co się stało

W lutym szwedzkie redakcje Svenska Dagbladet i Göteborgs-Posten opisały relacje ponad 30 pracowników Sama w Nairobi – firmy podwykonawczej Meta. Opowiadali o klipach nagrywanych okularami: ludzie rozbierający się, wizyty w toalecie, pornografia w kadrze, a nawet zbliżenia numerów kart płatniczych. Jeden z pracowników wspominał sytuację, gdy mężczyzna odłożył okulary na stolik nocny, wyszedł, a kamera nagrała, jak jego żona się przebiera. Inny mówił wprost: „widzimy wszystko – od salonów po nagie ciała”.

Ilustracja przedstawiająca napiętą atmosferę w biurze z cieniami pracowników.
Grafika koncepcyjna (AI)

Meta przyznała wówczas, że „podwykonawcy mogą czasem przeglądać” treści, które użytkownicy udostępniają Meta AI – po to, by poprawiać działanie systemów. Firma podkreśla, że robi to z „jasną zgodą użytkownika” i że materiały są najpierw filtrowane pod kątem prywatności (np. rozmywanie twarzy). Ale sami annotatorzy i byli pracownicy Meta mówili, że anonimizacja bywa zawodna, zwłaszcza w trudnych warunkach oświetleniowych – twarze i ciała potrafią zostać widoczne.

Standardy kontra odwet

Kilka tygodni po medialnych publikacjach Meta „wstrzymała prace” z Sama, a następnie zakończyła współpracę. Według Sama decyzja oznacza zwolnienia dla 1 108 osób. Oficjalne stanowisko Meta: „zdecydowaliśmy się zakończyć współpracę, bo Sama nie spełnia naszych standardów”. Sama odpowiada: spełniamy, nikt nie zgłaszał zastrzeżeń, stoimy za jakością naszej pracy. Pracownicy i lokalna organizacja pracownicza sugerują inny powód: wystąpienie do mediów z opowieściami o intymnych nagraniach. [1][2]

Czy to było nagrywane za zgodą?

Ray-Ban Meta mają diodę sygnalizującą zapis wideo, a nagrywanie wymaga komendy głosowej lub dotykowej. Ale część klipów wyglądała na zarejestrowane bez świadomości osób w kadrze albo wręcz bez intencji właściciela okularów (zostawione w pokoju, kamera wciąż aktywna). To nie jest nowy grzech technologii ubieralnych, ale w połączeniu z „żywą” AI, która prosi o więcej kontekstu i widzi więcej, skala ryzyka rośnie.

Skąd te nagrania trafiają do ludzi

Kluczowy detal: tryb „live AI”. Gdy użytkownik uruchamia funkcję, która ma odpowiedzieć na pytanie o to, co widzi, okulary aktywnie zbierają obraz i dźwięk, by AI mogła zareagować szybko i sensownie. W regulaminach Meta jest zapis, że takie interakcje mogą być przechowywane i – w niektórych przypadkach – ręcznie przeglądane przez ludzi. Z zewnątrz brzmi to jak oczywista cena rozwoju modeli. Od środka wygląda jak taśma produkcyjna, na której ludzie w Nairobi rysują „bounding boxy” po czyimś życiu prywatnym.

Śledczy pytali Meta, skąd dokładnie pochodzą obrazy trafiające do przeglądu, jak są filtrowane, gdzie są przechowywane i jak długo. Po tygodniach czekania dostali odpowiedzi ogólne: jak dane przepływają z okularów do aplikacji, że obowiązują polityki prywatności, że „ludzki przegląd” jest możliwy. Nie padło „gdzie” i „jak często”. W sklepach optycznych w Szwecji sprzedawcy często nie umieli powiedzieć, jakie dane okulary wysyłają i dokąd – wielu wierzyło, że wszystko zostaje lokalnie w aplikacji. Testy dziennikarzy pokazały, że to nieprawda.

Regulatorzy wchodzą do gry

Po publikacjach brytyjski urząd ochrony danych (ICO) napisał do Meta, nazywając doniesienia „niepokojącymi” i pytając, jak firma realizuje obowiązki informacyjne i kontrolę użytkownika. Kenijski urząd ochrony danych wszczął postępowanie w sprawie okularów i prywatności. To ważne, bo mówimy nie tylko o danych właściciela okularów, ale i o przypadkowych bywalcach kadru – często w sytuacjach, które z definicji nie powinny trafiać do żadnej chmury. [2]

Fakty, które mają znaczenie

  • Luty: relacje pracowników Sama o intymnych nagraniach z Ray-Ban Meta.
  • Marzec: Meta wstrzymuje prace z Sama, regulatorzy zaczynają zadawać pytania.
  • Kwiecień: Meta rozwiązuje kontrakt z Sama; 1 108 osób ma stracić pracę.
  • Oficjalny powód Meta: „brak spełnienia standardów”. Odpowiedź Sama: „standardy spełnione, nie było uwag”.
  • Meta utrzymuje, że zdjęcia i wideo „są prywatne dla użytkowników”, ale interakcje z AI mogą być przeglądane ręcznie za zgodą – co wynika z polityk prywatności. [4]

Szerszy obraz

To nie jest tylko historia o jednych okularach i jednym podwykonawcy. To realny „człowiek w pętli”: nowoczesna AI opiera się na pracy ludzi w tańszych jurysdykcjach, którzy trafiają na najbardziej wrażliwe resztki naszych cyfrowych śladów. Granica między „ulepszamy usługę” a „ktoś obejrzał twoją łazienkę” bywa cienka. Okulary podbijają stawkę, bo kamera widzi z bliska i często.

Dla Meta konsekwencje są dwojakie. Operacyjne: trzeba pilnie doprecyzować filtry, audyty podwykonawców i informowanie użytkowników – tak, by nie było wątpliwości, kiedy materiał może trafić do człowieka. Reputacyjne i regulacyjne: kiedy mówisz „z jasną zgodą”, a równocześnie sprzedawcy w sklepach nie umieją wyjaśnić podstaw, to nie jest „jasność”, którą lubią urzędy. Dla pracowników w Nairobi to twarda rzeczywistość: z dnia na dzień mogą stracić zatrudnienie, choć to ich praca utrzymywała silnik AI w ruchu.

Podsumowanie

Jeśli chcemy żyć w świecie, gdzie AI patrzy naszymi oczami, musimy wiedzieć, kto jeszcze patrzy – i na jakich zasadach. Transparentne „kiedy, co, kto i gdzie” to nie fanaberia, tylko warunek społecznej licencji na działanie takich produktów. Bo kiedy prywatność kończy się na diodzie w rogu oprawek, szybko pojawia się zainteresowanie regulatorów.

Źródła

🧠 Czy ten artykuł dał Ci nową perspektywę?
Jedno kliknięcie. Zero kont. PressMind uczy się razem z Tobą.
Ładowanie oceny…
PressMind Labs - Ślad badawczy

To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.

9 źródeł użytych w tekście
7 niezależnych domen
1 min 47 s czas researchu
Wysoki sygnał jakości
Skan tematu
176 z 315 sygnałów (RSS: 3184)
Zachowano: 176 (56%) | Odrzucono: 104 (33%)
Źródła (finalne)
9 źródeł z 7 domen
Start: 1 | Finalnie: 9
Czas researchu
1 min 47 s
Różnorodność domen: 7 Źródła użyte: 9 Kontekst: dodany (Wiki)

1. Zbieranie sygnałów (discovery)

Temat
Meta cuts contractors who reported seeing Ray-Ban Meta users have sex
RSS - źródeł w configu
98
RSS - stan źródeł
98 / 98 OK
RSS - przepływ (od surowych do unikalnych)
3184 -> 2999 -> 488 -> 315
RSS - usunięte duplikaty tytułów
5
Pula tematów (z RSS)
315
Wybrane do analizy
176
Odrzucone
104
Klastry (wątki)
141

2. Selekcja i filtrowanie

Odrzucono jako nieaktualne (filtr daty)
2
Odrzucono semantycznie (embedding)
9

3. Wyszukiwanie i wzbogacanie

Zapytania wyszukiwawcze
19
Unikalne wyniki
52
Kandydaci
35
Dodane z wyszukiwania (cache+live)
8
Przeskanowano URL-i (research)
1

4. Finalny kontekst

Źródła użyte w tekście
9
Źródła (domeny)
7
Wikipedia - kontekst
tak
Expansion - kontekst
nie
Wyłuskane liczby
0
Ten proces pokazuje, jak z dziesiątek sygnałów wyłania się kilka sprawdzonych źródeł, na których oparto finalny tekst.

Dodaj komentarz