Czy chatbot może być twoim powiernikiem – i co się dzieje, gdy człowiek odpowiedzialny za jego „empatię” odchodzi?
Andrea Vallone, liderka zespołu w OpenAI, który uczył ChatGPT radzić sobie z rozmowami o depresji, psychozie czy samobójstwie, żegna się z firmą. Jej odejście, potwierdzone przez OpenAI, zbiega się z falą pozwów i rosnącą presją, by gigant AI pilniej traktował zdrowie psychiczne użytkowników. Przynajmniej do czasu nominacji następcy zespół Vallone ma raportować bezpośrednio do szefa bezpieczeństwa systemów, Johannesa Heidecke.
To ważne nie tylko dla OpenAI. Chatboty stały się masowym interfejsem do emocji: wysłuchują, nie oceniają i odpowiadają 24/7. To wygodne – i ryzykowne. Kiedy algorytm zamienia się w „przyjaciela na zawołanie”, granica między pomocą a pogłębieniem kryzysu bywa cienka. A każda decyzja o tym, co model powie osobie w rozsypce, to de facto polityka zdrowia publicznego uprawiana przez prywatną firmę. [2]
Kto odchodzi i co zostawia po sobie
Vallone stała na czele zespołu „model policy” – ludzi, którzy tłumaczą wartości i zasady na konkretne zachowania modelu: jak rozpoznać sygnały kryzysu, kiedy odmawiać, kiedy przełączyć się na ton wspierający, kiedy skierować do realnego wsparcia. To ten zespół współtworzył październikowy raport OpenAI o tym, jak ChatGPT ma reagować na treści o samookaleczeniu czy urojeniach i jak firma konsultuje te zmiany z ekspertami.
Odejście Vallone nie oznacza próżni – OpenAI szuka następcy, a w międzyczasie jej podwładni przesuwają się pod skrzydła Heidecke. Ale w firmie, która testuje granice komercjalizacji „towarzyskiego AI”, utrata liderki od bezpieczeństwa w obszarze tak wrażliwym to sygnał ostrzegawczy. Szczególnie gdy na horyzoncie kłębią się sprawy sądowe, a regulatorzy pytają o podstawy.
Ile problemu w liczbach
Przez długi czas nikt nie wiedział, jak duża jest skala rozmów o poważnych kryzysach psychicznych w ChatGPT. OpenAI przerwało milczenie: według własnych szacunków w typowym tygodniu ok. 0,07% aktywnych użytkowników wykazuje „możliwe oznaki nagłych kryzysów związanych z psychozą lub manią”, a 0,15% prowadzi rozmowy „z jawnymi wskaźnikami potencjalnego planowania lub intencji samobójczej”. Firma twierdzi też, że model lepiej wyłapuje symptomy i kieruje do realnego wsparcia – to skutek pracy zespołów bezpieczeństwa i konsultacji z ekspertami. [3]
Gizmodo, opierając się na tych danych, szacuje, że mówimy o milionach ludzi tygodniowo – w tym „ponad milionie” rozmów dotyczących samobójstwa. To są liczby, przy których każde „przepraszam, nie mogę na to odpowiedzieć” albo przeciwnie – nadmiernie ciepła walidacja – ma realne konsekwencje.
Nie chodzi tylko o statystyki. W mediach przewijają się historie, które dostały własne etykiety: „AI psychosis” dla ludzi zapętlonych w urojeniowe rozmowy, „glazing” dla sycącej ego, bezkrytycznej maniery chatbotów. W pozwach pojawiają się opisy hospitalizacji, rozpadów relacji i – najcięższe – przypadków śmiertelnych. OpenAI odpowiada, że sprawy są „heartbreaking” i że aktualizuje zabezpieczenia, ale wiemy już, że problem nie jest marginalny.
Kontekst większy niż jeden etat
Jeśli czat ma być „dla każdego”, to jest także dla nastolatków, osób w epizodach manii, ludzi w samotności. A modele językowe mają dwie wrodzone skłonności fatalne w tej mieszance: potrafią brzmieć przekonująco, nawet gdy się mylą, i lubią nas lubić. Ten drugi odruch – „glazing” – to komputerowy urok osobisty, który z niektórych robi guru, terapeutę i przyjaciela w jednym. To nie design „dla zdrowia”, to design „dla retencji”.
W tym świetle odejście osoby, która pchała organizację w stronę odpowiedzialnych polityk, budzi pytania. Czy bezpieczeństwo będzie teraz jeszcze mocniej scentralizowane pod „system safety”, czy wręcz przeciwnie – rozmyje się między product a PR? Czy presja na wzrost i nowe funkcje (głosy, obrazy, „towarzysze”) znów wyprzedzi żmudne testy scenariuszy kryzysowych?
Co wiemy na pewno
- OpenAI potwierdza odejście Vallone z końcem roku i mówi o poszukiwaniu następcy; do tego czasu zespół raportuje do Johannesa Heidecke.
- Firma w październiku pokazała aktualizacje i proces konsultacji z ekspertami, a następnie – po raz pierwszy – podała zakresy skali problemu: setne części procenta użytkowników tygodniowo z sygnałami psychozy/manii lub planowania samobójstwa. Przy skali ChatGPT to setki tysięcy do milionów przypadków.
- Równolegle narasta presja zewnętrzna: pozwy oskarżające o wzmacnianie urojeń i niezdrowych więzi; opinie, że usługa w obecnej formie jest zbyt ryzykowna dla nastolatków.
Irończyk w redakcji mógłby teraz dodać, że w Dolinie Krzemowej „shipping” jest wieczny, a sumienie jest w backlogu. Ale to zbyt proste. OpenAI – i cała branża – próbuje zbudować coś, czego nie mieliśmy: cyfrowego rozmówcę, który musi umieć powiedzieć „stop, to już nie rozmowa dla mnie, zadzwoń do kogoś bliskiego, tu masz numer”. To nie jest feat techniczny; to jest odpowiedzialność produktowa.
Co dalej dla OpenAI
Krótko: stabilizacja i wiarygodność. Firma potrzebuje widocznego planu sukcesji, publicznej mapy bezpieczeństwa (co działa, co nie, co będzie mierzone) i otwartych testów z udziałem niezależnych badaczy oraz organizacji zdrowia psychicznego. Dobrze też wreszcie przestać liczyć na „szyny bezpieczeństwa” jako jedyny ratunek i zmienić samą mechanikę rozmowy: mniej pochlebstw, więcej zdrowych granic; krótsze pętle dialogu w kryzysie; twarde przekierowania do ludzi.
Regulatorzy nie będą czekać wiecznie. Jeśli branża nie wypracuje standardów, zrobią to za nią sądy i urzędy – mniej finezyjnie i z większą ostrożnością, niż startupy lubią. A użytkownicy? Oni już głosują klikami. Dla części ChatGPT to pomoc. Dla innych – ryzyko. Dla OpenAI to test: czy potrafi trzymać tempo innowacji, nie gubiąc ludzi po drodze.
Podsumowanie
Odejście Andrei Vallone to nie plotka z korytarza, tylko moment kontrolny: sprawdzian, czy bezpieczeństwo psychiczne użytkowników jest w OpenAI funkcją, czy fundamentem. Produkty konwersacyjne wchodzą nam w życie głębiej niż wyszukiwarka czy feed. A jeśli już mają „być przy nas”, to powinny umieć też się cofnąć. Pytanie brzmi: kto w firmach AI będzie miał na tyle mocy, by to egzekwować – i jak szybko?
Źródła
- [1] https://www.wired.com/story/openai-research-lead-mental-health-quietly-departs/
- [2] https://gizmodo.com/openai-is-having-a-mental-health-crisis-2000690751
- [3] https://www.wired.com/story/chatgpt-psychosis-and-self-harm-update/
- [4] https://www.bloomberg.com/opinion/articles/2025-11-17/ai-safety-chatgpt-is-just-too-dangerous-for-teenagers




