Sztuczna inteligencja

Google ogranicza AI Overviews w medycynie – czy to wystarczy dla zdrowia?

Czy wyszukiwarka powinna bawić się w lekarza? Google właśnie uznał, że przynajmniej w kilku przypadkach – jednak nie.

Google wyłączył AI Overviews dla części medycznych zapytań po tym, jak śledztwo The Guardian ujawniło w tych odpowiedziach błędne i potencjalnie niebezpieczne treści. Zniknęły m.in. podsumowania przy pytaniach o „normalny zakres dla testów wątrobowych”, a eksperci mówią wprost: to nie są drobne pomyłki, tylko ryzyko dla zdrowia. Firma utrzymuje, że „zdecydowana większość” podsumowań jest poprawna, ale nie komentuje jednostkowych wyłączeń.

AI Overviews siedzą nad linkami, jak nagłówek nad gazetą. Gdy temat dotyczy zdrowia, każde niedomówienie czy uogólnienie ma ciężar. A medycznych zapytań nie jest mało: analiza Ahrefs cytowana przez Search Engine Journal wskazywała, że pojawiały się przy 44,1% medycznych YMYL (Your Money or Your Life) zapytań – ponad dwa razy częściej niż średnio. To nie margines, to główny nurt. [4]

Ilustracja przedstawiająca AI w medycynie z nagłówkami nad linkami w ciemnej estetyce.
Grafika koncepcyjna (AI)

Co Google wyłączyło i dlaczego

Sprawa wybuchła po publikacji The Guardian z początku stycznia: redakcja przetestowała zdrowotne frazy i skonfrontowała AI Overviews z opiniami organizacji pacjenckich i lekarzy. Wyszły rzeczy „alarmujące” i „naprawdę niebezpieczne”. Przykłady? Rekomendacja, by chorzy na raka trzustki unikali tłustych pokarmów – dokładnie odwrotnie niż zalecenia kliniczne. I podanie „zwykłych” zakresów wyników prób wątrobowych bez kontekstu wieku, płci, pochodzenia czy narodowości, co mogło utwierdzać poważnie chorych, że wszystko jest w normie. [6][1]

Ilustracja przedstawiająca analizę AI w medycynie w stylu 2.5D.
Grafika koncepcyjna (AI)

Po publikacji te konkretne AI Overviews zaczęły znikać. TechCrunch i The Verge zauważyły, że dla fraz „what is the normal range for liver blood tests” i „what is the normal range for liver function tests” podsumowań już nie ma. Na początku dało się je jeszcze wywołać wariantami typu „lft reference range”, ale kilka godzin później – już nie. W wielu przypadkach najwyżej podbijał się… artykuł Guardiana o wyłączeniach. Wciąż można było jednak kliknąć, by zadać pytanie w „AI Mode”. [2][5]

Problem większy niż pojedyncze zapytania

Guardian opisał więcej przykładów: od błędów przy testach i objawach raka u kobiet, po potencjalnie szkodliwe skróty myślowe przy tematach zdrowia psychicznego. Wspólny mianownik: brak kontekstu i nadmierne uproszczenia. To słabość systemowa w produkcie, który próbuje być skrótem do wiedzy, ale w medycynie za skróty bywa wystawiany wysoki rachunek.

To też nie pierwszy raz, gdy AI Overviews przypalają Google’owi palce. Od słynnego „dodaj klej do pizzy” po „zjedz codziennie mały kamień” – ta funkcja od debiutu w 2024 roku ciągnie za sobą wstydliwe wpadki. Firma zapowiadała ograniczenie zakresu zapytań, które wywołują AI overview, i „wyrafinowanie” sposobu działania. Teraz wraca pytanie, czy to w ogóle da się zrobić bez radykalnego przewietrzenia procesów jakościowych przy YMYL. [3][6]

Co na to Google

Firma konsekwentnie unika komentowania „pojedynczych usunięć” w wyszukiwarce. Rzecznik przekazał Guardianowi i The Verge, że Google „inwestuje w jakość AI Overviews, zwłaszcza w tematach zdrowotnych”, a „zdecydowana większość” odpowiedzi jest poprawna i poparta „wysokiej jakości stronami”. Wewnętrzny zespół klinicystów miał przejrzeć przykłady i uznać, że „w wielu przypadkach informacje nie były nieścisłe”. Gdy brakuje kontekstu – mówi Google – firma wprowadza „szerokie ulepszenia” i działa zgodnie z politykami. [1][2]

Z zewnątrz słychać ostrożny aplauz. Brytyjskie British Liver Trust nazwało wyłączenia „doskonałą wiadomością”, ale dodało, że to „skubanie jednego wyniku”, a nie rozwiązanie problemu AI Overviews dla zdrowia jako całości. Innymi słowy: pojedyncze wyłączenia to plasterek, nie operacja.

Na styku skali i odpowiedzialności

Tu wychodzi napięcie wpisane w projekt: generatywna AI karmi się uogólnieniem i probabilistyką, medycyna – różnicowaniem i ostrożnością. Nad wynikami organicznymi, w jednym zaufanym boksie, te światy zderzają się publicznie i na żywo. Do tego dochodzi losowość generatywnych odpowiedzi: Guardian odnotował, że powtarzane zapytania potrafią prowadzić do różnych podsumowań w różnym czasie i z innymi źródłami. Niezły przepis na rozjazd oczekiwań i zaufania.

Czy da się z tego wybrnąć „szerokimi ulepszeniami”? Pewnie część tak. Ale wyłączniki per fraza przypominają grę w whack-a-mole – uderzasz jednego kreta, wyskakują dwa obok. Jeżeli medyczne YMYL faktycznie uruchamiają AI Overviews ponadprzeciętnie często, to produktowy domyślny powinien być odwrotny: mniej AI, więcej bezpośrednich, jednoznacznych odnośników do wytycznych i instytucji. Albo przynajmniej domyślna przestroga, że to skrót i nie diagnoza.

W tle widać też pragmatykę biznesu. Google nie chce oddać pierwszego ekranu ani tempem, ani narracją – a AI Overviews to jego nowa powłoka na starej maszynie. Tyle że w tematach zdrowia ta powłoka musi przejść crash testy, zanim znów wyjedzie na drogę.

Podsumowanie

Google przyciął skrzydła AI Overviews w części medycznych zapytań po serii wpadek, ale problem nie znika wraz z kilkoma wyłączonymi frazami. Pytanie brzmi, czy generatywny skrót powinien w ogóle siedzieć nad linkami, gdy w grę wchodzi zdrowie. Szybka odpowiedź często kusi – ale w medycynie „szybko” bywa wrogiem „dokładnie”. Może lepiej, by ta funkcja w zdrowiu była opt-in, a nie domyślna? Na razie Google obiecuje poprawki, a użytkownikom pozostaje zdrowy sceptycyzm i… stare, dobre sprawdzanie źródeł.

FAQ

Czy Google usunęło AI Overviews dla wszystkich zapytań medycznych?

Nie, usunięcia dotyczą wybranych fraz i zmieniają się w czasie. Google nie komentuje pojedynczych przypadków i zapowiada „szerokie ulepszenia”.

Kiedy AI Overviews zniknęły dla testów wątrobowych?

Według TechCrunch i The Verge stało się to 2026-01-11, kilka godzin po publikacjach wskazujących na błędy. Wcześniej podobne podsumowania można było wywołać wariantami fraz, które później też przestały działać.

Czy można wyłączyć AI Overviews na stałe w wyszukiwarce Google?

Nie, nie ma globalnego przełącznika dla użytkownika. W niektórych przypadkach Google oferuje osobny „AI Mode”, ale to tryb opcjonalny.

Jak bezpiecznie korzystać z Google przy pytaniach o zdrowie?

Najpierw szukaj stron instytucji zdrowia publicznego i wytycznych klinicznych; AI traktuj co najwyżej jako wskazówkę, nie diagnozę. Przy wątpliwościach skonsultuj wyniki z lekarzem – wyszukiwarka nie zastąpi praktyki klinicznej.

Czy Google potwierdził, kiedy przywróci AI Overviews dla wyłączonych fraz?

Nie, firma nie podaje terminów ani listy przywróceń. Deklaruje jedynie, że pracuje nad „szerokimi” poprawkami jakości.

Źródła

🧠 Czy ten artykuł dał Ci nową perspektywę?
Jedno kliknięcie. Zero kont. PressMind uczy się razem z Tobą.
Ładowanie oceny…

PressMind Labs - Ślad badawczy

To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.

8 źródeł użytych w tekście
8 niezależnych domen
2 min 44 s czas researchu
Wysoki sygnał jakości
Skan tematu
219 z 320 sygnałów (RSS: 2429)
Zachowano: 219 (68%) | Odrzucono: 101 (32%)
Źródła (finalne)
8 źródeł z 8 domen
Start: 2 | Finalnie: 8
Czas researchu
2 min 44 s
Różnorodność domen: 8 Źródła użyte: 8 Kontekst: dodany (Wiki) Liczby w tekście: 1

1. Zbieranie sygnałów (discovery)

Temat
Google pulls AI overviews for some medical searches
RSS - źródeł w configu
63
RSS - stan źródeł
63 / 63 OK
RSS - przepływ (od surowych do unikalnych)
2429 -> 2370 -> 377 -> 320
Pula tematów (z RSS)
320
Wybrane do analizy
219
Odrzucone
101
Klastry (wątki)
123

2. Selekcja i filtrowanie

Odrzucono po tytule
54
Odrzucono semantycznie (embedding)
2

3. Wyszukiwanie i wzbogacanie

Zapytania wyszukiwawcze
10
Unikalne wyniki
77
Kandydaci
8
Dodane z wyszukiwania (cache+live)
6
Przeskanowano URL-i (research)
2

4. Finalny kontekst

Źródła użyte w tekście
8
Źródła (domeny)
8
Wikipedia - kontekst
tak
Expansion - kontekst
nie
Wyłuskane liczby
1
Ten proces pokazuje, jak z dziesiątek sygnałów wyłania się kilka sprawdzonych źródeł, na których oparto finalny tekst.

Dodaj komentarz