Czy prognoza pogody właśnie przestała być przywilejem krajów z superkomputerami? NVIDIA wypuszcza Earth-2 – rodzinę w pełni otwartych, akcelerowanych modeli i narzędzi do prognozowania pogody przez AI – i mówi: bierzcie, uruchamiajcie, dostrajajcie u siebie.
Na stół trafiają trzy nowe modele: Atlas do prognoz średnioterminowych (do 15 dni), StormScope do nowcastingu (0-6 godzin, w rozdzielczości kilometrów) i HealDA do asymilacji danych (czyli złożenia obserwacji w spójny obraz atmosfery na start prognozy). Całość jest otwarta, gotowa do wdrożeń i – co ważne – do uruchomienia na własnej infrastrukturze. W niektórych zadaniach AI już przebija klasyczne modele fizyczne, a przewidywania liczy w minuty zamiast godzin.
Dlaczego to istotne? Bo pogoda to infrastruktura krytyczna. Od sieci energetycznych po rolnictwo – precyzyjna, szybka i lokalna prognoza to realne pieniądze i bezpieczeństwo. A kiedy w 2024 r. 27 ekstremalnych zdarzeń pogodowych w USA kosztowało 182,7 mld dol., skrócenie czasu i kosztów prognozowania przestaje być ciekawostką technologiczną.
Co właściwie wypuściła NVIDIA
Earth-2 to “pełny stos” dla pogodowego AI: otwarte, wytrenowane checkpointy modeli, biblioteki do inferencji, receptury personalizacji oraz frameworki do trenowania i strojenia. Do budowania i sklejania pipeline’ów służy Earth2Studio (Python), a do trenowania modeli fizyczno-ML – otwarty PhysicsNeMo. Całość ma spiąć zazwyczaj rozproszone elementy łańcucha: od przygotowania warunków początkowych, przez prognozy globalne i lokalne, po downscaling oraz korekcję błędów. Wśród otwartych checkpointów jest m.in. wariant Atlas o skali 7 mld parametrów.
NVIDIA mocno akcentuje “suwerenność”: to nie jest serwis pogodowy w chmurze, tylko klocki, na bazie których instytucje i firmy mogą zbudować własne, kontrolowane systemy – z własnymi danymi i na własnym sprzęcie. [5]
Nowe modele w praktyce
Nowcasting: StormScope generuje prognozy na najbliższe 0-6 godzin w skali od kraju do kilometrów – w kilka minut. Zamiast pośrednio liczyć z równań fizyki, uczy się dynamiki burz bezpośrednio z danych satelitarnych i radarowych. Treningowy wariant oparto na obserwacjach z geostacjonarnych satelitów GOES nad kontynentalnymi USA, ale metoda jest przenośna wszędzie tam, gdzie jest podobny coverage. Efekt? Pierwsze prognozy krótkoterminowych opadów, które przewyższają klasyczne modele fizyczne.
Medium range: Atlas celuje w 15-dniowe prognozy globalne, przewidując ponad 70 zmiennych (temperatura, ciśnienie, wiatr, wilgotność i więcej). Technicznie to latent diffusion transformer, który prognozuje przyrostowe zmiany w atmosferze, by zachować kluczowe struktury i ograniczyć błędy. Na standardowych benchmarkach przebija otwarty GenCast na większości najczęściej używanych zmiennych.
Asymilacja danych: HealDA, “coming soon” do Hugging Face, składa obserwacje w warunki początkowe – migawkę atmosfery (temperatura, wiatr, wilgotność, ciśnienie) w tysiącach punktów. To zwykle najbardziej czasochłonny element, pożerający do połowy mocy superkomputerów. HealDA robi to w sekundy na GPU. W parze z Atlasem daje – jak zapowiada NVIDIA – najbardziej “skillowe” prognozy uzyskane w pełni otwartym, wyłącznie AI-owym pipeline’ie w pełni otwartym, wyłącznie AI-owym pipeline’ie.
Kontekst: od superkomputera do laptopa
Klasyczne prognozowanie numeryczne to trzyetapowy, ciężki logistycznie proces: zbiór danych z sond, radarów i satelitów, uruchomienie złożonego modelu fizycznego na superkomputerze i przetworzenie wyników na gęstszą siatkę wraz z wkładem synoptyków. Drogo, prądożernie, wolno. AI podcina ten łańcuch: coraz więcej rzeczy policzymy szybciej, taniej i – co ważne – na mniejszym sprzęcie. W niejednym przypadku da się zejść aż do laptopa.
Do tego dochodzi klimat. Globalne projekcje (np. CMIP6) są świetne do “wielkiego obrazu”, ale lokalne ekstrema giną w pikselach. Tu wchodzi CorrDiff – generatywny model downscalingu z Earth-2, który z grubej siatki robi wysoką rozdzielczość z korekcją biasu i syntezą zmiennych. Uczy się tłumaczenia z obciążonej projekcji klimatycznej na reanalizę opartą o obserwacje (np. ERA5), a przy okazji tworzy duże zespoły prognoz z jednej próbki, co pomaga oszacować ogony ryzyka. Nad takim workflowem pracuje m.in. S&P Global Energy, żeby zasilać analitykę ryzyka danymi zakotwiczonymi w obserwacjach. [2]
Kto już z tego korzysta
To nie jest demo. Brightband codziennie uruchamia Atlas w operacyjnych prognozach globalnych i chwali, że otwartość przyspiesza porównania oraz ulepszenia w całej branży. Izraelska Służba Meteorologiczna używa CorrDiff w operacji (a StormScope planuje dołączyć) do tworzenia prognoz wysokiej rozdzielczości nawet osiem razy dziennie. Tamtejszy zespół mówi o około 90% redukcji czasu obliczeń przy siatce 2,5 km względem klasycznego modelu fizycznego na klastrze CPU. W kolejce są także państwowe służby i firmy energetyczne, operatorzy sieci oraz gracze finansowi – od krajowych weather services po domy tradingowe i ubezpieczycieli.
Otwartość z ambicją suwerenności
W tle dzieje się coś większego: konsolidacja “otwartego” stosu w pogodzie. Earth-2 integruje nie tylko własne modele (FourCastNet, CorrDiff i spółka), ale też otwarte modele zewnętrzne – od europejskich centrów po big techy – i daje wspólne narzędzia do uruchamiania, strojenia oraz porównywania jakości. To może brzmieć jak nudny plumbing, ale właśnie takie rury decydują, czy branża będzie porównywalna, replikowalna i faktycznie szybsza. [4]
Czy są haczyki? “W pełni otwarty” nie znaczy “magicznie niezależny od danych i GPU”. StormScope wymaga solidnego pokrycia satelitarnego, trening i inferencja cieszą się z akceleracji, a jakość wciąż trzeba audytować na lokalnych warunkach. Ale wreszcie można to zrobić u siebie, bez pytania kogokolwiek o pozwolenie. To różnica między subskrypcją a posiadaniem.
Podsumowanie
Prognozowanie pogody wchodzi w erę, w której pipeline AI – od asymilacji po lokalne opady – jest nie tylko możliwy, ale i operacyjny, otwarty oraz szybki. Jeśli utrzyma się trend “mniej superkomputera, więcej inteligentnej akceleracji”, dostęp do dobrej prognozy stanie się mniej kwestią budżetu, a bardziej kompetencji. Pytanie na dalsze miesiące nie brzmi już “czy AI dorówna fizyce”, tylko “jak szybko służby i firmy zbudują własne, suwerenne stacki – i kto je najlepiej zweryfikuje”.
Źródła
- [1] https://huggingface.co/blog/nvidia/earth-2-open-models
- [2] https://developer.nvidia.com/blog/how-to-unlock-local-detail-in-coarse-climate-projections-with-nvidia-earth-2/
- [3] https://blogs.nvidia.com/blog/nvidia-earth-2-open-models/
- [4] https://nextplatform.com/2026/01/26/nvidia-takes-the-open-road-in-ai-weather-forecasting/
- [5] https://marktechpost.com/2026/01/26/nvidia-revolutionizes-climate-tech-with-earth-2-the-worlds-first-fully-open-accelerated-ai-weather-stack/
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 90
- RSS - stan źródeł
- 90 / 90 OK
- RSS - przepływ (od surowych do unikalnych)
- 3069 -> 2979 -> 449 -> 318
- RSS - usunięte duplikaty tytułów
- 2
- Pula tematów (z RSS)
- 318
- Wybrane do analizy
- 198
- Odrzucone
- 92
- Duplikaty (archiwum tematów)
- 2
- Klastry (wątki)
- 146
2. Selekcja i filtrowanie
- Odrzucono semantycznie (embedding)
- 0
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 0
- Unikalne wyniki
- 0
- Kandydaci
- 0
- Dodane z wyszukiwania (cache+live)
- 0
- Przeskanowano URL-i (research)
- 5
4. Finalny kontekst
- Źródła użyte w tekście
- 5
- Źródła (domeny)
- 5
- Wikipedia - kontekst
- nie
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 1




