Czy Europa naprawdę doczeka się własnego hyperscalera – i to takiego, który nie spala gotówki szybciej niż serwerownia prąd?
Verda, fiński dostawca infrastruktury chmurowej dla AI (dawniej DataCrunch), zgarnia 100 mln euro (117 mln dol.) w rundzie długu i kapitału. Pieniądze mają przyspieszyć budowę „europejskiego hyperscalera”, rekrutację 100+ osób i wejście na nowe rynki: Wielką Brytanię, USA i Azję. Ambicja jest duża, ale tym razem podparta rzadkim w tej branży atutem – firma jest cash-flow positive i ma dostęp do GPU od Nvidii.
Europa od lat opiera się na AWS, Azure i Google Cloud. Rosnące ciśnienie na cyfrową suwerenność, realne braki mocy dla AI i rachunki za prąd każą jednak szukać innych dróg. Verda próbuje połączyć trzy wątki – wydajne GPU na żądanie, „europejską neutralność” prawną i zasilanie czystą energią – w platformę, która ma być mniej frustrująca dla zespołów inżynierskich niż klasyczna korporacyjna chmura.
Nowy gracz, stary problem: skąd wziąć moc
Verda buduje infrastrukturę pod trening i inferencję modeli AI, i robi to „w pionie”: od serwerów i sieci, przez centra danych, po narzędzia dla developerów. Dziś działa w Finlandii i na Islandii, ma biuro w Londynie i szykuje kolejne – w Kalifornii i w Azji. Fizycznie rośnie tam, gdzie chłodno i tanio: centra danych zasilane są w 100% energią odnawialną i korzystają z naturalnego chłodzenia, co obniża koszty operacyjne i, na marginesie, ładnie wygląda w slajdach ESG.
Runda – prowadzona przez Lifeline Ventures, z udziałem byFounders, Tesi i Varma oraz długu od nordyckich instytucji finansowych – ma sfinansować ekspansję i budowy. Na razie firma wynajmuje przestrzeń, buduje głównie w Finlandii i zwiększa skalę w Szwecji. W tym roku chce uruchomić ofertę w Wielkiej Brytanii, USA i Azji oraz zatrudnić ponad 100 osób (zwłaszcza inżynierów od hardware’u i badań nad AI). [5]
Frictionless compute, ale po europejsku
Sedno propozycji Verdy to „jak najmniej tarcia” przy zakupie mocy obliczeniowej. Kiedyś po GPU trzeba było „pogadać z człowiekiem”, dziś coraz częściej cały przepływ uruchamia agent AI – więc platforma musi to rozumieć. Stąd integracja warstw i własny zespół AI Lab, który pracuje bezpośrednio z klientami i przenosi ich potrzeby do roadmapy produktu.
W praktyce Verda celuje w środek rynku między ciężką, procesową chmurą korporacyjną a surowym wynajmem GPU bez wsparcia. Firma podkreśla dostęp do nowego sprzętu Nvidii – w epoce chronicznego niedoboru to realna przewaga. Wśród pierwszych klientów są zespoły z telekomunikacji, bezpieczeństwa i narzędzi kreatywnych.
Wyniki, które rzadko widzi się w infrastrukturze
Firmie udało się wejść na dodatni cash flow. Jak na kapitałochłonną kategorię, w której wielu konkurentów przepala VC na dzierżawy GPU i budowy, to ewenement. Innymi słowy, obecne 117 mln dol. to paliwo na ekspansję, nie maska tlenowa.
Łańcuch przyczyn też jest czytelny: poprzednia runda (ok. 55-64 mln dol./euro, zależnie od źródła i momentu) szybko się wyczerpała – popyt na compute wystrzelił. Od startu w 2020 r. firma konsekwentnie zwiększa skalę i tempo inwestycji.
Sovereign cloud bez zadęcia
Wątek „europejskiej suwerenności technologicznej” nie jest tu tylko ozdobą. Zarząd akcentuje, że spółka chce „pozostać europejska” i że ta neutralność wobec USA to praktyczny wyróżnik – szczególnie dla klientów wyczulonych na przepisy i jurysdykcje. Pod poprzednią marką (DataCrunch) firma kładła nacisk na lokalne regulacje i ochronę danych; po rebrandingu do Verda ambicje są szerzej globalne, ale akcent „made in Europe” zostaje. [6]
A co z konkretami dla zespołów technicznych?
- Regiony i zasięg: dziś Finlandia i Islandia; w budowie większe lokalizacje w Szwecji; wejście do UK, USA i Azji jeszcze w tym roku; biura w Londynie, plan w Kalifornii i w Azji.
- Stos i kompatybilność: własne narzędzia dla developerów, API i dashboard. Dla ekip oznacza to bliższy standardowi chmurowemu UX niż „gołe” GPU.
- Cennik i SLA: firma podkreśla przewagę kosztową z uwagi na energię i chłodzenie. Publicznego SLA i metryk dostępności w źródłach nie ma, więc zespoły będą musiały poczekać na szczegóły lub testy POC.
- Migracje: brak informacji o dedykowanych narzędziach migracyjnych. W praktyce liczyć się będzie wsparcie AI Lab i zgodność interfejsów (API, Kubernetes) z istniejącymi pipeline’ami MLOps.
Konkurencja? Coraz ciaśniej
Verda staje naprzeciw nie tylko „wielkiej trójki” chmur, ale też wyspecjalizowanych graczy GPU-cloud, od CoreWeave po Lambda. Jej przewagi – pionowa integracja, dostęp do GPU, czysta energia i narracja suwerenności – są realne. Ryzyko – także. Budowa dużych, własnych lokacji to bieg długodystansowy, a ekspansja do USA oznacza grę na wyjeździe, w domu hyperscalerów. Jeśli jednak uda się dowieźć proste zakupy mocy, sensowne SLA i narzędzia, które nie zmuszają zespołów do wynajdywania koła w CI/CD, Verda może znaleźć swoje miejsce.
Spokojne domknięcie
Czy z tego będzie „europejski hyperscaler” z prawdziwego zdarzenia, czy tylko zwinny niszowiec? Za wcześnie na werdykt. Fakty są jednak niecodzienne: dodatni cash flow, dostęp do GPU, realne budowy w chłodnej Północy i plan wejścia na trzy kontynenty. Jeśli Verda utrzyma tempo bez poślizgu w jakości i wsparciu dla developerów, europejska chmura pod AI przestanie być wyłącznie aspiracją w pitch deckach. A jeśli nie – cóż, GPU dalej nie będą leżały na półce w markecie.
Źródła
- [1] https://sifted.eu/articles/verda-raises-e100m-to-build-european-hyperscaler/
- [2] https://pulse2.com/verda-117-million-raised-to-scale-ai-cloud-infrastructure-across-europe-the-us-and-asia/
- [3] https://tech.eu/2026/04/24/verda-raises-117m-to-scale-ai-cloud-infrastructure-built-on-clean-nordic-power/
- [4] https://trendingtopics.eu/finnish-ai-cloud-startup-verda-raises-e100m-to-challenge-aws-and-azure/
- [5] https://thenextweb.com/news/verda-117m-funding-lifeline-ventures-ai-cloud
- [6] https://techfundingnews.com/verda-117m-funding-profitable-ai-gpu-cloud-finland/
- [7] https://siliconcanals.com/datacrunch-raises-54-5m/
- [8] https://sifted.eu/articles/verda-raises-e100m-to-build-european-hyperscaler
- [9] https://tech.eu/2026/04/24/verda-raises-117m-aleph-alpha-to-be-acquired-and-solving-the-quantum-bottleneck/
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 93
- RSS - stan źródeł
- 93 / 93 OK
- RSS - przepływ (od surowych do unikalnych)
- 3083 -> 3000 -> 463 -> 314
- RSS - usunięte duplikaty tytułów
- 6
- Pula tematów (z RSS)
- 314
- Wybrane do analizy
- 189
- Odrzucone
- 91
- Klastry (wątki)
- 149
2. Selekcja i filtrowanie
- Odrzucono tematycznie (tytuł + słowa kluczowe)
- 1
- Odrzucono semantycznie (embedding)
- 13
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 18
- Unikalne wyniki
- 40
- Kandydaci
- 23
- Dodane z wyszukiwania (cache+live)
- 8
- Przeskanowano URL-i (research)
- 1
4. Finalny kontekst
- Źródła użyte w tekście
- 9
- Źródła (domeny)
- 7
- Wikipedia - kontekst
- tak
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 0




