Czy AI wreszcie przestanie zmyślać, gdy pytasz ją o liczby z twojego CRM-u? WisdomAI twierdzi, że tak – i właśnie dostało na to świeże 50 milionów dolarów.
Startup od współzałożyciela Rubrika, Sohama Mazumdara, domyka rundę Series A prowadzoną przez Kleiner Perkins, z udziałem NVentures (ramię inwestycyjne Nvidii). To raptem sześć miesięcy po seedzie na 23 mln dol. od Coatue. Obietnica? Analityka w naturalnym języku ponad firmowym bałaganem danych – strukturalnych, niestrukturalnych, a nawet „brudnych” – bez jazdy bez trzymanki w postaci halucynacji LLM-ów.
To ważne, bo właśnie „halucynacje” i brak kontroli zabijają dziś wdrożenia AI w dużych organizacjach. Jeśli Kleiner i Nvidia dokładają żeton do kubka WisdomAI, to nie (tylko) z sympatii: stawiają na architekturę, która trzyma prawdę blisko źródeł danych i używa modeli językowych jako narzędzia, nie jako wyroczni. To sygnał, że pragmatyczna, „uziemiona” AI może wygrać z efektowną, ale ryzykowną generatywnością.
O co chodzi
WisdomAI to asystent do danych, który rozumie pytania w prostym języku i odpowiada, zaglądając do hurtowni i aplikacji firmowych. Szef sprzedaży pyta: „Jak domknę kwartał?” Platforma ma wskazać konkretne deale do dopięcia i co je blokuje – od brakujących odpowiedzi po wąskie gardła w procesie. „CRO może zobaczyć ten poziom szczegółu w pięciu uderzeniach w klawiaturę, zamiast angażować analityków i czekać” – mówił Mazumdar w rozmowie z TechCrunch. [2]
Dlaczego to istotne
Od dwóch lat rynek żyje obietnicą „zapytaj swoje dane jak człowieka”. Problem: chatboty lubią fabularyzować. W finansach czy sprzedaży to nie niedogodność – to ryzyko operacyjne. Firmy chcą szybkości AI, ale bez oddawania sterów nad danymi i metrykami. Stąd renesans semantycznych warstw, katalogów danych, lineage’u. WisdomAI trafia dokładnie w ten nerw.
Jak działa WisdomAI
Kluczowy trik: LLM nie pisze odpowiedzi. Pisze tylko zapytanie – najczęściej SQL lub jego odpowiednik – które idzie do twojej hurtowni. Jeżeli model „halucynuje”, to co najwyżej wygeneruje kiepskie zapytanie, ale nie zmyśli faktów. Odpowiedź powstaje ze zwróconych rekordów, w oparciu o logikę po stronie WisdomAI. Firma dorobiła do tego „enterprise context layer” – warstwę, która uczy się schematów, joinów, słowników pojęć danej organizacji i porządkuje chaos tak, by pytanie „pipeline” wiedziało, że chodzi o leady z Salesforce’a złączone z aktywnością w Zendesk i przychodem w NetSuite. [1]
To w gruncie rzeczy przestawienie ról: model językowy nie gra tu roli kreatywnego autora, tylko tłumacza przysięgłego – zamienia ludzkie pytania na język baz danych. Prawda zostaje przy systemach źródłowych, a nie w głowie modelu. W teorii to proste, w praktyce wymaga żmudnej roboty nad kontekstem, aliasami pól, rozbieżnościami w schematach i „brudnym” tekstem z maili czy notatek.
Pieniądze, ludzie, tempo
Runda za 50 mln dol. od Kleiner Perkins i NVentures podnosi łączne finansowanie do 73 mln dol. Za sterami siedzi ekipa z Rubrika – firmy, która wyrosła na dyscyplinie kopii zapasowych i porządkowania danych w przedsiębiorstwie. Ten profil nie jest przypadkowy: jeśli chcesz bezpiecznie „rozmawiać” z danymi, musisz je najpierw zrozumieć, wersjonować i chronić. Nvidia w roli inwestora to również komentarz do strategii: popyt na takie „kompilatory pytań” przekłada się na zapotrzebowanie na inferencję, a więc i na GPU oraz softwarowy ekosystem zielonych.
Gdzie to się mieści w krajobrazie
Nie brakuje narzędzi, które tłumaczą naturalny język na SQL – od funkcji w Power BI i Tableau po rozwiązania Snowflake’a czy Databricksa. Różnica polega na twardości szyn, po których jedzie pociąg. WisdomAI mocniej akcentuje warstwę kontekstu i deklaruje „zero halucynacji”, bo nie generuje swobodnych narracji, tylko wysyła deterministyczne zapytania do danych. Ambitne? Owszem. Użyteczne? Jeśli faktycznie skróci czas od pytania do odpowiedzi z tygodni do minut, to tak.
Są też haczyki. Złe zapytanie nadal może dać złą odpowiedź – tyle że będzie to błąd logiczny, nie konfabulacja. „Brudne dane” nie znikają, bo AI machnęło różdżką: trzeba nimi zarządzać, mieć definicje metryk, polityki uprawnień, zgodność z regulacjami. I trzeba zintegrować się z rozproszonym stosem: hurtownia tu, aplikacje SaaS tam, uprawnienia gdzie indziej. Tu rozstrzygnie się, czy WisdomAI jest produktem, który „po prostu działa”, czy konsultingiem zapakowanym w ładne UI.
Co mówi ten ruch o kierunku rynku
To kolejne przesunięcie z „zróbmy wszystko w LLM-ie” na „użyjmy LLM-a jako silnika tłumaczenia i nawigacji po danych”. Brzmi mniej efektownie, ale jest bliżej tego, co firmy naprawdę wdrażają. Jeśli do tego dołożysz presję CFO na szybkość decyzji i cięcia headcountu w analityce ad hoc, popyt na inteligentne, kontekstowe „warstwy sensu” nad danymi będzie rósł. Kleiner i Nvidia zaznaczają, że to nie nisza, tylko potencjalna kategoria.
Krótka ironia na koniec: obiecać „zero halucynacji” to jak obiecać „zero bugów” – wszyscy wiemy, jak to się kończy. Ale przestawienie AI z roli gawędziarza na rolę kompilatora to sensowny krok, który redukuje ryzyko do opanowania przez proces i testy. A to już język, który enterprise rozumie.
Podsumowanie
WisdomAI zbiera duży czek i składa równie dużą obietnicę: szybkie odpowiedzi z firmowych danych bez kreatywnej fantazji modeli. Architektura jest rozsądna, inwestorzy poważni, a timing dobry. Teraz pora na dowody: referencje, wdrożenia na produkcji, wyniki, które przekonają sceptycznych CFO. Jeśli się uda, może wreszcie będziemy pytać dane tak łatwo, jak piszemy maila – i dostawać odpowiedzi, którym da się zaufać.
Źródła
- [1] https://techcrunch.com/2025/11/12/ai-data-startup-wisdomai-has-raised-another-50m-led-by-kleiner-nvidia/
- [2] https://techcrunch.com/2025/05/07/ai-data-startup-wisdomai-nabs-23m-with-a-smart-way-to-avoid-hallucinations/
- [3] https://mezha.net/eng/bukvy/wisdomai-raises-50m-series-a-to-expand-ai-data-analytics/amp/
- [4] https://www.findarticles.com/wisdomai-raises-50m-in-round-led-by-kleiner-perkins-and-nvidia/
- [5] https://www.startuphub.ai/ai-news/funding-round/2025/wisdomai-raises-50m-to-advance-ai-data-capabilities/




