Sztuczna inteligencja & Startupy i finansowanie

WisdomAI zdobywa 50 mln dol. – koniec z halucynacjami AI w danych?

Czy AI wreszcie przestanie zmyślać, gdy pytasz ją o liczby z twojego CRM-u? WisdomAI twierdzi, że tak – i właśnie dostało na to świeże 50 milionów dolarów.

Startup od współzałożyciela Rubrika, Sohama Mazumdara, domyka rundę Series A prowadzoną przez Kleiner Perkins, z udziałem NVentures (ramię inwestycyjne Nvidii). To raptem sześć miesięcy po seedzie na 23 mln dol. od Coatue. Obietnica? Analityka w naturalnym języku ponad firmowym bałaganem danych – strukturalnych, niestrukturalnych, a nawet „brudnych” – bez jazdy bez trzymanki w postaci halucynacji LLM-ów.

To ważne, bo właśnie „halucynacje” i brak kontroli zabijają dziś wdrożenia AI w dużych organizacjach. Jeśli Kleiner i Nvidia dokładają żeton do kubka WisdomAI, to nie (tylko) z sympatii: stawiają na architekturę, która trzyma prawdę blisko źródeł danych i używa modeli językowych jako narzędzia, nie jako wyroczni. To sygnał, że pragmatyczna, „uziemiona” AI może wygrać z efektowną, ale ryzykowną generatywnością.

Ilustracja przedstawiająca futurystyczne miasto z technologią AI w stylu 2.5D.
Grafika koncepcyjna (AI)

O co chodzi

WisdomAI to asystent do danych, który rozumie pytania w prostym języku i odpowiada, zaglądając do hurtowni i aplikacji firmowych. Szef sprzedaży pyta: „Jak domknę kwartał?” Platforma ma wskazać konkretne deale do dopięcia i co je blokuje – od brakujących odpowiedzi po wąskie gardła w procesie. „CRO może zobaczyć ten poziom szczegółu w pięciu uderzeniach w klawiaturę, zamiast angażować analityków i czekać” – mówił Mazumdar w rozmowie z TechCrunch. [2]

Ilustracja przedstawiająca futurystyczny interfejs asystenta danych w stylu 2.5D.
Grafika koncepcyjna (AI)

Dlaczego to istotne

Od dwóch lat rynek żyje obietnicą „zapytaj swoje dane jak człowieka”. Problem: chatboty lubią fabularyzować. W finansach czy sprzedaży to nie niedogodność – to ryzyko operacyjne. Firmy chcą szybkości AI, ale bez oddawania sterów nad danymi i metrykami. Stąd renesans semantycznych warstw, katalogów danych, lineage’u. WisdomAI trafia dokładnie w ten nerw.

Jak działa WisdomAI

Kluczowy trik: LLM nie pisze odpowiedzi. Pisze tylko zapytanie – najczęściej SQL lub jego odpowiednik – które idzie do twojej hurtowni. Jeżeli model „halucynuje”, to co najwyżej wygeneruje kiepskie zapytanie, ale nie zmyśli faktów. Odpowiedź powstaje ze zwróconych rekordów, w oparciu o logikę po stronie WisdomAI. Firma dorobiła do tego „enterprise context layer” – warstwę, która uczy się schematów, joinów, słowników pojęć danej organizacji i porządkuje chaos tak, by pytanie „pipeline” wiedziało, że chodzi o leady z Salesforce’a złączone z aktywnością w Zendesk i przychodem w NetSuite. [1]

To w gruncie rzeczy przestawienie ról: model językowy nie gra tu roli kreatywnego autora, tylko tłumacza przysięgłego – zamienia ludzkie pytania na język baz danych. Prawda zostaje przy systemach źródłowych, a nie w głowie modelu. W teorii to proste, w praktyce wymaga żmudnej roboty nad kontekstem, aliasami pól, rozbieżnościami w schematach i „brudnym” tekstem z maili czy notatek.

Pieniądze, ludzie, tempo

Runda za 50 mln dol. od Kleiner Perkins i NVentures podnosi łączne finansowanie do 73 mln dol. Za sterami siedzi ekipa z Rubrika – firmy, która wyrosła na dyscyplinie kopii zapasowych i porządkowania danych w przedsiębiorstwie. Ten profil nie jest przypadkowy: jeśli chcesz bezpiecznie „rozmawiać” z danymi, musisz je najpierw zrozumieć, wersjonować i chronić. Nvidia w roli inwestora to również komentarz do strategii: popyt na takie „kompilatory pytań” przekłada się na zapotrzebowanie na inferencję, a więc i na GPU oraz softwarowy ekosystem zielonych.

Gdzie to się mieści w krajobrazie

Nie brakuje narzędzi, które tłumaczą naturalny język na SQL – od funkcji w Power BI i Tableau po rozwiązania Snowflake’a czy Databricksa. Różnica polega na twardości szyn, po których jedzie pociąg. WisdomAI mocniej akcentuje warstwę kontekstu i deklaruje „zero halucynacji”, bo nie generuje swobodnych narracji, tylko wysyła deterministyczne zapytania do danych. Ambitne? Owszem. Użyteczne? Jeśli faktycznie skróci czas od pytania do odpowiedzi z tygodni do minut, to tak.

Są też haczyki. Złe zapytanie nadal może dać złą odpowiedź – tyle że będzie to błąd logiczny, nie konfabulacja. „Brudne dane” nie znikają, bo AI machnęło różdżką: trzeba nimi zarządzać, mieć definicje metryk, polityki uprawnień, zgodność z regulacjami. I trzeba zintegrować się z rozproszonym stosem: hurtownia tu, aplikacje SaaS tam, uprawnienia gdzie indziej. Tu rozstrzygnie się, czy WisdomAI jest produktem, który „po prostu działa”, czy konsultingiem zapakowanym w ładne UI.

Co mówi ten ruch o kierunku rynku

To kolejne przesunięcie z „zróbmy wszystko w LLM-ie” na „użyjmy LLM-a jako silnika tłumaczenia i nawigacji po danych”. Brzmi mniej efektownie, ale jest bliżej tego, co firmy naprawdę wdrażają. Jeśli do tego dołożysz presję CFO na szybkość decyzji i cięcia headcountu w analityce ad hoc, popyt na inteligentne, kontekstowe „warstwy sensu” nad danymi będzie rósł. Kleiner i Nvidia zaznaczają, że to nie nisza, tylko potencjalna kategoria.

Krótka ironia na koniec: obiecać „zero halucynacji” to jak obiecać „zero bugów” – wszyscy wiemy, jak to się kończy. Ale przestawienie AI z roli gawędziarza na rolę kompilatora to sensowny krok, który redukuje ryzyko do opanowania przez proces i testy. A to już język, który enterprise rozumie.

Podsumowanie

WisdomAI zbiera duży czek i składa równie dużą obietnicę: szybkie odpowiedzi z firmowych danych bez kreatywnej fantazji modeli. Architektura jest rozsądna, inwestorzy poważni, a timing dobry. Teraz pora na dowody: referencje, wdrożenia na produkcji, wyniki, które przekonają sceptycznych CFO. Jeśli się uda, może wreszcie będziemy pytać dane tak łatwo, jak piszemy maila – i dostawać odpowiedzi, którym da się zaufać.

Źródła

🧠 Czy ten artykuł dał Ci nową perspektywę?
Jedno kliknięcie. Zero kont. PressMind uczy się razem z Tobą.
Ładowanie oceny…

Dodaj komentarz