NVIDIA wprowadza Skip Softmax – rewolucja w szybkości LLM-ów
Czy naprawdę trzeba liczyć uwagę do każdego słowa w 128 tysiącach tokenów? NVIDIA twierdzi, że nie – i pokazuje, jak zrobić to szybciej, nie rozwalając modelu.
Czy naprawdę trzeba liczyć uwagę do każdego słowa w 128 tysiącach tokenów? NVIDIA twierdzi, że nie – i pokazuje, jak zrobić to szybciej, nie rozwalając modelu.
Czy 60 ogłoszeń w rok to jeszcze kalendarz, czy już feed z dopalaczem? Jeśli śledzisz Google, 2025 był właśnie taki: co miesiąc nowy klocek, a z końcem roku – dość wyraźny obrazek tego, dokąd AI zmierza.
Co, jeśli 2026 nie będzie rokiem „AI, które pomaga”, tylko „AI, które zbyt chętnie wszystko przejmuje”? I co, jeśli największe ryzyko nie leży w samych modelach, ale w tym, jak wgryziemy je w świat?
Czy w 2026 będziemy mieć w pracy więcej robotów, czy po prostu mniej klikania? Odpowiedź jest prostsza niż sądzisz: to nie humanoidy przejmą twoje spotkania, tylko agenci AI – ciche automaty, które odwalą żmudną robotę, a tobie zostawią decyzje.
Masz wrażenie, że AI jest wszędzie – oprócz chwil, gdy naprawdę jej potrzebujesz? Dobra wiadomość: w 2025 Google zebrało 40 najbardziej przydatnych trików, które faktycznie robią robotę.
Czy wideorozmowa może wreszcie przestać być płaska? Google twierdzi, że tak – i w 2025 r.
Czy 2025 był rokiem, w którym wideorozmowy przestały być płaskie jak naleśnik? A może rokiem, w którym Google bardziej zadbał o to, by sklepy z aplikacjami działały jak porządne sklepy, a nie jak chaos?
Czy „etyczny” AI da się zbudować na cudzych książkach? Adobe właśnie boleśnie sprawdza, ile kosztuje skrót przez czyjąś bibliotekę.
Czy model, który pisze kod szybciej niż junior po kawie, nauczył się wreszcie mówić „nie” wtedy, kiedy trzeba? OpenAI dorzuciło addendum do karty systemowej GPT-5.
Czy naprawdę musimy liczyć uwagę każdego tokena do każdego innego tokena, tylko dlatego że tak mówi matematyka? NVIDIA twierdzi, że nie – i pokazuje, jak zrobić to sprytniej.