VLM
MoE
Agentic
Open Source
Reasoning
Największy model z rodziny Qwen3.5 — 397B parametrów (17B aktywnych). Unified Vision-Language, obsługa 201 języków i dialektów, hybrydowa architektura Gated Delta Networks + MoE. Kontekst do 1 miliona tokenów!
VLM / Multimodal
MoE 1T
Agent Swarm
Open Source
Gigant — 1 trilion parametrów (32B aktywnych), natywnie multimodalny. Rozumie video, obrazy i kod. Innowacja: "Agent Swarm" — rozkłada zadania na rój wyspecjalizowanych agentów. Kontekst 256K tokenów.
LLM
MoE 744B
Agentic
Coding
Open Source
Następca GLM-4.5 ze skokiem skali: 355B → 744B parametrów (40B aktywnych). Trening na 28.5T tokenów. Integruje DeepSeek Sparse Attention (DSA). Asynchronous RL via "slime" framework. Najlepszy open-source wg SWE-bench!
VLM
MoE
Open Source
Coding
Efektywna wersja Qwen3.5 — 35B parametrów ale tylko 3B aktywnych na token. Hybrydowa architektura Gated DeltaNet + Attention + MoE. Najlepszy stosunek jakości do kosztu obliczeniowego w rodzinie. SWE-bench: 69.2%!
LLM
MoE 229B
Agentic
Open Source
229 miliardów parametrów architektura MoE od MiniMax. Zaprojektowany do zadań wymagających długiego kontekstu i skomplikowanego rozumowania. Ponad milion pobrań w tygodniu!
On-device
MoE 24B
Tool use
Open Source
LLM
Przełom w edge AI! 24B parametrów, tylko 2B aktywnych — mieści się w 32GB RAM laptopa. 112 tok/s na CPU AMD, 293 tok/s na H100. Nowa hybrydowa architektura (konwolucyjno-atencyjna). Idealny do lokalnego RAG i agentów!
Coding
MoE 80B
Open Source
LLM
Specjalistyczny model do kodowania od Qwen — 80B parametrów, nowa generacja Qwen3-Coder. Zaprojektowany do agentic coding, naprawiania bugów, code review. Ogromna popularność (819k pobrań)!
Audio-to-Audio
Voice
Nowy model audio od NVIDIA! 7B parametrów, audio-to-audio — konwersja głosu, klonowanie persony głosowej, synteza mowy. 563k pobrań i aż 2.22k gwiazdek — jeden z najchętniej pobieranych modeli w tym tygodniu!
Text-to-Speech
Open Source
Audio
Qwen3-TTS z obsługą customowych głosów — 1.7B parametrów, wersja CustomVoice. Możliwość klonowania głosu i fine-tuningu na własnych danych. 1.1M pobrań — absolutny hit wśród modeli TTS!
LLM
Reasoning
Open Source
MoE
Legendarny model który zmienił branżę na początku 2025. Wciąż w top trendujących (928k pobrań, 13.1k gwiazdek!). Rewolucyjny chain-of-thought reasoning, open-source, porównywalny z GPT-4. Historia branży!
Operator Agent
On-device 4B
LLM
Mały ale wyjątkowy — 4B model wyspecjalizowany w obsłudze komputera (computer use). Może sterować GUI, wypełniać formularze, wykonywać zadania operatorskie. Zaskakująco dobry jak na rozmiar!
Embeddings
Open Source
0.6B kompakt
Nowy model embeddingów od Perplexity — tylko 0.6B parametrów, ale świetna jakość wektorów semantycznych. Idealny do RAG, wyszukiwania podobieństwa, klasyfikacji. Open-source!