LocalClaw
All Local AI Model Pages
Static, indexable pages for LocalClaw's local LLM catalogue.
- Gemma 3 (1B) 1B · 4 GB RAM · Q8_0
- Phi-4 Mini (3.8B) 3.8B · 4 GB RAM · Q5_K_M
- Phi-4 (14B) 14B · 16 GB RAM · Q5_K_M
- Qwen 3 (4B) 4B · 4 GB RAM · Q5_K_M
- Llama 3.2 (3B) 3B · 4 GB RAM · Q5_K_M
- Moondream 2 1.9B · 4 GB RAM · fp16
- GLM 4.7 Flash 14B · 16 GB RAM · Q5_K_M
- GPT-OSS (20B) 20B · 16 GB RAM · Q5_K_M
- DeepSeek V3.1 (671B MoE) 671B (37B active, MoE) · 512 GB RAM · Q4_K_M
- Llama 3.1 (8B) 8B · 8 GB RAM · Q5_K_M
- Llama 3.1 (70B) 70B · 48 GB RAM · Q5_K_M
- Llama 3.2 (1B) 1B · 4 GB RAM · Q5_K_M
- Qwen 2.5 (7B) 7B · 8 GB RAM · Q4_K_M
- Qwen 2.5 (14B) 14B · 12 GB RAM · Q4_K_M
- Qwen 2.5 (72B) 72B · 64 GB RAM · Q4_K_M
- Phi-3 (3.8B) 3.8B · 6 GB RAM · Q5_K_M
- Phi-3 Medium (14B) 14B · 12 GB RAM · Q5_K_M
- Llama 3 (8B) 8B · 8 GB RAM · Q5_K_M
- LLaVA 1.6 (13B) 13B · 12 GB RAM · Q4_K_M
- Gemma 2 (9B) 9B · 8 GB RAM · Q5_K_M
- Gemma 2 (27B) 27B · 24 GB RAM · Q5_K_M
- Qwen 2.5 Coder (32B) 32B · 24 GB RAM · Q5_K_M
- DeepSeek R1 Distill (7B) 7B · 8 GB RAM · Q4_K_M
- DeepSeek R1 Distill (70B) 70B · 48 GB RAM · Q4_K_M
- MiniCPM-V (8B) 8B · 8 GB RAM · Q4_K_M
- Dolphin 3 (8B) 8B · 8 GB RAM · Q5_K_M
- OLMo 2 (7B) 7B · 8 GB RAM · Q5_K_M
- TinyLlama (1.1B) 1.1B · 4 GB RAM · Q5_K_M
- Mistral Nemo (12B) 12B · 12 GB RAM · Q5_K_M
- Llama 3.2 Vision (11B) 11B · 12 GB RAM · Q4_K_M
- DeepSeek V3 (671B MoE) 671B (37B active) · 512 GB RAM · Q4_K_M
- SmolLM 2 (1.7B) 1.7B · 4 GB RAM · Q8_0
- QwQ (32B) 32B · 24 GB RAM · Q4_K_M
- DeepSeek Coder (33B) 33B · 24 GB RAM · Q4_K_M
- Mixtral (8x7B) 8x7B (46.7B) · 32 GB RAM · Q4_K_M
- StarCoder 2 (15B) 15B · 12 GB RAM · Q5_K_M
- CodeGemma (7B) 7B · 8 GB RAM · Q5_K_M
- DeepSeek Coder V2 (16B) 16B · 12 GB RAM · Q4_K_M
- Falcon 3 (7B) 7B · 8 GB RAM · Q5_K_M
- Qwen 2.5 VL (7B) 7B · 8 GB RAM · Q4_K_M
- Llama 4 Scout (17B/16E MoE) 17B active (109B total, 16 experts) · 16 GB RAM · Q4_K_M
- Llama 4 Maverick (17B/128E MoE) 17B active (400B total, 128 experts) · 320 GB RAM · Q4_K_M
- Dolphin Mixtral (8x7B) 8x7B (46.7B) · 32 GB RAM · Q4_K_M
- Mistral Small 3.2 (24B) 24B · 20 GB RAM · Q4_K_M
- Granite 3.3 (8B) 8B · 8 GB RAM · Q5_K_M
- OpenThinker (7B) 7B · 8 GB RAM · Q4_K_M
- Cogito (8B) 8B · 8 GB RAM · Q4_K_M
- Cogito (32B) 32B · 24 GB RAM · Q4_K_M
- Gemma 3n (4B) 4B · 6 GB RAM · Q5_K_M
- Phi-4 Reasoning (14B) 14B · 12 GB RAM · Q5_K_M
- Magistral (24B) 24B · 20 GB RAM · Q4_K_M
- Qwen 3 Coder (8B) 8B · 8 GB RAM · Q4_K_M
- Codestral (22B) 22B · 16 GB RAM · Q4_K_M
- DeepScaleR (1.5B) 1.5B · 4 GB RAM · Q5_K_M
- Phi-4 Mini Reasoning (3.8B) 3.8B · 6 GB RAM · Q5_K_M
- Devstral (24B) 24B · 20 GB RAM · Q4_K_M
- Granite 3.2 Vision (2B) 2B · 4 GB RAM · Q5_K_M
- Command R (35B) 35B · 24 GB RAM · Q4_K_M
- Hermes 3 (8B) 8B · 8 GB RAM · Q4_K_M
- Phi-3.5 (3.8B) 3.8B · 6 GB RAM · Q5_K_M
- Phi-3.5 MoE Instruct 42B (6.6B active, MoE) · 32 GB RAM · Q4_K_M
- DeepCoder (14B) 14B · 12 GB RAM · Q4_K_M
- Mistral Small 3.1 (24B) 24B · 20 GB RAM · Q4_K_M
- Yi 1.5 (34B) 34B · 24 GB RAM · Q5_K_M
- Zephyr (7B) 7B · 8 GB RAM · Q5_K_M
- Mistral Large (123B) 123B · 96 GB RAM · Q4_K_M
- EXAONE Deep (7.8B) 7.8B · 8 GB RAM · Q4_K_M
- EXAONE Deep (32B) 32B · 24 GB RAM · Q4_K_M
- OpenChat 3.5 (7B) 7B · 8 GB RAM · Q5_K_M
- CodeGeeX4 (9B) 9B · 8 GB RAM · Q5_K_M
- Aya (8B) 8B · 8 GB RAM · Q4_K_M
- Aya Expanse (32B) 32B · 24 GB RAM · Q4_K_M
- SmallThinker (3B) 3B · 4 GB RAM · Q5_K_M
- R1-1776 (14B) 14B · 12 GB RAM · Q4_K_M
- Command A (111B) 111B · 80 GB RAM · Q4_K_M
- Granite 4 (8B) 8B · 8 GB RAM · Q5_K_M
- Nemotron Mini (4B) 4B · 6 GB RAM · Q5_K_M
- Nemotron 3 Nano (4B) 4B · 6 GB RAM · Q5_K_M
- Llama-3.1-Nemotron-Nano (4B) 4B · 6 GB RAM · Q5_K_M
- Tulu 3 (8B) 8B · 8 GB RAM · Q4_K_M
- InternLM 2.5 (7B) 7B · 8 GB RAM · Q5_K_M
- Athene V2 (72B) 72B · 64 GB RAM · Q4_K_M
- Marco-o1 (7B) 7B · 8 GB RAM · Q4_K_M
- Reader LM (1.5B) 1.5B · 4 GB RAM · Q8_0
- LLaVA-Llama3 (8B) 8B · 8 GB RAM · Q4_K_M
- Qwen2 Math (72B) 72B · 64 GB RAM · Q4_K_M
- Yi Coder (9B) 9B · 8 GB RAM · Q5_K_M
- Llama3 ChatQA (8B) 8B · 8 GB RAM · Q4_K_M
- LLaVA-Phi3 (3.8B) 3.8B · 6 GB RAM · Q5_K_M
- Mathstral (7B) 7B · 8 GB RAM · Q5_K_M
- NuExtract (3.8B) 3.8B · 6 GB RAM · Q5_K_M
- Bespoke MiniCheck (3.8B) 3.8B · 6 GB RAM · Q5_K_M
- SQLCoder (15B) 15B · 12 GB RAM · Q4_K_M
- Sailor 2 (8B) 8B · 8 GB RAM · Q4_K_M
- EXAONE 3.5 (7.8B) 7.8B · 8 GB RAM · Q4_K_M
- Llama Guard 3 (8B) 8B · 8 GB RAM · Q5_K_M
- OpenCoder (8B) 8B · 8 GB RAM · Q5_K_M
- Solar Pro (22B) 22B · 16 GB RAM · Q4_K_M
- DBRX (132B MoE) 132B (36B active) · 96 GB RAM · Q4_K_M
- Qwen 3 (8B) 8B · 8 GB RAM · Q5_K_M
- Llama 3.3 (8B) 8B · 8 GB RAM · Q5_K_M
- Gemma 3 (4B) 4B · 8 GB RAM · Q5_K_M
- Mistral 7B v0.3 7B · 8 GB RAM · Q5_K_M
- DeepSeek R1 Distill (8B) 8B · 8 GB RAM · Q5_K_M
- Qwen 2.5 Coder (7B) 7B · 8 GB RAM · Q5_K_M
- LLaVA 1.6 (7B) 7B · 8 GB RAM · Q4_K_M
- GLM 4.5 Air (MoE) 106B (14B active, MoE) · 16 GB RAM · Q4_K_M
- Step 3.5 Flash 14B · 16 GB RAM · Q4_K_M
- Qwen 3 (14B) 14B · 16 GB RAM · Q4_K_M
- Gemma 3 (12B) 12B · 16 GB RAM · Q4_K_M
- CodeLlama 34B 34B · 32 GB RAM · Q4_K_M
- DeepSeek R1 Distill (14B) 14B · 16 GB RAM · Q4_K_M
- Mistral Small (24B) 24B · 24 GB RAM · Q4_K_M
- GLM 4.7 26B · 24 GB RAM · Q4_K_M
- MiniMax M2.1 45B (MoE) · 24 GB RAM · Q4_K_M
- Qwen 3 (32B) 32B · 32 GB RAM · Q4_K_M
- Gemma 3 (27B) 27B · 32 GB RAM · Q4_K_M
- DeepSeek R1 Distill (32B) 32B · 32 GB RAM · Q4_K_M
- Llama 3.3 (70B) 70B · 48 GB RAM · Q4_K_M
- DeepSeek V3.2 (37B/671B MoE) 37B (671B MoE) · 48 GB RAM · Q4_K_M
- Trinity Large Preview (70B MoE) 70B (MoE, ~400B total) · 48 GB RAM · Q4_K_M
- Kimi K2.5 (32B/1T MoE) 32B active (1T total MoE) · 32 GB RAM · Q4_K_M
- GLM-4 (9B) 9B · 8 GB RAM · Q5_K_M
- GLM-4 (32B) 32B · 32 GB RAM · Q4_K_M
- Qwen 3 MoE (235B/22B active) 235B (22B active) · 96 GB RAM · Q4_K_M
- Command R+ (104B) 104B · 72 GB RAM · Q4_K_M
- WizardLM 2 (8x22B) 8x22B (141B total) · 96 GB RAM · Q4_K_M
- Qwen 3.5 MoE (35B/3B active) 35B (3B active) · 24 GB RAM · Q4_K_M
- Qwen 3.5 (27B) 27B · 32 GB RAM · Q4_K_M
- Qwen 3.5 MoE (122B/10B active) 122B (10B active) · 80 GB RAM · Q4_K_M
- Qwen 3.5 MoE (397B/17B active) 397B (17B active) · 256 GB RAM · Q4_K_M
- Qwen 3.5 (0.8B) 0.8B · 2 GB RAM · Q4_K_M
- Qwen 3.5 (2B) 2B · 4 GB RAM · Q4_K_M
- Qwen 3.5 (4B) 4B · 6 GB RAM · Q4_K_M
- Qwen 3.5 (9B) 9B · 8 GB RAM · Q4_K_M
- Qwen 3.6 (6.7B) 6.7B · 8 GB RAM · Q4_K_M
- Qwen 3.6 (27B) 27B · 32 GB RAM · Q4_K_M
- Gemma 3n (8B) 8B · 8 GB RAM · Q4_K_M
- Gemma 4 E2B E2B · 6 GB RAM · Q5_K_M
- Gemma 4 E4B E4B · 8 GB RAM · Q4_K_M
- Gemma 4 26B A4B 26B (A4B active) · 24 GB RAM · Q4_K_M
- Gemma 4 31B 31B · 32 GB RAM · Q4_K_M
- DeepSeek R1 0528 (671B MoE) 671B (37B active) · 512 GB RAM · Q4_K_M
- Llama 3.2 Vision (90B) 90B · 72 GB RAM · Q4_K_M
- Qwen 3 Coder (30B) 30B · 24 GB RAM · Q4_K_M
- Qwen 2.5 VL (72B) 72B · 64 GB RAM · Q4_K_M
- InternVL3 (8B) 8B · 8 GB RAM · Q4_K_M
- Qwen 3 MoE (30B/3B active) 30B (3B active) · 24 GB RAM · Q4_K_M
- DeepSeek R1 0528 Distill (8B) 8B · 8 GB RAM · Q4_K_M
- OLMo 2 (32B) 32B · 24 GB RAM · Q4_K_M
- MiroThinker v1.5 (30B MoE) 30B (3B active, MoE) · 48 GB RAM · Q4_K_M
- MiroThinker 1.7 (30B MoE) 30B (3B active, MoE) · 48 GB RAM · Q4_K_M
- MiroThinker 1.7 Mini (30B MoE) 30B (3B active, MoE) · 48 GB RAM · Q4_K_M
- Llama-3.3-Nemotron-Super (49B) 49B · 40 GB RAM · Q4_K_M
- Llama-3.1-Nemotron (70B) 70B · 48 GB RAM · Q4_K_M
- Qwen 3 VL (8B) 8B · 12 GB RAM · Q4_K_M
- Qwen 3 VL (32B) 32B · 32 GB RAM · Q4_K_M
- Llama 4 Scout (17B/109B MoE) 109B (17B active, 16 experts) · 96 GB RAM · Q4_K_M
- Llama 4 Maverick (17B/400B MoE) 400B (17B active, 128 experts) · 384 GB RAM · Q4_K_M
- GLM 4.6 Air (12B) 12B · 12 GB RAM · Q4_K_M
- Granite 3.3 (2B Instruct) 2B · 4 GB RAM · Q5_K_M
- Hermes 4 (70B) 70B · 48 GB RAM · Q4_K_M
- Hermes 4 (405B) 405B · 384 GB RAM · Q4_K_M
- Kimi K2 Instruct (1T MoE) 1T (32B active, 384 experts) · 1024 GB RAM · Q4_K_M
- Kimi K2 Thinking (1T MoE) 1T (32B active, 384 experts) · 1024 GB RAM · Q4_K_M
- Kimi Linear 48B-A3B Instruct 48B (3B active, MoE) · 48 GB RAM · Q4_K_M
- DeepSeek V4 Pro (1.6T MoE) 1.6T (49B active) · 1024 GB RAM · FP4/FP8
- DeepSeek V4 Flash (284B MoE) 284B (13B active) · 256 GB RAM · FP4/FP8
- GLM-5.1 754B MoE · 640 GB RAM · Q4_K_M
- MiMo-V2.5-Pro (1.02T MoE) 1.02T (42B active) · 1024 GB RAM · FP8
- DeepSeek V3.2 Exp (671B MoE) 671B (37B active) · 512 GB RAM · Q4_K_M
- Mistral Small 3.2 (24B) 24B · 24 GB RAM · Q5_K_M
- Qwen 3 Next (80B/3B MoE) 80B (3B active) · 64 GB RAM · Q4_K_M
- GLM 4.6 (355B MoE) 355B (32B active) · 320 GB RAM · Q4_K_M
- MiniMax M2 (230B MoE) 230B (10B active) · 192 GB RAM · Q4_K_M
- Ling 1T (1T MoE) 1T (50B active) · 1024 GB RAM · Q4_K_M
- Ling-2.6-flash (104B MoE) 104B (7.4B active) · 80 GB RAM · Q4_K_M
- ZAYA1-8B 8.4B (760M active, MoE) · 24 GB RAM · BF16 (Zyphra fork)
- Nemotron Nano 9B v2 9B · 10 GB RAM · Q5_K_M
- Apriel Nemotron 15B Thinker 15B · 16 GB RAM · Q5_K_M