[Jarvis] Lokaler LLM-Router auf pve-hetzner CPU — Qwen2.5-1.5B als Vorfilter
Update: llama.cpp Router statt Ollama (17.03.2026)
llama.cpp Server hat jetzt einen eingebauten Router-Modus — macht Ollama ueberfluessig.
[Jarvis] Ollama + Qwen 3.5 35B-A3B + qwen3-coder:30b + DeepSeek R1 auf pve-mu-4
Update: IQ-Quantisierung (17.03.2026)
Neue IQ*_K Quants aus ik_llama.cpp sind jetzt in llama.cpp mainline gemerged. Deutlich bessere Qualitaet pro Bit als Standard K-Quants.
###…
[Jarvis] Save.TV Download-Pipeline → Samba-RAID → Jellyfin
[Jarvis] Lokaler LLM-Router auf pve-hetzner CPU — Qwen2.5-1.5B als Vorfilter