[Projekt] KI-Server Umbau: Lokaler Coding-Agent + Cloud-Monitoring #75
Labels
No labels
flugscanner
fuenfvoracht
infrastruktur
jarvis
ki-tower
nice-to-have
prio-1
wartung
wordpress
No milestone
No project
No assignees
1 participant
Notifications
Due date
No due date set.
Dependencies
No dependencies set.
Reference: orbitalo/homelab-brain#75
Loading…
Add table
Reference in a new issue
No description provided.
Delete branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Ziel
Cursor-Kosten (~€500/Monat) durch lokalen Coding-Agent auf KI-Server (RTX 3090) ersetzen.
Hausmeister-Bot in die Cloud verschieben um GPU komplett freizumachen.
Phase 1: Hausmeister in die Cloud (1h)
Phase 2: Qwen3-Coder-Next installieren (1h)
ollama pull qwen3-coder-nextauf KI-ServerPhase 3: OpenCode auf lokales Modell umstellen (30min)
Phase 4: Praxistest (1 Woche)
Erfolgskriterien
Hardware
Kostenschaetzung
Status-Update 11.04.2026
Phase 1: Cloud-Migration — ERLEDIGT
Phase 2: Lokalen Coding-Agent installieren — ERLEDIGT
Modell: Devstral Small 2 (24B) statt Qwen3-Coder-Next (zu groß für 24GB)
Getestete und verworfene Modelle:
qwen3-coder-next(79.7B) — 9.5 tok/s, zu langsam, passt nicht in VRAMqwen3-coder:30b(MoE) — 128 tok/s aber kein Output bei echten AufgabenPhase 3: OpenCode-Config — ERLEDIGT
ollama/devstral-small-2konfigurierthomelab-brain/opencode.jsonhat globale Config überschrieben → Model war immerx-ai/grok-4.1-faststatt lokalPhase 4: Praxistest — GESTARTET
Ab heute 1 Woche Praxistest mit devstral-small-2 als Default.
Grok 4.1 Fast bleibt als Cloud-Fallback in der Config verfügbar.
Infrastruktur-Entdeckung
model-libraryauf pve-mu-3: Web-UI zum Download/Verwalten von GGUF-Modellen/mnt/ki-modellemit 25 vorinstallierten Modellen (LLM, Code, Vision, Embedding)Abschluss-Fazit 11.04.2026
Ergebnis Phase 1-3
Cloud-Migration (Phase 1): Komplett erledigt. Hausmeister-Bot, Flugscanner Vision, OpenMemory laufen auf OpenRouter. GPU ist frei.
Lokaler Coding-Agent (Phase 2+3): devstral-small-2 installiert und funktionsfähig in OpenCode. Limitierungen im Praxistest erkannt (siehe unten).
Praxistest-Ergebnisse
Empfehlung (umgesetzt)
Offenes Problem: Memory/Kontext
Alle Coding-Agents (Grok, devstral) vergessen Kontext wenn der 32K-Token-Context voll ist. Bei Infrastruktur-Debugging mit langen SSH-Outputs passiert das schnell. Mögliche Lösungen:
→ Neues Issue für Memory-Problem erstellen.
Heute zusätzlich erledigt: pve-hetzner Stabilisierung