[Infra] pve-mu-4 Servertower aufsetzen — Proxmox + RTX 3090 KI-Server #20

Closed
opened 2026-03-10 11:27:39 +00:00 by orbitalo · 1 comment
Owner

Ziel

Servertower in Muldenstein als neuer Proxmox-Host (pve-mu-4) mit RTX 3090 fuer lokale KI-Dienste. Strom ueber PV-Anlage.

Vor-Ort-Checkliste (in DE pruefen)

  • Netzteil: Wieviel Watt? (bestimmt ob 2. GPU reinpasst)
  • PCIe-Slots: Platz fuer 2 Karten? (RTX 3090 + ggf. RTX 3080)
  • RAM: Wieviel verbaut? (32 GB empfohlen, 64 GB ideal)
  • CPU: Welcher Prozessor? (Kerne/Threads fuer Proxmox)
  • Festplatten: SSDs vorhanden? (min. 500 GB fuer OS + VMs)
  • Netzwerk: Ethernet-Anschluss in der Naehe?
  • RTX 3090 einbauen
  • Optional: RTX 3080 einbauen (wenn NT >= 750W und PCIe-Slot frei)

Proxmox-Setup

  • Proxmox VE installieren (USB-Stick vorbereiten)
  • Netzwerk konfigurieren (LAN 192.168.178.x Muldenstein)
  • Tailscale installieren → pve-mu-4 im Netz
  • homelab.conf aktualisieren (SRV_MU4, Hostname, IPs)
  • PBS-Backup anbinden

GPU-Passthrough

  • IOMMU aktivieren (BIOS: VT-d / AMD-Vi)
  • GRUB: intel_iommu=on oder amd_iommu=on
  • vfio-pci Kernel-Modul konfigurieren
  • Blacklist nouveau/nvidia Treiber auf Host
  • VM/CT erstellen mit GPU-Passthrough
  • NVIDIA-Treiber in der VM installieren

Ollama + LLM

  • VM mit GPU-Passthrough erstellen (Ubuntu 22.04)
  • CUDA + NVIDIA-Treiber installieren
  • Ollama installieren (curl -fsSL https://ollama.com/install.sh | sh)
  • Modell laden: ollama pull qwen2.5:32b-instruct-q5_K_M (~20 GB)
  • API testen: curl http://localhost:11434/api/generate
  • Ollama-API per Tailscale fuer andere CTs erreichbar machen
  • Hausmeister-Bot umstellen: Ollama statt OpenRouter

Netzteil-Entscheidung

Netzteil Empfehlung
>= 850W 2 GPUs: RTX 3090 (Ollama) + RTX 3080 (Avatar-Pipeline)
750W 2 GPUs moeglich, aber knapp — Power-Limit per nvidia-smi setzen
< 750W Nur RTX 3090, Avatar-Pipeline per Umschalt-Skript

Dienste-Planung

RTX 3090 (24 GB) — permanent:

  • Ollama: Qwen 2.5 32B (Q5) fuer Hausmeister + Research
  • Spaeter: Hermes Agent (Issue #19)

RTX 3080 (10 GB) — bei Bedarf (wenn NT passt):

  • F5-TTS (deutsche Sprachsynthese)
  • SadTalker/MuseTalk (Avatar-Video)
  • Stable Diffusion (Bild-Generierung)
  • Whisper (Spracheingabe)

Abhaengigkeiten

  • Issue #19: Hermes Agent → laeuft dann auf pve-mu-4
  • Issue #13-18: Avatar-Pipeline → GPU-Ressource auf pve-mu-4

Stromkosten (Schaetzung)

  • Sommer (PV): ~0 EUR
  • Winter (1 GPU Durchschnitt ~150W): ~30 EUR/Monat
  • Ersparnis OpenRouter: ~15 EUR/Monat
  • Break-even im Winter: fast neutral
## Ziel Servertower in Muldenstein als neuer Proxmox-Host (pve-mu-4) mit RTX 3090 fuer lokale KI-Dienste. Strom ueber PV-Anlage. ## Vor-Ort-Checkliste (in DE pruefen) - [ ] Netzteil: Wieviel Watt? (bestimmt ob 2. GPU reinpasst) - [ ] PCIe-Slots: Platz fuer 2 Karten? (RTX 3090 + ggf. RTX 3080) - [ ] RAM: Wieviel verbaut? (32 GB empfohlen, 64 GB ideal) - [ ] CPU: Welcher Prozessor? (Kerne/Threads fuer Proxmox) - [ ] Festplatten: SSDs vorhanden? (min. 500 GB fuer OS + VMs) - [ ] Netzwerk: Ethernet-Anschluss in der Naehe? - [ ] RTX 3090 einbauen - [ ] Optional: RTX 3080 einbauen (wenn NT >= 750W und PCIe-Slot frei) ## Proxmox-Setup - [ ] Proxmox VE installieren (USB-Stick vorbereiten) - [ ] Netzwerk konfigurieren (LAN 192.168.178.x Muldenstein) - [ ] Tailscale installieren → pve-mu-4 im Netz - [ ] homelab.conf aktualisieren (SRV_MU4, Hostname, IPs) - [ ] PBS-Backup anbinden ## GPU-Passthrough - [ ] IOMMU aktivieren (BIOS: VT-d / AMD-Vi) - [ ] GRUB: intel_iommu=on oder amd_iommu=on - [ ] vfio-pci Kernel-Modul konfigurieren - [ ] Blacklist nouveau/nvidia Treiber auf Host - [ ] VM/CT erstellen mit GPU-Passthrough - [ ] NVIDIA-Treiber in der VM installieren ## Ollama + LLM - [ ] VM mit GPU-Passthrough erstellen (Ubuntu 22.04) - [ ] CUDA + NVIDIA-Treiber installieren - [ ] Ollama installieren (curl -fsSL https://ollama.com/install.sh | sh) - [ ] Modell laden: ollama pull qwen2.5:32b-instruct-q5_K_M (~20 GB) - [ ] API testen: curl http://localhost:11434/api/generate - [ ] Ollama-API per Tailscale fuer andere CTs erreichbar machen - [ ] Hausmeister-Bot umstellen: Ollama statt OpenRouter ## Netzteil-Entscheidung | Netzteil | Empfehlung | |---|---| | >= 850W | 2 GPUs: RTX 3090 (Ollama) + RTX 3080 (Avatar-Pipeline) | | 750W | 2 GPUs moeglich, aber knapp — Power-Limit per nvidia-smi setzen | | < 750W | Nur RTX 3090, Avatar-Pipeline per Umschalt-Skript | ## Dienste-Planung **RTX 3090 (24 GB) — permanent:** - Ollama: Qwen 2.5 32B (Q5) fuer Hausmeister + Research - Spaeter: Hermes Agent (Issue #19) **RTX 3080 (10 GB) — bei Bedarf (wenn NT passt):** - F5-TTS (deutsche Sprachsynthese) - SadTalker/MuseTalk (Avatar-Video) - Stable Diffusion (Bild-Generierung) - Whisper (Spracheingabe) ## Abhaengigkeiten - Issue #19: Hermes Agent → laeuft dann auf pve-mu-4 - Issue #13-18: Avatar-Pipeline → GPU-Ressource auf pve-mu-4 ## Stromkosten (Schaetzung) - Sommer (PV): ~0 EUR - Winter (1 GPU Durchschnitt ~150W): ~30 EUR/Monat - Ersparnis OpenRouter: ~15 EUR/Monat - Break-even im Winter: fast neutral
orbitalo added the
jarvis
label 2026-03-10 11:47:55 +00:00
Author
Owner

Erledigt

Server läuft unter 100.84.255.83 (pve-ka-1) mit Ollama 0.18.2 + RTX 3090.

Installierte Modelle:

  • qwen3:30b-a3b (18.6 GB)
  • qwen3-vl:32b (20.9 GB)
  • qwen2.5:14b (9.0 GB)
✅ Erledigt Server läuft unter 100.84.255.83 (pve-ka-1) mit Ollama 0.18.2 + RTX 3090. Installierte Modelle: - qwen3:30b-a3b (18.6 GB) - qwen3-vl:32b (20.9 GB) - qwen2.5:14b (9.0 GB)
Sign in to join this conversation.
No milestone
No project
No assignees
1 participant
Notifications
Due date
The due date is invalid or out of range. Please use the format "yyyy-mm-dd".

No due date set.

Dependencies

No dependencies set.

Reference: orbitalo/homelab-brain#20
No description provided.