diff --git a/MASTER_INDEX.md b/MASTER_INDEX.md index c2af590c..e6728e0c 100644 --- a/MASTER_INDEX.md +++ b/MASTER_INDEX.md @@ -44,7 +44,6 @@ | Muldenstein | PBS | **pbs-mu** | 100.99.139.22 | Proxmox Backup Server | | Muldenstein | CT 116 (pve-mu-2) | **monitoring-bot** | 100.88.230.74 | Cursor IDE + Tailscale-Gateway + SSH-Hub | | Muldenstein | KI-Tower | **ki-tower** | — | Geplant: RTX 3090 (24 GB) — Haupt-KI, Vision, schwere Inferenz | -| Muldenstein | NVIDIA-Rig | **gpu-worker** | — | Geplant: 4x RTX 3080 (je 10 GB) — SDXL, XTTS, SadTalker, Whisper, Embeddings | | Muldenstein | AMD-Rig | **gpu-reserve** | — | Reserve: 8x RX 6600 XT (je 8 GB) — Nebenrolle, ggf. verkaufen | ## Telegram Bots diff --git a/homelab.conf b/homelab.conf index f9106ee0..b6447956 100644 --- a/homelab.conf +++ b/homelab.conf @@ -297,29 +297,20 @@ TUNNEL_601_MU3="rss-manager|:8080|standby" # Projekt: ki-video/PLAN.md # Status: geplant -# --- NVIDIA Worker-Rig (Muldenstein, geplant) --- PRIMAERER WORKER -# Logischer Name: gpu-worker -# GPUs: 4x NVIDIA RTX 3080 (je 10 GB GDDR6X, PCIe 4.0 x16) -# CUDA: voll unterstuetzt, identischer Stack wie ki-tower -# Rolle: Produktiver Worker-Pool fuer KI-Video Pipeline -# GPU #0: XTTS v2 (TTS, ~4 GB) → danach SDXL Bilder (~7 GB) :8501 -# GPU #1: SDXL (Standard-Szenen, ~7 GB, durchgehend) :8502 -# GPU #2: SadTalker (Avatar lip-sync, ~6 GB, wartet auf TTS) :8503 -# GPU #3: Real-ESRGAN (Upscaling) + Whisper (Untertitel) :8504 -# OS: geplant Debian 12 + Docker + CUDA -# Architektur: 1 Container pro GPU, feste Zuordnung, HTTP-API pro Worker -# Status: geplant -# +# --- NVIDIA Worker-Rig --- GESTRICHEN (2026-04-20) +# 4x RTX 3080 Plan verworfen, Karten werden verkauft. +# KI-Video-Pipeline muss auf ki-tower (3090 solo) oder neuer HW neu geplant werden. + # --- AMD Mining-Rig (Muldenstein, Reserve) --- NEBENROLLE # Logischer Name: gpu-reserve # GPUs: 8x AMD Radeon RX 6600 XT Dual (je 8 GB GDDR6, PCIe 4.0 x8) # Chip: Navi 23 (gfx1032), RDNA 2 # ROCm: inoffiziell (HSA_OVERRIDE_GFX_VERSION=10.3.0 noetig) # Funktion: Reserve/Nebenrolle — Whisper (whisper.cpp), CPU-Batch-Jobs -# Prioritaet: Niedrig. Nur einsetzen wenn 3080-Rig ausgelastet. +# Prioritaet: Niedrig. # Alternative: Verkaufen und Erloese in Storage/RAM investieren. # OS: geplant Debian 12 + Docker + ROCm (falls benoetigt) -# Status: zurueckgestellt, Entscheidung nach 3080-Rig-Aufbau +# Status: zurueckgestellt # ============================================================ # NAMENS-MAPPING (Alt → Neu) — Referenz für Migration diff --git a/ki-video/PLAN.md b/ki-video/PLAN.md index 29af3090..f6e64093 100644 --- a/ki-video/PLAN.md +++ b/ki-video/PLAN.md @@ -1,6 +1,19 @@ # KI-Video — Lokale Produktionspipeline **Stand: 16.03.2026** +> ⚠️ **HARDWARE-PLAN VERALTET (2026-04-20)** +> Das 4× RTX 3080 Worker-Rig (`gpu-worker`) wurde verworfen, die Karten werden verkauft. +> Alle weiter unten stehenden GPU-Zuordnungen (3080 #0–#3: XTTS/SDXL/SadTalker/Whisper) +> sind damit **hinfällig**. Die konzeptionellen Teile (Pipeline-Struktur, Workflow, +> Output-Format, Time-Budget) bleiben gültig. +> +> **Neu zu entscheiden vor Umsetzung**: +> - Läuft v1 komplett auf ki-tower (1× RTX 3090 solo, seriell statt parallel) → geht, +> dauert aber ~2–3× länger pro Video +> - Oder neue Worker-Hardware (z. B. 2× RTX 4090 48 GB, oder Mac Studio M-Ultra) +> - Oder Cloud-Fallback für SDXL/XTTS bei Spitzenlast (Replicate, Runpod) + + ## Ziel Lokale, produktiv nutzbare Pipeline fuer YouTube-Videos im Commentary-/Erklaerstil.