From a42a8e95c038184708bb3b3babe3cd62be9462bd Mon Sep 17 00:00:00 2001 From: root Date: Mon, 16 Mar 2026 12:15:37 +0700 Subject: [PATCH] Doku: ki-video Projektdoku auf CT 999, homelab.conf GPU-Rollen aktualisiert, MASTER_INDEX erweitert --- homelab.conf | 17 +++++++++++------ 1 file changed, 11 insertions(+), 6 deletions(-) diff --git a/homelab.conf b/homelab.conf index 18a694bd..94070c44 100644 --- a/homelab.conf +++ b/homelab.conf @@ -218,20 +218,25 @@ TUNNEL_601_MU3="rss-manager|:8080|standby" # RAM: 64 GB DDR5 # GPU: NVIDIA RTX 3090 (24 GB VRAM) # Storage: 1 TB NVMe -# Funktion: Haupt-KI-Server — Qwen 32B (Skripte), FLUX.1-dev (Bilder), -# XTTS v2 (TTS), SadTalker (Avatar), Video-Pipeline, schwere Inferenz +# Rolle: Chef — Orchestrator, Szenenplan (Qwen 14B), Hero-Bilder (FLUX.1-dev), +# Assembly (FFmpeg + NVENC), production.db (SQLite) +# Skripte: GPT-5.4 via OpenAI API (Cloud, ~0.10-0.50 EUR/Skript) # OS: geplant Debian 12 + Docker + CUDA +# Dienste: vLLM (:8401), ComfyUI (:8402), Orchestrator (Python) # Projekt: ki-video/PLAN.md # Status: geplant # --- NVIDIA Worker-Rig (Muldenstein, geplant) --- PRIMAERER WORKER # Logischer Name: gpu-worker # GPUs: 4x NVIDIA RTX 3080 (je 10 GB GDDR6X, PCIe 4.0 x16) -# CUDA: voll unterstuetzt, selber Stack wie ki-tower (3090) -# Funktion: Produktiver Worker-Pool — SDXL Batch, XTTS v2, SadTalker, -# Whisper, Upscaling, kleine LLMs (bis 10B), Embeddings +# CUDA: voll unterstuetzt, identischer Stack wie ki-tower +# Rolle: Produktiver Worker-Pool fuer KI-Video Pipeline +# GPU #0: XTTS v2 (TTS, ~4 GB) → danach SDXL Bilder (~7 GB) :8501 +# GPU #1: SDXL (Standard-Szenen, ~7 GB, durchgehend) :8502 +# GPU #2: SadTalker (Avatar lip-sync, ~6 GB, wartet auf TTS) :8503 +# GPU #3: Real-ESRGAN (Upscaling) + Whisper (Untertitel) :8504 # OS: geplant Debian 12 + Docker + CUDA -# Architektur: 1 Container pro GPU, feste Zuordnung +# Architektur: 1 Container pro GPU, feste Zuordnung, HTTP-API pro Worker # Status: geplant # # --- AMD Mining-Rig (Muldenstein, Reserve) --- NEBENROLLE