Doku: ki-video Projektdoku auf CT 999, homelab.conf GPU-Rollen aktualisiert, MASTER_INDEX erweitert

This commit is contained in:
root 2026-03-16 12:15:37 +07:00
parent bc58d5e4df
commit a42a8e95c0

View file

@ -218,20 +218,25 @@ TUNNEL_601_MU3="rss-manager|:8080|standby"
# RAM: 64 GB DDR5
# GPU: NVIDIA RTX 3090 (24 GB VRAM)
# Storage: 1 TB NVMe
# Funktion: Haupt-KI-Server — Qwen 32B (Skripte), FLUX.1-dev (Bilder),
# XTTS v2 (TTS), SadTalker (Avatar), Video-Pipeline, schwere Inferenz
# Rolle: Chef — Orchestrator, Szenenplan (Qwen 14B), Hero-Bilder (FLUX.1-dev),
# Assembly (FFmpeg + NVENC), production.db (SQLite)
# Skripte: GPT-5.4 via OpenAI API (Cloud, ~0.10-0.50 EUR/Skript)
# OS: geplant Debian 12 + Docker + CUDA
# Dienste: vLLM (:8401), ComfyUI (:8402), Orchestrator (Python)
# Projekt: ki-video/PLAN.md
# Status: geplant
# --- NVIDIA Worker-Rig (Muldenstein, geplant) --- PRIMAERER WORKER
# Logischer Name: gpu-worker
# GPUs: 4x NVIDIA RTX 3080 (je 10 GB GDDR6X, PCIe 4.0 x16)
# CUDA: voll unterstuetzt, selber Stack wie ki-tower (3090)
# Funktion: Produktiver Worker-Pool — SDXL Batch, XTTS v2, SadTalker,
# Whisper, Upscaling, kleine LLMs (bis 10B), Embeddings
# CUDA: voll unterstuetzt, identischer Stack wie ki-tower
# Rolle: Produktiver Worker-Pool fuer KI-Video Pipeline
# GPU #0: XTTS v2 (TTS, ~4 GB) → danach SDXL Bilder (~7 GB) :8501
# GPU #1: SDXL (Standard-Szenen, ~7 GB, durchgehend) :8502
# GPU #2: SadTalker (Avatar lip-sync, ~6 GB, wartet auf TTS) :8503
# GPU #3: Real-ESRGAN (Upscaling) + Whisper (Untertitel) :8504
# OS: geplant Debian 12 + Docker + CUDA
# Architektur: 1 Container pro GPU, feste Zuordnung
# Architektur: 1 Container pro GPU, feste Zuordnung, HTTP-API pro Worker
# Status: geplant
#
# --- AMD Mining-Rig (Muldenstein, Reserve) --- NEBENROLLE