Satt opp faster-whisper-server (fedirz/faster-whisper-server:latest-cpu) som Docker-tjeneste på produksjonsserveren. Ingen GPU tilgjengelig — bruker CPU med int8-kvantisering og large-v3 modell for best norsk kvalitet. Verifisert: - Transkripsjon fungerer via OpenAI-kompatibelt API - verbose_json med segmenter og tidskoder OK - Docker DNS-oppslag fra sidelinja-net fungerer - Maskinrommet har WHISPER_URL=http://faster-whisper:8000 - RAM-bruk ~2.5 GB med modell lastet Konfigurasjon: - Image: fedirz/faster-whisper-server:latest-cpu - Modell: large-v3 (norsk), int8, CPU - CAS montert read-only for direkte filtilgang - Healthcheck via python3 (curl ikke tilgjengelig i image) Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com> |
||
|---|---|---|
| .. | ||
| lokal.md | ||
| migration_safety.md | ||
| produksjon.md | ||