synops/docs/infra
vegard 01ad35557f LiteLLM AI Gateway: Docker, DB-ruting, config-generering (oppgave 10.1)
Setter opp AI Gateway med LiteLLM som sentralisert proxy for alle
AI-kall. PG eier all modellkonfigurasjon — LiteLLM er stateløs.

- Migrasjon 008: ai_model_aliases, ai_model_providers, ai_job_routing
  med seed-data for sidelinja/rutine og sidelinja/resonering
- Config-generering fra PG: scripts/generate-litellm-config.sh
  filtrerer bort providers med tomme API-nøkler
- Docker-container kjører på sidelinja-net (intern, ingen eksponert port)
- Maskinrommet har AI_GATEWAY_URL via maskinrommet-env.sh
- API-nøkkel-placeholders i .env (GEMINI, ANTHROPIC, XAI)
- Oppdatert docs/infra/ai_gateway.md med faktisk config

Verifisert: container healthy, modellaliaser eksponert, maskinrommet
har korrekt gateway-URL. Reelle API-kall krever at Vegard fyller
inn leverandør-nøkler i /srv/synops/.env.

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-03-17 23:12:46 +00:00
..
ai_gateway.md LiteLLM AI Gateway: Docker, DB-ruting, config-generering (oppgave 10.1) 2026-03-17 23:12:46 +00:00
api_grensesnitt.md Flere intensjoner: create_edge, update_node, delete_node (oppgave 2.5) 2026-03-17 13:25:16 +01:00
claude_agent.md Oppdater docs og config for native maskinrommet + Claude-agent 2026-03-17 19:24:23 +00:00
jobbkø.md Fullfør oppgave 7.5: Segmenttabell-migrasjon og SRT-pipeline 2026-03-17 18:19:00 +01:00
synkronisering.md Arkitekturbeslutninger: noder er sentrum, edges definerer alt 2026-03-17 10:29:54 +01:00