Fase 5 (kommunikasjon): chat-loop fungerer, belongs_to-edges
opprettes automatisk ved context_id, resolve_context_identity
håndterer aliaser, propagate_belongs_to_access gir deltakere
tilgang til meldinger. WebSocket-sanntid verifisert.
Fase 6 (CAS): SHA-256 hashing korrekt, deduplisering fungerer,
filnavn = hash i disk-struktur ({root}/{h[0:2]}/{h[2:4]}/{hash}).
Serving med riktige cache-headers (immutable). 2 filer verifisert.
Fase 7 (lyd): Whisper-tjeneste aktiv, transcription_segments-tabell
med 8 kolonner og 4 indekser. SRT-parsing/eksport testet (5+3 tester).
synops-transcribe CLI bygger og kjører. 61 maskinrommet-tester bestått.
Fase 8 (aliaser): current_node_alias_ids() og RLS-policies er
alias-aware. create_alias-handler oppretter person-node (hidden)
med system=true alias-edge. Ingen aliaser i bruk ennå (korrekt).
Validering av fase 3 (frontend) og fase 4 (tilgangskontroll) avdekket to bugs:
1. belongs_to-access-gap: Når en belongs_to-edge opprettes ETTER at
noen allerede har tilgang til foreldrenoden, fikk ikke barnenoden
tilgangsoppføringer i node_access-matrisen. F.eks. kunne Vegard (eier
av en kommunikasjonsnode) ikke se innhold opprettet av Claude med
belongs_to-edge til den noden.
Løsning: Ny PG-funksjon propagate_belongs_to_access() som kopierer
forelderens tilgangsrader til barnet. Kalles fra maskinrommet ved
opprettelse av belongs_to-edges (create_node m/context, create_edge,
create_communication m/context). Retroaktiv fiks for eksisterende data.
2. Mottaksflate-sortering: Brukte .microsSinceUnixEpoch (SpacetimeDB-
BigInt-arv) på vanlig number-felt, ga alltid 0n → ingen sortering.
Fikset til direkte number-sammenligning.
Verifisert: SvelteKit + maskinrommet bygger og kjører. PG-skjema, OIDC,
WebSocket/NOTIFY, RLS-policies, team-transitivitet og visibility fungerer.
Systematisk gjennomgang av PG-skjema, auth-middleware, intensjoner,
skrivestien og WebSocket-laget. Alle kjernetabeller matcher docs.
Auth fungerer korrekt (401 for ugyldig/manglende token). Skrivestien
er konsistent: direkte PG-skriving → NOTIFY → WebSocket.
Fikser:
- Fjern død kode: pg_writes enqueue-funksjoner (aldri kalt etter STDB-migrering)
- Fjern ubrukt truncate() i tts.rs
- Legg til #[allow(dead_code)] for sqlx-structs med ubrukte felt
- Rett feilaktig doc-påstand i api_grensesnitt.md om jobbkø
- Fjern utdatert STDB-referanse i agent_api.md
- Kompilerer uten warnings
Se logs/validering-23.1.md for fullstendig rapport.
SpacetimeDB ble fjernet i 22.4. Denne oppryddingen:
- Arkiverer spacetimedb_integrasjon.md og adapter_moenster.md til docs/erfaringer/arkiv/
- Fjerner SpacetimeDB reverse proxy-blokk fra Caddyfile
- Fjerner SpacetimeDB-loven fra Claude feedback-memories (ikke lenger relevant)
- Oppdaterer docs-referanser i CLAUDE.md, erfaringer/README.md,
selvdokumenterende_system.md og tasks.md
- Markerer fase 22 som fullført i avhengighetsgrafen
synops-clip returnerer paywall: true ved avkuttet innhold.
@bot varsler brukeren og ber om manuell innliming.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
4 oppgaver: Readability-parser CLI, node-opprettelse med
AI-beriking, @bot-integrasjon (URL i chat → oppsummering),
og orkestrering-støtte.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
8 oppgaver: node-type, trigger-evaluering, bot-utførelse,
auto-eskalering (Flash→Sonnet→Opus), UI, kaskade, kompilering
av velprøvde mønstre, og seed av standard-orkestreringer.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
SpacetimeDB var brukt som «instant feedback»-lag mellom portvokteren
og frontend. Nå som PG NOTIFY-triggere og WebSocket er på plass
(oppgave 22.1–22.2), er STDB-skrivestien overflødig.
Endringer:
- intentions.rs: Alle CRUD-operasjoner (create/update/delete node/edge)
skriver nå synkront til PG i stedet for STDB-først + async PG-jobbkø.
PG NOTIFY-triggere gir umiddelbar sanntidsoppdatering til klienter.
Tilgangsgivende edges (owner/admin/member_of/reader) bruker transaksjon
med recompute_access direkte i handleren.
- maintenance.rs: Fjernet StdbClient fra alle funksjoner. Varsler
opprettes/oppdateres/slettes direkte i PG.
- agent.rs, audio.rs, tts.rs, ai_process.rs: Fjernet STDB-synk etter
CLI-verktøy-kjøring. PG NOTIFY dekker sanntidsvisning.
- pg_writes.rs: Fjernet sync_node_access_to_stdb. access_changed
NOTIFY-trigger håndterer dette.
- workspace.rs: Synkrone PG-skrivinger med recompute_access.
- summarize.rs, ai_edges.rs: Fjernet StdbClient fra signaturer.
- jobs.rs: Fjernet StdbClient fra dispatch og start_worker.
- main.rs: Fjernet STDB-initialisering, warmup, stdb_monitor.
StdbClient fjernet fra AppState. stdb.rs beholdt som død kode
(fjernes i oppgave 22.4).
- health.rs: Fjernet STDB-helsesjekk fra dashboard.
- Slettet warmup.rs og stdb_monitor.rs (PG→STDB-synk ikke lenger
relevant).
- docs/retninger/datalaget.md: Markert fase M3 som fullført.
Frontend bruker nå kun portvokterens WebSocket for sanntidsdata.
SpacetimeDB-klienten er erstattet med en enkel WebSocket-klient
som kobler til /ws-endepunktet og oppdaterer reactive stores direkte.
Frontend-endringer:
- Nye lokale typer (types.ts) erstatter STDB module_bindings
- connection.svelte.ts: WebSocket til portvokteren med auto-reconnect
- stores.svelte.ts: Prosesserer WS-meldinger (initial_sync + events)
- MixerTrait: STDB-reducers erstattet med HTTP API-kall
- api.ts: Nye mixer-endepunkter (create, gain, mute, effect, role)
- +layout.svelte: Fjernet dual-tilkobling, kun portvokterens WS
- pg-ws.svelte.ts: Slettet (erstattet av connection.svelte.ts)
Dokumentasjon:
- datalaget.md: Fase M1+M2 markert som fullført
- api_grensesnitt.md: Oppdatert arkitekturdiagram, nye mixer-endepunkter
Ny fase med 11 oppgaver som spinner opp friske sesjoner for å
teste og validere implementeringen fra hver fase. Ved funn:
fiks direkte (småting) eller opprett nye tasks med spesifikasjon
for dedikert sesjon. Dekker alle faser fra infra til STDB-migrering.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Backend:
- ws.rs: Fikset WS auth via query-param (browser kan ikke sende headers ved WS upgrade)
- auth.rs: Gjort decoding_key pub for gjenbruk i ws-modulen
Frontend:
- pg-ws.svelte.ts: Ny PG WebSocket-klient med auto-reconnect og event-logging
- index.ts: Eksporterer pgWsConnect/pgWsDisconnect/pgWsState
- +layout.svelte: Kobler til PG WS i parallell med STDB for verifisering
Docs:
- api_grensesnitt.md: Dokumentert /ws endepunkt og sanntidsarkitektur
- tasks.md: Merket 22.1 som ferdig
Deploy: Krever restart av maskinrommet + rebuild av frontend.
Profilert alle kritiske PG-spørringer med EXPLAIN ANALYZE.
Identifiserte at recompute_access brukte single-column index
(idx_edges_type) med lav selektivitet, og RLS-policyer manglet
composite indexes for effektive oppslag.
Endringer:
Migrasjon 017_query_performance.sql:
- 6 nye composite indexes:
- idx_edges_target_type (target_id, edge_type) — recompute_access + belongs_to
- idx_edges_source_type (source_id, edge_type) — alias-oppslag
- idx_edges_target_memberof (partial, member_of) — team-propagering
- idx_nodes_created_at_desc — ORDER BY created_at DESC
- idx_nodes_kind_created — filtrer på kind + sorter
- idx_na_subject_covering INCLUDE (object_id) — RLS without heap lookup
- Optimalisert recompute_access(): steg 3 og 4 kjøres nå bare
når det er relevant (EXISTS-sjekk først). For vanlige brukere
(ikke team) unngår dette to fulle INSERT-SELECT-operasjoner.
- via_edge oppdateres nå korrekt ved access-nivå-endring.
Slow query logging (maskinrommet):
- Forespørsler >200ms logges som WARN med tag slow_request
- PG-spørringer >100ms logges som WARN med tag slow_query
- recompute_access-kall logges med varighet for overvåking
- Nytt pg_stats-felt i /metrics med tabell- og index-statistikk,
cache hit ratio, og node_access-telling
Dokumentasjon oppdatert i docs/infra/observerbarhet.md.
Erstatter fire-and-forget tokio::spawn() i skrivestien med jobbkø-basert
persistering. Alle PG-skriveoperasjoner (insert/update/delete for noder
og edges) går nå gjennom den eksisterende jobbkøen som allerede har:
- Eksponentiell backoff (30s × 2^n) ved feil
- Dead letter queue (status='error' etter max_attempts=3)
- Admin-API for overvåking, manuell retry og avbryt
- Ressursstyring og prioritetsregler
Ny modul pg_writes.rs med:
- 5 enqueue-funksjoner (erstatter spawn_pg_*)
- 5 job-handlere for dispatch i worker-loopen
- Full paritet med gammel logikk: tilgangsgivende edges kjører
recompute_access i transaksjon, synker til STDB, trigger rendering
Før: PG-skrivefeil logget og glemt → data kun i STDB, tapt fra PG.
Nå: automatisk retry → admin-synlig dead letter → manuell recovery.
SpacetimeDB var et godt eksperiment, men gir synk-kompleksitet,
dobbelt vedlikehold og en ekstra SPOF for minimal latensgevinst
på denne skalaen. PG LISTEN/NOTIFY + WebSocket i portvokteren
erstatter sanntidslaget.
- datalaget.md: revidert med ny lagmodell, PG-triggers, migrasjonsplan
- retninger/README.md: oppdatert status til «Revidert»
- tasks.md: ny fase 22 (STDB-migrering) med 5 oppgaver (M1–M5)
- 12.4 oppdatert fra «profiler STDB» til «profiler PG»
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Legger til observerbarhetslaget i maskinrommet:
- Strukturert JSON-logging via LOG_FORMAT=json (maskinlesbart for
log-aggregering). Default er human-readable for utvikling.
- Ny metrics-modul med in-memory request latency tracking per rute
(count, avg, min, max, p50/p95/p99 fra siste 1000 forespørsler).
- Custom axum-middleware erstatter tower_http::TraceLayer — logger
method, path, status og duration_ms per request, og mater
metrikk-samleren.
- GET /metrics-endepunkt som returnerer:
- request_latency: per-rute statistikk
- queue_depth: pending/running/error/retry fra job_queue
- ai_cost: aggregert fra ai_usage_log (siste time/24h/30d)
- Default loggnivå endret fra debug til info for mindre støy.
Ny crate `tools/synops-common` samler duplisert kode som var
spredt over 13 CLI-verktøy:
- db::connect() — PG-pool fra DATABASE_URL (erstatter 10+ identiske blokker)
- cas::path() — CAS-stioppslag med to-nivå hash-katalog
- cas::root() — CAS_ROOT env med default
- cas::hash_bytes() / hash_file() / store() — SHA-256 hashing og lagring
- cas::mime_to_extension() — MIME → filendelse
- logging::init() — tracing til stderr med env-filter
- types::{NodeRow, EdgeRow, NodeSummary} — delte FromRow-structs
Alle verktøy (unntatt synops-tasks som ikke bruker DB) er refaktorert
til å bruke synops-common. Alle kompilerer og tester passerer.
Nytt CLI-verktøy for å hente og vise en node med alle tilkoblede edges.
Støtter rekursiv graf-traversering (--depth) og to output-formater
(markdown og JSON). Brukes av Claude og maskinrommet for å inspisere
graf-tilstand.
Features:
- Hent node med alle edges (inn og ut)
- Berik edges med peer-tittel og node_kind for lesbarhet
- --depth 0: bare noden, --depth 1: + edges (default), --depth 2+: traverser
- --format md (default) eller json
- Kompakt metadata-visning, forkortet innhold
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Nytt verktøy som samler feature-status fra fire kilder:
1. Spec-sammendrag fra docs/features/ og docs/concepts/
2. Relaterte oppgaver fra tasks.md (fuzzy-matching på nøkkel)
3. Nylige git-commits (fil-endringer + commit-meldinger)
4. Ubesvart feedback fra PG (spec-noder med discusses-edge)
DATABASE_URL er valgfri — feedback hoppes over uten tilkobling.
Prøver også /tmp/maskinrommet.env som fallback.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Parser tasks.md og viser formatert oppgavestatus med filtrering
på fase (--phase N) og status (--status todo|done|blocked|inprogress|question).
Viser sammendrag med antall per status og fremdriftsbar.
Rent filbasert verktøy — ingen database nødvendig. Finner tasks.md
automatisk fra arbeidsdir eller absolutt sti.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Fulltekstsøk i noder via PostgreSQL tsvector/tsquery med norsk
tekstkonfigurasjon. Bruker eksisterende GIN-indeks fra migrasjon 011.
Støtter --kind-filter og --limit. Output: markdown med relevans-score
og utdrag (ts_headline med «»-markering).
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Nytt verktøy som samler kontekst for en kommunikasjonsnode i
markdown-format — deltakere, spesifikasjon (discusses-edge),
meldingshistorikk og relaterte noder. Brukes av synops-respond
og andre verktøy som trenger samtalekontekst.
Input: --communication-id <uuid> [--max-messages N]
Output: markdown til stdout
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Erstatter maskinrommet/src/pruning.rs med selvstendig CLI-verktøy
som følger unix-filosofien. Tre-fase pruning:
- Fase 1 (disk ≥85%): Slett regenererbart innhold (TTS, thumbnails)
- Fase 2 (alltid): TTL-basert pruning per modalitet (lyd 30d, bilde 30d, video 14d)
- Fase 3 (disk ≥95%): Kritisk — alt uten publishing-edge slettes
Dry-run er default (krever --write for faktisk sletting).
JSON-output til stdout, logging til stderr.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Bryter ut prosesseringslogikken fra maskinrommet/src/agent.rs til
et selvstendig CLI-verktøy: synops-respond. Følger unix-filosofien
der maskinrommet orkestrerer og CLI-verktøy gjør jobben.
Ansvarsdeling:
- maskinrommet beholder: kill switch, rate limiting, loop-prevensjon,
STDB-skriving (sanntidsvisning for frontend)
- synops-respond håndterer: kontekst-henting fra PG, prompt-bygging,
claude CLI-kall med retry, PG-skriving (node, edges, logging)
agent.rs er nå en tynn dispatcher (~140 linjer, ned fra ~305) som
validerer sikkerhet og spawner synops-respond, likt mønsteret fra
summarize.rs sin delegering til synops-summarize.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>