Legger til `synops-ai prompt`-subkommando for enkel prompt-inn/tekst-ut bruk av LLM via LiteLLM gateway. Eksisterende script-generering flyttes til `synops-ai script`-subkommando. Prompt-modus: - --prompt (påkrevd): bruker-prompt - --model (valgfri): modellalias, slås opp fra ai_job_routing hvis utelatt - --system (valgfri): systemprompt - --job-type: for modelloppslag og logging (default: simple_prompt) - --temperature: LLM-temperatur (default: 0.7) - Logger tokenbruk i ai_usage_log Seed: simple_prompt → sidelinja/rutine i ai_job_routing. |
||
|---|---|---|
| .. | ||
| src | ||
| Cargo.lock | ||
| Cargo.toml | ||