ki.config.update
KI-Konfiguration aendern (Partial Update)
Hilfe
Aendert einzelne KI-Konfigurationsfelder. Nur uebergebene Felder werden geaendert — alle anderen behalten ihren aktuellen Wert. PASSWORD_MASK (••••••••) fuer cloud_api_key behaelt den bestehenden Key. Prompt-Template muss {context} und {question} enthalten. Agent-Systemprompt muss {tools_prompt} enthalten. Aenderungen werden in kiara.yaml synchronisiert.
Parameter
| Name | Typ | Required | Default | Beschreibung |
|---|---|---|---|---|
embedding_url |
string | Nein | — | Ollama Embedding URL |
embedding_model |
string | Nein | — | Embedding-Modell |
llm_url |
string | Nein | — | Ollama LLM URL |
llm_model |
string | Nein | — | LLM-Modell |
prompt_template |
string | Nein | — | Prompt-Template (muss {context} und {question} enthalten) |
cloud_enabled |
boolean | Nein | — | Cloud-Backend aktivieren |
cloud_provider |
string | Nein | — | Provider (anthropic/openai) |
cloud_api_key |
string | Nein | — | API-Key (PASSWORD_MASK behaelt bestehenden) |
cloud_model |
string | Nein | — | Cloud-Modell |
cloud_base_url |
string | Nein | — | Cloud Base-URL |
cloud_mode |
string | Nein | — | Modus (auto/always/fallback) |
anon_enabled |
boolean | Nein | — | Anonymisierung aktivieren |
anon_erp_enabled |
boolean | Nein | — | ERP-Stammdaten aktivieren |
anon_erp_path |
string | Nein | — | Pfad zu ERP-Stammdaten |
anon_ldap_enabled |
boolean | Nein | — | LDAP-Stammdaten aktivieren |
anon_word_boundaries |
boolean | Nein | — | Wortgrenzen-Matching |
anon_min_term_length |
integer | Nein | — | Minimale Term-Laenge |
anon_excluded_terms |
string | Nein | — | Ausgeschlossene Begriffe (JSON-Array) |
anon_custom_patterns |
string | Nein | — | Eigene Regex-Muster (JSON-Array) |
anon_max_content_class |
integer | Nein | — | Maximale Content-Klasse |
anon_audit_log |
boolean | Nein | — | Audit-Log aktivieren |
anon_custom_entries |
string | Nein | — | Eigene Eintraege (JSON-Array) |
anon_llm_enabled |
boolean | Nein | — | LLM-Detection aktivieren |
anon_llm_model |
string | Nein | — | LLM-Detection Modell |
anon_llm_temperature |
string | Nein | — | LLM-Detection Temperatur |
anon_llm_confidence |
string | Nein | — | LLM-Detection Confidence-Schwelle |
anon_llm_timeout |
integer | Nein | — | LLM-Detection Timeout (Sekunden) |
anon_llm_cache_size |
integer | Nein | — | LLM-Detection Cache-Groesse |
anon_llm_num_ctx |
integer | Nein | — | LLM-Detection Context-Fenster |
agent_system_prompt |
string | Nein | — | Agent-Systemprompt (muss {tools_prompt} enthalten) |
Rueckgabe
Bestaetigungsmeldung
Beispiel-Prompts
- Setze die Ollama-URL auf http://10.0.12.16:11434
- Aktiviere Cloud-Backend mit Provider anthropic
- Deaktiviere die Anonymisierung
- Setze das LLM-Modell auf qwen3:8b
Confirmation
Diese Funktion erfordert eine Bestaetigung vor der Ausfuehrung.
Template: ki konfiguration speichern
Changelog
Area: ki | Action: update
Self-Check
Chat-only (kein HTTP-Mapping)