WikiAPI-Katalogkiki.config.update

ki.config.update

Chat-only ki

KI-Konfiguration aendern (Partial Update)

Hilfe

Aendert einzelne KI-Konfigurationsfelder. Nur uebergebene Felder werden geaendert — alle anderen behalten ihren aktuellen Wert. PASSWORD_MASK (••••••••) fuer cloud_api_key behaelt den bestehenden Key. Prompt-Template muss {context} und {question} enthalten. Agent-Systemprompt muss {tools_prompt} enthalten. Aenderungen werden in kiara.yaml synchronisiert.

Parameter

Name Typ Required Default Beschreibung
embedding_url string Nein Ollama Embedding URL
embedding_model string Nein Embedding-Modell
llm_url string Nein Ollama LLM URL
llm_model string Nein LLM-Modell
prompt_template string Nein Prompt-Template (muss {context} und {question} enthalten)
cloud_enabled boolean Nein Cloud-Backend aktivieren
cloud_provider string Nein Provider (anthropic/openai)
cloud_api_key string Nein API-Key (PASSWORD_MASK behaelt bestehenden)
cloud_model string Nein Cloud-Modell
cloud_base_url string Nein Cloud Base-URL
cloud_mode string Nein Modus (auto/always/fallback)
anon_enabled boolean Nein Anonymisierung aktivieren
anon_erp_enabled boolean Nein ERP-Stammdaten aktivieren
anon_erp_path string Nein Pfad zu ERP-Stammdaten
anon_ldap_enabled boolean Nein LDAP-Stammdaten aktivieren
anon_word_boundaries boolean Nein Wortgrenzen-Matching
anon_min_term_length integer Nein Minimale Term-Laenge
anon_excluded_terms string Nein Ausgeschlossene Begriffe (JSON-Array)
anon_custom_patterns string Nein Eigene Regex-Muster (JSON-Array)
anon_max_content_class integer Nein Maximale Content-Klasse
anon_audit_log boolean Nein Audit-Log aktivieren
anon_custom_entries string Nein Eigene Eintraege (JSON-Array)
anon_llm_enabled boolean Nein LLM-Detection aktivieren
anon_llm_model string Nein LLM-Detection Modell
anon_llm_temperature string Nein LLM-Detection Temperatur
anon_llm_confidence string Nein LLM-Detection Confidence-Schwelle
anon_llm_timeout integer Nein LLM-Detection Timeout (Sekunden)
anon_llm_cache_size integer Nein LLM-Detection Cache-Groesse
anon_llm_num_ctx integer Nein LLM-Detection Context-Fenster
agent_system_prompt string Nein Agent-Systemprompt (muss {tools_prompt} enthalten)

Rueckgabe

Bestaetigungsmeldung

Beispiel-Prompts

  • Setze die Ollama-URL auf http://10.0.12.16:11434
  • Aktiviere Cloud-Backend mit Provider anthropic
  • Deaktiviere die Anonymisierung
  • Setze das LLM-Modell auf qwen3:8b

Confirmation

Diese Funktion erfordert eine Bestaetigung vor der Ausfuehrung.

Template: ki konfiguration speichern

Changelog

Area: ki | Action: update

Metadaten

raw_responseNein
Kategorieki

Self-Check

Chat-only (kein HTTP-Mapping)