WikiAPI-Katalogki

ki

20 Funktionen in dieser Kategorie.

ki.backends.list GET /api/admin/ki/backends/

Alle KI-Backends auflisten

Hilfe

Listet alle konfigurierten KI-Backends (Embedding, LLM, Cloud, VLM, DDU) mit Status, Provider und Priorität auf.

Beispiel-Prompts

  • Welche KI-Backends sind konfiguriert?
  • Zeig mir alle Backends
raw_response: Ja
ki.backends.categories GET /api/admin/ki/backends/categories

Backend-Kategorien und erlaubte Provider

Hilfe

Zeigt die verfügbaren Kategorien (embedding, llm, cloud, vlm, ddu) und deren erlaubte Provider-Typen an.

Beispiel-Prompts

  • Welche Backend-Kategorien gibt es?
  • Provider für LLM-Backends
raw_response: Ja
ki.config GET /api/admin/ki/config

KI-Konfiguration lesen

Hilfe

Zeigt die aktuelle KI-Backend-Konfiguration: Embedding/LLM-URLs, Modelle, Cloud-Einstellungen und Anonymisierungsparameter.

Beispiel-Prompts

  • Zeig mir die KI-Konfiguration
  • Welches LLM-Modell ist konfiguriert?
  • Cloud-AI Einstellungen
raw_response: Ja
ki.templates.list GET /api/admin/ki/prompt-templates

Prompt-Templates auflisten

Hilfe

Listet alle verfügbaren Prompt-Templates auf, sortiert nach Reihenfolge und ID.

Beispiel-Prompts

  • Welche Templates gibt es?
  • Prompt-Templates anzeigen
raw_response: Ja
ki.templates.detail GET /api/admin/ki/prompt-templates/{template_id}

Details eines einzelnen Prompt-Templates

Hilfe

Zeigt alle Felder eines Prompt-Templates: Name, Inhalt, chain_type, Label, Beschreibung, Flags (is_cloud, show_in_chat, is_system).

Parameter

Name Typ Required Default Beschreibung
template_id integer Ja Template-ID

Beispiel-Prompts

  • Zeig mir Template 1
  • Details zu Template 3
raw_response: Ja
ki.automaton_stats GET /api/admin/ki/automaton-stats

Anonymisierungs-Automaton Statistiken

Hilfe

Zeigt Statistiken des Aho-Corasick-Automaten für die Anonymisierung: Anzahl Einträge (ERP, LDAP), letzter Build.

Beispiel-Prompts

  • Automaton-Statistiken
  • Wie viele Anonymisierungs-Einträge?
raw_response: Ja
ki.audit GET /api/admin/ki/audit

KI-Audit-Log (paginiert)

Hilfe

Zeigt das Anonymisierungs-Audit-Log: Welche Queries wurden anonymisiert, wie viele Entities gefunden, welcher Route.

Parameter

Name Typ Required Default Beschreibung
page integer Nein Seite (Default: 1)
per_page integer Nein Einträge pro Seite (Default: 20, max: 100)

Beispiel-Prompts

  • Audit-Log anzeigen
  • Letzte Anonymisierungs-Events
raw_response: Ja
ki.backends.create POST /api/admin/ki/backends/

Neues KI-Backend erstellen

Hilfe

Erstellt ein neues KI-Backend. Gueltige Kategorien: embedding, llm, cloud, vlm, ddu. Provider haengt von der Kategorie ab: embedding/llm/vlm → ollama, cloud → anthropic/openai, ddu → docling. Bei Ollama-Backends werden num_ctx und embedding_dim automatisch ermittelt. DDU-Backends erhalten automatisch model='docling'.

Parameter

Name Typ Required Default Beschreibung
category string Ja Kategorie: embedding, llm, cloud, vlm, ddu
provider string Ja Provider: ollama, anthropic, openai, docling
name string Nein Anzeigename (auto-generiert wenn leer)
url string Nein Backend-URL (fuer Ollama/Docling)
base_url string Nein Base-URL (fuer OpenAI-kompatible APIs)
model string Nein Modell (bei DDU auto='docling')
api_key string Nein API-Key (wird verschluesselt gespeichert)
is_active boolean Nein Aktiv (Default: true)
priority integer Nein Prioritaet (Default: 10)
extra_config object Nein Zusaetzliche Konfiguration

Beispiel-Prompts

  • Erstelle ein Ollama-LLM-Backend auf http://10.0.12.16:11434 mit Modell qwen3:8b
  • Fuege ein Anthropic-Cloud-Backend mit API-Key sk-... hinzu
  • Neues Embedding-Backend: Ollama, URL http://localhost:11434, Modell nomic-embed-text

Changelog

Area: ki_backends | Action: create

raw_response: Ja
ki.backends.update PUT /api/admin/ki/backends/{backend_id}

KI-Backend aktualisieren

Hilfe

Aktualisiert ein bestehendes KI-Backend. Nur uebergebene Felder werden geaendert (Partial Update). PASSWORD_MASK (••••••••) fuer api_key behaelt den bestehenden verschluesselten Key bei.

Parameter

Name Typ Required Default Beschreibung
backend_id integer Ja Backend-ID
category string Nein Kategorie
provider string Nein Provider
name string Nein Anzeigename
url string Nein Backend-URL
base_url string Nein Base-URL
model string Nein Modell
api_key string Nein API-Key (PASSWORD_MASK behaelt bestehenden)
is_active boolean Nein Aktiv-Status
priority integer Nein Prioritaet
extra_config object Nein Zusaetzliche Konfiguration

Beispiel-Prompts

  • Aendere die URL von Backend 3 auf http://10.0.12.16:11434
  • Setze Backend 5 auf Modell qwen3:8b

Confirmation

Diese Funktion erfordert eine Bestaetigung. Template: backend {backend_id} aktualisieren

Changelog

Area: ki_backends | Action: update

raw_response: Ja | PK-Param: backend_id
ki.backends.delete DELETE /api/admin/ki/backends/{backend_id}

KI-Backend loeschen

Hilfe

Loescht ein KI-Backend. Lokale DDU-Backends (ohne URL) werden nur deaktiviert (Soft-Delete), damit _ensure_ddu_local_backend() beim naechsten Restart das Backend nicht erneut anlegt.

Parameter

Name Typ Required Default Beschreibung
backend_id integer Ja Backend-ID

Beispiel-Prompts

  • Loesche Backend 5
  • Entferne das alte Anthropic-Backend

Confirmation

Diese Funktion erfordert eine Bestaetigung. Template: backend {backend_id} loeschen

Changelog

Area: ki_backends | Action: delete

raw_response: Ja | PK-Param: backend_id
ki.backends.toggle PATCH /api/admin/ki/backends/{backend_id}/toggle

KI-Backend aktivieren/deaktivieren

Hilfe

Setzt den Aktiv-Status eines KI-Backends.

Parameter

Name Typ Required Default Beschreibung
backend_id integer Ja Backend-ID
is_active boolean Ja Neuer Aktiv-Status

Beispiel-Prompts

  • Deaktiviere Backend 3
  • Aktiviere das Ollama-Embedding-Backend

Changelog

Area: ki_backends | Action: update

raw_response: Ja | PK-Param: backend_id
ki.backends.test POST /api/admin/ki/backends/{backend_id}/test

KI-Backend Verbindungstest

Hilfe

Testet die Verbindung zu einem konfigurierten Backend. Bei Ollama werden zusaetzlich num_ctx und embedding_dim ermittelt. Bei Cloud-Providern wird die Modell-Liste abgerufen. Das Testergebnis wird am Backend gespeichert.

Parameter

Name Typ Required Default Beschreibung
backend_id integer Ja Backend-ID

Beispiel-Prompts

  • Teste Backend 3
  • Ist das Ollama-Backend erreichbar?
raw_response: Ja
ki.config.update Chat-only

KI-Konfiguration aendern (Partial Update)

Hilfe

Aendert einzelne KI-Konfigurationsfelder. Nur uebergebene Felder werden geaendert — alle anderen behalten ihren aktuellen Wert. PASSWORD_MASK (••••••••) fuer cloud_api_key behaelt den bestehenden Key. Prompt-Template muss {context} und {question} enthalten. Agent-Systemprompt muss {tools_prompt} enthalten. Aenderungen werden in kiara.yaml synchronisiert.

Parameter

Name Typ Required Default Beschreibung
embedding_url string Nein Ollama Embedding URL
embedding_model string Nein Embedding-Modell
llm_url string Nein Ollama LLM URL
llm_model string Nein LLM-Modell
prompt_template string Nein Prompt-Template (muss {context} und {question} enthalten)
cloud_enabled boolean Nein Cloud-Backend aktivieren
cloud_provider string Nein Provider (anthropic/openai)
cloud_api_key string Nein API-Key (PASSWORD_MASK behaelt bestehenden)
cloud_model string Nein Cloud-Modell
cloud_base_url string Nein Cloud Base-URL
cloud_mode string Nein Modus (auto/always/fallback)
anon_enabled boolean Nein Anonymisierung aktivieren
anon_erp_enabled boolean Nein ERP-Stammdaten aktivieren
anon_erp_path string Nein Pfad zu ERP-Stammdaten
anon_ldap_enabled boolean Nein LDAP-Stammdaten aktivieren
anon_word_boundaries boolean Nein Wortgrenzen-Matching
anon_min_term_length integer Nein Minimale Term-Laenge
anon_excluded_terms string Nein Ausgeschlossene Begriffe (JSON-Array)
anon_custom_patterns string Nein Eigene Regex-Muster (JSON-Array)
anon_max_content_class integer Nein Maximale Content-Klasse
anon_audit_log boolean Nein Audit-Log aktivieren
anon_custom_entries string Nein Eigene Eintraege (JSON-Array)
anon_llm_enabled boolean Nein LLM-Detection aktivieren
anon_llm_model string Nein LLM-Detection Modell
anon_llm_temperature string Nein LLM-Detection Temperatur
anon_llm_confidence string Nein LLM-Detection Confidence-Schwelle
anon_llm_timeout integer Nein LLM-Detection Timeout (Sekunden)
anon_llm_cache_size integer Nein LLM-Detection Cache-Groesse
anon_llm_num_ctx integer Nein LLM-Detection Context-Fenster
agent_system_prompt string Nein Agent-Systemprompt (muss {tools_prompt} enthalten)

Beispiel-Prompts

  • Setze die Ollama-URL auf http://10.0.12.16:11434
  • Aktiviere Cloud-Backend mit Provider anthropic
  • Deaktiviere die Anonymisierung
  • Setze das LLM-Modell auf qwen3:8b

Confirmation

Diese Funktion erfordert eine Bestaetigung. Template: ki konfiguration speichern

Changelog

Area: ki | Action: update

raw_response: Nein
Chat-only (kein HTTP-Mapping)
ki.config.test_cloud Chat-only

Cloud-API-Verbindungstest

Hilfe

Testet die Verbindung zu einem Cloud-Provider (Anthropic oder OpenAI). Gibt bei Erfolg die verfuegbaren Modelle zurueck.

Parameter

Name Typ Required Default Beschreibung
provider string Ja Provider (anthropic/openai)
api_key string Ja API-Key
model string Nein Modell (optional)
base_url string Nein Base-URL (optional, fuer OpenAI-kompatible)

Beispiel-Prompts

  • Teste Cloud-Verbindung mit API-Key sk-ant-...
  • Ist Anthropic erreichbar?
raw_response: Nein
Chat-only (kein HTTP-Mapping)
ki.config.test_anonymize Chat-only

Anonymisierung testen

Hilfe

Anonymisiert einen Beispieltext mit der aktuellen Konfiguration. Zeigt gefundene Treffer und verwendete Pseudonyme.

Parameter

Name Typ Required Default Beschreibung
text string Ja Beispieltext zum Anonymisieren

Beispiel-Prompts

  • Teste die Anonymisierung mit dem Text 'Max Mustermann aus Berlin'
  • Anonymisiere: Herr Schmidt hat Auftrag 12345
raw_response: Nein
Chat-only (kein HTTP-Mapping)
ki.config.test_connection Chat-only

Ollama-Verbindungstest

Hilfe

Testet die Verbindung zu einer Ollama-Instanz. Gibt bei Erfolg die verfuegbaren Modelle zurueck. Optional mit Kategorie-Filter.

Parameter

Name Typ Required Default Beschreibung
url string Ja Ollama-URL (z.B. http://localhost:11434)
category string Nein Kategorie-Filter (embedding/llm/vlm, optional)

Beispiel-Prompts

  • Teste Ollama auf http://10.0.12.16:11434
  • Ist der Ollama-Server erreichbar?
raw_response: Nein
Chat-only (kein HTTP-Mapping)
ki.automaton.rebuild Chat-only

Aho-Corasick-Automaton neu bauen

Hilfe

Laedt Stammdaten (ERP, LDAP) neu und baut den Anonymisierungs-Automaton neu auf. Der Automaton wird im Speicher gecacht.

Beispiel-Prompts

  • Baue den Automaton neu
  • Stammdaten neu laden

Confirmation

Diese Funktion erfordert eine Bestaetigung. Template: automaton neu bauen

Changelog

Area: ki | Action: update

raw_response: Nein
Chat-only (kein HTTP-Mapping)
ki.templates.create POST /api/admin/ki/prompt-templates

Neues Prompt-Template erstellen

Hilfe

Erstellt ein neues Prompt-Template. chain_type bestimmt die Pflicht-Platzhalter: standard → {context} + {question}, agent → {tools_prompt}, unchained → keine. Template-Name muss eindeutig sein.

Parameter

Name Typ Required Default Beschreibung
name string Ja Eindeutiger Template-Name
content string Ja Template-Inhalt
label string Nein Anzeige-Label
description string Nein Beschreibung
final_prompt string Nein Finaler Prompt
chain_type string Nein Typ: standard, unchained, agent (Default: standard)
is_cloud boolean Nein Cloud-Template (Default: false)
show_in_chat boolean Nein Im Chat anzeigen (Default: false)
badge_color string Nein Badge-Farbe
sort_order integer Nein Sortierung (Default: 0)

Beispiel-Prompts

  • Erstelle ein Template 'Zusammenfassung' mit chain_type standard
  • Neues Agent-Template mit Name 'Recherche'

Changelog

Area: prompt_templates | Action: create

raw_response: Ja
ki.templates.update PUT /api/admin/ki/prompt-templates/{template_id}

Prompt-Template aktualisieren

Hilfe

Aktualisiert ein bestehendes Prompt-Template. Nur uebergebene Felder werden geaendert. Bei System-Templates kann chain_type nicht geaendert werden. Content wird gegen die chain_type-Platzhalter validiert.

Parameter

Name Typ Required Default Beschreibung
template_id integer Ja Template-ID
label string Nein Anzeige-Label
description string Nein Beschreibung
content string Nein Template-Inhalt
final_prompt string Nein Finaler Prompt
chain_type string Nein Typ (standard/unchained/agent)
is_cloud boolean Nein Cloud-Template
show_in_chat boolean Nein Im Chat anzeigen
badge_color string Nein Badge-Farbe
sort_order integer Nein Sortierung
is_active boolean Nein Aktiv-Status

Beispiel-Prompts

  • Aendere den Content von Template 3
  • Aktiviere Template 5 fuer den Chat

Confirmation

Diese Funktion erfordert eine Bestaetigung. Template: template {template_id} aktualisieren

Changelog

Area: prompt_templates | Action: update

raw_response: Ja | PK-Param: template_id
ki.templates.delete DELETE /api/admin/ki/prompt-templates/{template_id}

Prompt-Template loeschen

Hilfe

Loescht ein Prompt-Template. System-Templates (is_system=1) koennen nicht geloescht werden.

Parameter

Name Typ Required Default Beschreibung
template_id integer Ja Template-ID

Beispiel-Prompts

  • Loesche Template 5
  • Entferne das Template 'Test-Modus'

Confirmation

Diese Funktion erfordert eine Bestaetigung. Template: template {template_id} loeschen

Changelog

Area: prompt_templates | Action: delete

raw_response: Ja | PK-Param: template_id