Kernabhängigkeiten

KomponenteUnterstütztGetestet mitHinweise
Python3.113.11Im Docker-Image enthalten
PostgreSQL15, 1616pgvector-Erweiterung erforderlich
Redis7.x7 (Alpine)Wird für Caching verwendet
Docker Engine24+27.xDocker Compose v2 erforderlich
Docker Composev2.20+v2.32v1 wird nicht unterstützt

Container-Orchestrierung

PlattformUnterstütztGetestet mitHinweise
Docker Composev2.20+v2.32Entwicklung / Evaluierung
k3s1.28 – 1.321.32Für Produktion empfohlen
Kubernetes1.28+1.32 (k3s)Helm-Chart oder Kustomize
Helm3.12+3.16Chart-Version 0.1.0

Digital.ai Release

KomponenteUnterstützte VersionenHinweise
Release23.3, 24.1, 24.3, 25.1MCP-Server verbindet sich über REST-API
Release MCP-ServerEnthaltenLäuft als Sidecar-Container

Jira (Optional)

KomponenteUnterstütztHinweise
Jira CloudAktuellAPI-Token-Authentifizierung
Jira Data Center9.x+API-Token oder Basic Auth
Jira MCP-ServerEnthaltenLäuft als Sidecar-Container

LLM / KI

Lokale Modelle (Ollama)

KomponenteUnterstütztEmpfohlenHinweise
Ollama0.5+Neueste VersionHostet lokale LLM-Modelle
Router-Modellllama3.2:3bllama3.2:3bSchnelle Intent-Klassifizierung
Agent-Modellqwen3:14bqwen3:14bTool-Aufrufe, Format-Compliance
Embedding-Modellnomic-embed-textnomic-embed-textSitzungsübergreifendes Gedächtnis

Cloud-LLM-Alternativen

AnbieterUnterstützungsgradKonfigurationsvariable
Anthropic ClaudeUnterstütztREVA_ANTHROPIC_API_KEY
OpenAIUnterstütztREVA_OPENAI_API_KEY
vLLMExperimentellREVA_VLLM_URL

Bei Verwendung eines Cloud-LLM entfällt die lokale GPU-/Ollama-Anforderung. Das Router-Modell (llama3.2:3b) benötigt weiterhin Ollama.

GPU-Anforderungen

GPUVRAMEignungHinweise
NVIDIA RTX 5070 Ti 16GB16 GBMINIMUMNur Einzelnutzer, ca. 22s Antwortzeit
NVIDIA RTX 5080 16GB16 GBRECOMMENDEDSchnellere Inferenz, Einzelnutzer oder leichte Parallelität
NVIDIA RTX 509032 GBRECOMMENDEDSpielraum für gleichzeitige Nutzer
NVIDIA A1024 GBRECOMMENDEDRechenzentrum, guter Durchsatz
NVIDIA L40S48 GBOPTIMALMehrbenutzerbetrieb, parallele Inferenz möglich

Wichtig: Setzen Sie OLLAMA_NUM_PARALLEL=2 NICHT auf 16-GB-GPUs — dies verursacht eine 5-fache Verlangsamung durch KV-Cache-Überlauf.

Treiberanforderungen

KomponenteMindestversion
NVIDIA-Treiber535+
CUDA12.1+
NVIDIA Container ToolkitNeueste Version

Microsoft Teams / Azure

KomponenteUnterstütztHinweise
Microsoft TeamsAktuell (Desktop, Web, Mobil)Bot Framework v4
Azure Bot-RegistrierungSingle-Tenant, Multi-TenantREVA_MICROSOFT_APP_TYPE
Azure ADAktuellJWT-Validierung für eingehende Aktivitäten

LDAP (Optional)

KomponenteUnterstütztHinweise
Active Directory2016+LDAP / LDAPS
OpenLDAP2.xFür Gruppen-/Rollenauflösung

Betriebssystem (Host)

BetriebssystemGetestet mitHinweise
Ubuntu22.04, 24.04Für Produktion empfohlen
Debian12Unterstützt
RHEL / Rocky8, 9Unterstützt

Reva läuft in Containern, daher ist das Host-Betriebssystem nur für Docker/k3s und NVIDIA-Treiberunterstützung relevant.

Diese Website verwendet keine Cookies und keine Tracking-Technologien. Schriftarten werden lokal bereitgestellt; es werden keine Daten an Dritte übermittelt. Details finden Sie in unserer Datenschutzerklärung.