Kernabhängigkeiten
| Komponente | Unterstützt | Getestet mit | Hinweise |
|---|---|---|---|
| Python | 3.11 | 3.11 | Im Docker-Image enthalten |
| PostgreSQL | 15, 16 | 16 | pgvector-Erweiterung erforderlich |
| Redis | 7.x | 7 (Alpine) | Wird für Caching verwendet |
| Docker Engine | 24+ | 27.x | Docker Compose v2 erforderlich |
| Docker Compose | v2.20+ | v2.32 | v1 wird nicht unterstützt |
Container-Orchestrierung
| Plattform | Unterstützt | Getestet mit | Hinweise |
|---|---|---|---|
| Docker Compose | v2.20+ | v2.32 | Entwicklung / Evaluierung |
| k3s | 1.28 – 1.32 | 1.32 | Für Produktion empfohlen |
| Kubernetes | 1.28+ | 1.32 (k3s) | Helm-Chart oder Kustomize |
| Helm | 3.12+ | 3.16 | Chart-Version 0.1.0 |
Digital.ai Release
| Komponente | Unterstützte Versionen | Hinweise |
|---|---|---|
| Release | 23.3, 24.1, 24.3, 25.1 | MCP-Server verbindet sich über REST-API |
| Release MCP-Server | Enthalten | Läuft als Sidecar-Container |
Jira (Optional)
| Komponente | Unterstützt | Hinweise |
|---|---|---|
| Jira Cloud | Aktuell | API-Token-Authentifizierung |
| Jira Data Center | 9.x+ | API-Token oder Basic Auth |
| Jira MCP-Server | Enthalten | Läuft als Sidecar-Container |
LLM / KI
Lokale Modelle (Ollama)
| Komponente | Unterstützt | Empfohlen | Hinweise |
|---|---|---|---|
| Ollama | 0.5+ | Neueste Version | Hostet lokale LLM-Modelle |
| Router-Modell | llama3.2:3b | llama3.2:3b | Schnelle Intent-Klassifizierung |
| Agent-Modell | qwen3:14b | qwen3:14b | Tool-Aufrufe, Format-Compliance |
| Embedding-Modell | nomic-embed-text | nomic-embed-text | Sitzungsübergreifendes Gedächtnis |
Cloud-LLM-Alternativen
| Anbieter | Unterstützungsgrad | Konfigurationsvariable |
|---|---|---|
| Anthropic Claude | Unterstützt | REVA_ANTHROPIC_API_KEY |
| OpenAI | Unterstützt | REVA_OPENAI_API_KEY |
| vLLM | Experimentell | REVA_VLLM_URL |
Bei Verwendung eines Cloud-LLM entfällt die lokale GPU-/Ollama-Anforderung. Das Router-Modell (llama3.2:3b) benötigt weiterhin Ollama.
GPU-Anforderungen
| GPU | VRAM | Eignung | Hinweise |
|---|---|---|---|
| NVIDIA RTX 5070 Ti 16GB | 16 GB | MINIMUM | Nur Einzelnutzer, ca. 22s Antwortzeit |
| NVIDIA RTX 5080 16GB | 16 GB | RECOMMENDED | Schnellere Inferenz, Einzelnutzer oder leichte Parallelität |
| NVIDIA RTX 5090 | 32 GB | RECOMMENDED | Spielraum für gleichzeitige Nutzer |
| NVIDIA A10 | 24 GB | RECOMMENDED | Rechenzentrum, guter Durchsatz |
| NVIDIA L40S | 48 GB | OPTIMAL | Mehrbenutzerbetrieb, parallele Inferenz möglich |
Wichtig: Setzen Sie OLLAMA_NUM_PARALLEL=2 NICHT auf 16-GB-GPUs — dies verursacht eine 5-fache Verlangsamung durch KV-Cache-Überlauf.
Treiberanforderungen
| Komponente | Mindestversion |
|---|---|
| NVIDIA-Treiber | 535+ |
| CUDA | 12.1+ |
| NVIDIA Container Toolkit | Neueste Version |
Microsoft Teams / Azure
| Komponente | Unterstützt | Hinweise |
|---|---|---|
| Microsoft Teams | Aktuell (Desktop, Web, Mobil) | Bot Framework v4 |
| Azure Bot-Registrierung | Single-Tenant, Multi-Tenant | REVA_MICROSOFT_APP_TYPE |
| Azure AD | Aktuell | JWT-Validierung für eingehende Aktivitäten |
LDAP (Optional)
| Komponente | Unterstützt | Hinweise |
|---|---|---|
| Active Directory | 2016+ | LDAP / LDAPS |
| OpenLDAP | 2.x | Für Gruppen-/Rollenauflösung |
Betriebssystem (Host)
| Betriebssystem | Getestet mit | Hinweise |
|---|---|---|
| Ubuntu | 22.04, 24.04 | Für Produktion empfohlen |
| Debian | 12 | Unterstützt |
| RHEL / Rocky | 8, 9 | Unterstützt |
Reva läuft in Containern, daher ist das Host-Betriebssystem nur für Docker/k3s und NVIDIA-Treiberunterstützung relevant.