So funktioniert es

Reva lebt in Microsoft Teams und verbindet sich mit Ihren Release-Management- und Projektverfolgungs-Tools. Stellen Sie Fragen in natürlicher Sprache — Reva versteht die Absicht, befragt die richtigen Systeme und antwortet mit einer klaren Antwort.

Sie & Ihr Team
Microsoft Teams
Chatten Sie mit Reva im Einzelchat, Gruppenchat oder in Kanälen
Abgesichert über Azure Bot Framework
Reva KI-Engine
Intelligentes Routing & Agent Loop
Versteht Ihre Frage, wählt die richtigen Tools, sammelt Daten und formuliert eine Antwort — in der Sprache, in der Sie schreiben.
Model Context Protocol (MCP)
Ihre Systeme
Digital.ai Release
Releases, Pipelines, Tasks, Teams, Gates
Jira Cloud
Issues, Sprints, Boards, Projekte
Weitere Integrationen
Jenkins, GitLab, ServiceNow, …

Infrastruktur (bei Ihnen vor Ort)
Lokales LLM
KI-Inferenz läuft vollständig auf Ihrer Hardware
Datenbank
Konversationen, semantisches & episodisches Gedächtnis
Verzeichnisdienst
Benutzer- & Team-Auflösung

Von der Frage zur Antwort

Wenn Sie eine Nachricht an Reva in Teams senden, durchläuft sie vier Stufen:

1
Verstehen Reva erkennt Ihre Sprache und klassifiziert Ihre Frage — geht es um Releases, Jira-Issues oder etwas anderes?
2
Sammeln Der KI-Agent befragt die relevanten Systeme — Digital.ai Release für Pipeline-Daten, Jira für Issue-Details oder Ihr Verzeichnis für Team-Informationen.
3
Antworten Ergebnisse werden als klarer Text oder interaktive Karten präsentiert, mit Quellenangabe woher die Daten stammen.
4
Merken Reva verfügt über drei Gedächtnisebenen: semantisches Gedächtnis für Fakten und Präferenzen über Sitzungen hinweg, episodisches Gedächtnis das vergangene Interaktionen mit Themen und Entitäten verfolgt, und prozedurales Gedächtnis für Verhaltensregeln. Folgefragen funktionieren natürlich — „Zeige meine Releases“ dann „Details zu 3“. Ein Relevanzfilter stellt sicher, dass nur bedeutsame Austausche gespeichert werden.

Integrationen

Reva verbindet sich mit Ihren Tools über das Model Context Protocol (MCP) — ein offener Standard für KI-Tool-Integration. Jede Integration ist standardmäßig schreibgeschützt und läuft in einem isolierten Container.

Digital.ai Release

Volle Sichtbarkeit in Ihre Release-Pipelines: Releases, Phasen, Tasks, Gates, Teams, Aktivitätslogs und Ordnerstrukturen. Reva löst Ihre Team-Zugehörigkeiten auf und zeigt Ihnen ein persönliches Dashboard der Releases, an denen Sie beteiligt sind.

Jira Cloud

Issues, Sprints, Boards und Projekte suchen und anzeigen. Reva erkennt Sie anhand Ihres Jira-Kontos und kann „meine Tickets“ ohne manuelles Filtern anzeigen. Systemübergreifende Verknüpfung findet Jira-Issues, die in Ihren Releases referenziert werden.

Erweiterbar

Neue Integrationen können durch Anbindung weiterer MCP-Server hinzugefügt werden — ohne Änderungen am Reva-Kern. Geplante Integrationen umfassen CI/CD-Systeme (Jenkins, GitLab), ServiceNow und Confluence.

Schreibgeschützt by Design: Reva kann nur Daten aus Ihren Systemen lesen. Alle Schreib- und Löschoperationen werden auf der Integrationsebene blockiert.

Proaktive Benachrichtigungen

Reva beantwortet nicht nur Fragen — es hält Sie proaktiv auf dem Laufenden:

Benachrichtigungen werden ratenlimitiert und dedupliziert, um Alarm-Müdigkeit zu vermeiden.

Sicherheit

Alle Verbindungen zu externen Systemen gehen von Ihrer Infrastruktur aus. Kein externes System kann Verbindungen zu Reva initiieren, außer Microsoft Teams (über Azure Bot Framework) und optional Ihre Webhook-Quellen.

Datenschutz

Reva ist für die Einhaltung der EU-Datenschutz-Grundverordnung (DSGVO) und des Betriebsverfassungsgesetzes (BetrVG) konzipiert.

Privacy by Design: Alle Datenverarbeitung erfolgt innerhalb Ihrer Infrastruktur. Es werden keine Daten an externe KI-Dienste, Analyseplattformen oder den Softwareanbieter übermittelt.

Deployment

Reva läuft auf Ihrer Infrastruktur als containerisierte Anwendung. Zwei Deployment-Modelle werden unterstützt:

Hardware-Anforderungen: Ein einzelner Server mit einer 16-GB-GPU (z.B. NVIDIA RTX 4060 Ti oder besser) kann ein Team von bis zu 50 Benutzern bedienen. Das KI-Modell läuft lokal — keine Cloud-GPU-Miete erforderlich.

Diese Website verwendet keine Cookies oder Tracking-Technologien. Schriften sind selbst gehostet; es werden keine Daten an Dritte übermittelt. Details finden Sie in unserer Datenschutzerklärung.