So funktioniert es
Reva lebt in Microsoft Teams und verbindet sich mit Ihren Release-Management- und Projektverfolgungs-Tools. Stellen Sie Fragen in natürlicher Sprache — Reva versteht die Absicht, befragt die richtigen Systeme und antwortet mit einer klaren Antwort.
Von der Frage zur Antwort
Wenn Sie eine Nachricht an Reva in Teams senden, durchläuft sie vier Stufen:
Integrationen
Reva verbindet sich mit Ihren Tools über das Model Context Protocol (MCP) — ein offener Standard für KI-Tool-Integration. Jede Integration ist standardmäßig schreibgeschützt und läuft in einem isolierten Container.
Digital.ai Release
Volle Sichtbarkeit in Ihre Release-Pipelines: Releases, Phasen, Tasks, Gates, Teams, Aktivitätslogs und Ordnerstrukturen. Reva löst Ihre Team-Zugehörigkeiten auf und zeigt Ihnen ein persönliches Dashboard der Releases, an denen Sie beteiligt sind.
Jira Cloud
Issues, Sprints, Boards und Projekte suchen und anzeigen. Reva erkennt Sie anhand Ihres Jira-Kontos und kann „meine Tickets“ ohne manuelles Filtern anzeigen. Systemübergreifende Verknüpfung findet Jira-Issues, die in Ihren Releases referenziert werden.
Erweiterbar
Neue Integrationen können durch Anbindung weiterer MCP-Server hinzugefügt werden — ohne Änderungen am Reva-Kern. Geplante Integrationen umfassen CI/CD-Systeme (Jenkins, GitLab), ServiceNow und Confluence.
Schreibgeschützt by Design: Reva kann nur Daten aus Ihren Systemen lesen. Alle Schreib- und Löschoperationen werden auf der Integrationsebene blockiert.
Proaktive Benachrichtigungen
Reva beantwortet nicht nur Fragen — es hält Sie proaktiv auf dem Laufenden:
- Release-Statusänderungen — Benachrichtigung wenn ein Release startet, abgeschlossen wird oder fehlschlägt
- Jira-Issue-Updates — Verfolgen Sie wichtige Issue-Übergänge in Ihrem Teams-Chat
- Blocker-Warnungen — Teammitglieder können gezielte Warnungen über Blocker oder dringende Probleme senden
- Autonomes Monitoring — Optionale Hintergrund-Prüfungen auf überfällige Tasks, fehlschlagende Gates und ausstehende Genehmigungen
Benachrichtigungen werden ratenlimitiert und dedupliziert, um Alarm-Müdigkeit zu vermeiden.
Sicherheit
- KI vor Ort — Das Sprachmodell läuft vollständig auf Ihrer Infrastruktur. Keine Anfragen, Gespräche oder Daten verlassen Ihr Netzwerk für KI-Verarbeitung.
- Azure-AD-Authentifizierung — Jede Nachricht aus Teams wird kryptografisch verifiziert. Unautorisierte Anfragen erreichen die Anwendung nie.
- Benutzer-Autorisierung — Optional können Teams-Benutzer Ihrem Release-Benutzerverzeichnis zugeordnet werden für identitätsbewusste Antworten.
- Verschlüsselte Verbindungen — TLS-Verschlüsselung für alle externen Verbindungen und Datenbankverkehr.
- Secrets-Management — Alle Zugangsdaten werden als Docker- oder Kubernetes-Secrets gespeichert, nie in Konfigurationsdateien.
- Schreibgeschützte Integrationen — Reva kann keine Daten in verbundenen Systemen ändern, erstellen oder löschen.
Alle Verbindungen zu externen Systemen gehen von Ihrer Infrastruktur aus. Kein externes System kann Verbindungen zu Reva initiieren, außer Microsoft Teams (über Azure Bot Framework) und optional Ihre Webhook-Quellen.
Datenschutz
Reva ist für die Einhaltung der EU-Datenschutz-Grundverordnung (DSGVO) und des Betriebsverfassungsgesetzes (BetrVG) konzipiert.
Privacy by Design: Alle Datenverarbeitung erfolgt innerhalb Ihrer Infrastruktur. Es werden keine Daten an externe KI-Dienste, Analyseplattformen oder den Softwareanbieter übermittelt.
- Keine individuelle Leistungsüberwachung — Reva wird niemals individuelle Benutzeraktivitäten verfolgen, vergleichen oder berichten. Dies wird auf KI-Ebene durchgesetzt.
- Anonymisierte Aktivitätslogs — Zusammenfassungen ordnen Aktionen „einem Teammitglied“ zu, statt einzelnen Personen.
- Betriebsrat-ready — Eingebaute Datenschutz-Leitplanken sind für die Zustimmung nach BetrVG §87 konzipiert.
Deployment
Reva läuft auf Ihrer Infrastruktur als containerisierte Anwendung. Zwei Deployment-Modelle werden unterstützt:
- Docker Compose — Einzelserver-Deployment für kleine Teams oder Evaluierung. Alle Dienste (Reva, Datenbank, Cache, LLM) laufen auf einer Maschine.
- Kubernetes — Produktions-Deployment mit TLS-Ingress, Network Policies und horizontaler Skalierung. Integrationsserver laufen als Sidecars für Isolation.
Hardware-Anforderungen: Ein einzelner Server mit einer 16-GB-GPU (z.B. NVIDIA RTX 4060 Ti oder besser) kann ein Team von bis zu 50 Benutzern bedienen. Das KI-Modell läuft lokal — keine Cloud-GPU-Miete erforderlich.