Risikoklassifizierung
Reva ist ein KI-System gemäß Artikel 3 Absatz 1 der KI-Verordnung — es nutzt LLM-Inferenz zur Interpretation natürlichsprachiger Anfragen und Generierung von Antworten. Die zentrale Frage ist, welche Risikokategorie zutrifft.
| Risikokategorie | Betroffen? | Begründung |
|---|---|---|
| Inakzeptables Risiko (Art. 5) | Nein | Keine Emotionserkennung, kein Social Scoring, keine unterschwellige Manipulation, keine biometrische Identifizierung |
| Hochrisiko (Art. 6 + Anh. III) | Nein | Nicht zur Leistungsüberwachung von Arbeitnehmern bestimmt; Artikel 6(3)-Ausnahme greift (siehe unten) |
| Begrenztes Risiko (Art. 50) | Ja | KI-System mit Benutzerinteraktion — Transparenzpflichten gelten |
| Minimales Risiko | Ja | Kernfunktionalität (Datenabfrage und -anzeige) birgt minimales Risiko |
Warum Reva kein Hochrisiko-System ist
Die einzige relevante Kategorie in Anhang III ist Nr. 4 Buchstabe b — Beschäftigung, Verwaltung der Arbeitnehmer, die KI-Systeme umfasst, die dazu bestimmt sind, „die Leistung und das Verhalten von Personen“ in Arbeitsbeziehungen zu überwachen und zu bewerten. Warum das auf Reva nicht zutrifft:
Zweckbestimmung: Release-Management, nicht Arbeitnehmer-Management
Revas Zweckbestimmung ist die Abfrage und Darstellung von Release-Management-Daten. Es fragt Digital.ai Release und Jira APIs ab, präsentiert strukturierte Ergebnisse und unterstützt Teams bei der Verwaltung von Software-Releases. Es trifft keine Beschäftigungsentscheidungen, bewertet keine individuelle Leistung und weist keine Aufgaben basierend auf persönlichen Merkmalen zu.
Privacy by Design verbietet individuelle Überwachung
Revas Systemprompt-Regeln verbieten explizit individuelles Leistungsmonitoring. Aktivitätsprotokolle sind anonymisiert — Zusammenfassungen verwenden „ein Teammitglied“ anstelle namentlich genannter Personen. Diese Schutzmaßnahmen sind auf Systemebene erzwungen, nicht als optionale Konfiguration.
Artikel 6(3)-Ausnahme greift
Auch bei konservativer Auslegung qualifiziert sich Reva für die Artikel 6(3)-Ausnahme, da es folgende Aufgaben ausführt:
- Enge prozedurale Aufgaben — Umwandlung natürlicher Sprache in strukturierte API-Abfragen
- Vorbereitende Aufgaben — Suche, Indexierung und Abruf von Daten zur menschlichen Überprüfung
Entscheidend: Reva führt kein Profiling natürlicher Personen durch — die Bedingung, die die Artikel 6(3)-Ausnahme aufheben würde. Es ruft Sachdaten ab (Aufgabenzuweisungen, Release-Status), ohne persönliche Aspekte zu bewerten oder Verhalten vorherzusagen.
Weitere Anhang-III-Kategorien
| Kategorie | Betroffen? |
|---|---|
| 1. Biometrie | Nein — keine biometrische oder Emotionserkennung |
| 2. Kritische Infrastruktur | Nein — Software-Release-Management ist keine kritische Infrastruktur |
| 3. Bildung | Nein |
| 5. Wesentliche öffentliche Dienste | Nein |
| 6. Strafverfolgung | Nein |
| 7. Migration / Grenzschutz | Nein |
| 8. Justiz / Demokratie | Nein |
Transparenzpflichten
Artikel 50 der KI-Verordnung gilt für alle KI-Systeme, die mit natürlichen Personen interagieren.
Artikel 50(1) — KI-Offenlegung
Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren. Reva fungiert als benannter Bot in Microsoft Teams — seine KI-Natur ist kontextuell erkennbar. Darüber hinaus identifiziert die Willkommensnachricht und der Hilfetext Reva klar als KI-gestützten Assistenten.
Artikel 50(2) — KI-generierte Inhalte
Anbieter von Systemen, die synthetische Inhalte erzeugen, müssen diese als KI-generiert kennzeichnen. Reva generiert Textantworten und Adaptive Cards basierend auf Daten aus Release und Jira. Diese Antworten sind informativ — keine Deepfakes oder synthetischen Medien. Antworten werden „Reva“ als Bot zugeordnet, was eine klare Herkunft bietet.
Revas Transparenzmaßnahmen: KI-Offenlegung in der Bot-Willkommensnachricht, alle Antworten der Reva-Bot-Identität zugeordnet, KI-generierte Inhalte klar von Quellsystemdaten unterscheidbar.
KI-Modelle mit allgemeinem Verwendungszweck
Die GPAI-Regulierung (Kapitel V, Artikel 51–53) richtet sich an Anbieter von KI-Modellen mit allgemeinem Verwendungszweck — die Organisationen, die die Modelle selbst entwickeln und verbreiten.
X-idra Systems GmbH ist kein GPAI-Modellanbieter. X-idra integriert bestehende Open-Source-Modelle (Qwen, Llama, Gemma) in Reva. Die GPAI-Pflichten treffen die vorgelagerten Modellanbieter (Alibaba, Meta, Google).
Die Open-Source-Modell-Ausnahme (Artikel 53(2)) kommt den vorgelagerten Modellanbietern zugute, nicht nachgelagerten Integratoren. Es gibt keine pauschale Open-Source-Ausnahme für KI-Systeme, die auf Open-Source-Modellen aufbauen — Reva muss seine eigenen KI-System-Pflichten unabhängig davon erfüllen.
Anbieter- & Betreiberpflichten
X-idra Systems GmbH = Anbieter (Artikel 3(3))
X-idra entwickelt Reva und bringt es unter eigenem Namen auf den Markt. Als Anbieter ist X-idra verantwortlich für:
| Pflicht | Artikel | Status |
|---|---|---|
| KI-Kompetenz für Mitarbeiter und Nutzer | Art. 4 | In Kraft seit Feb. 2025 |
| Transparenz — KI-Offenlegung | Art. 50(1) | Bis Aug. 2026 |
| Kennzeichnung KI-generierter Inhalte | Art. 50(2) | Bis Aug. 2026 |
| Dokumentation der Risikoklassifizierung | Art. 6(3) | Bis Aug. 2026 |
| Zweckbestimmung & Nutzungseinschränkungen | — | Bis Aug. 2026 |
Da Reva kein Hochrisiko-System ist, gelten die umfangreichen Pflichten nach Artikel 16 (Konformitätsbewertung, CE-Kennzeichnung, EU-Datenbankregistrierung, Marktüberwachung) nicht.
Kunde = Betreiber (Artikel 3(4))
Organisationen, die Reva auf ihrer Infrastruktur einsetzen, sind Betreiber. Ihre Pflichten beschränken sich auf:
- KI-Kompetenz der Nutzer sicherstellen (Art. 4)
- Arbeitnehmer und Vertreter vor dem Einsatz über das KI-System informieren
- Reva gemäß den bereitgestellten Anleitungen und Nutzungseinschränkungen verwenden
- Betriebsrat konsultieren, falls vorhanden (BetrVG §87 Abs. 1 Nr. 6)
On-Premise-Betrieb schafft keine Ausnahmen. Die KI-Verordnung gilt unabhängig vom Bereitstellungsmodell. On-Premise beeinflusst die Kontrollmöglichkeiten des Betreibers, nicht die regulatorischen Pflichten.
DSGVO & BetrVG
Revas Privacy-by-Design-Architektur unterstützt die Einhaltung sowohl der KI-Verordnung als auch bestehender Datenschutzvorschriften.
DSGVO (EU 2016/679)
- Datenminimierung — es werden nur für das Release-Management notwendige Daten verarbeitet
- Lokale Verarbeitung — alle KI-Inferenz läuft auf der Infrastruktur des Kunden; keine Datenübertragung an externe Dienste
- Kein Profiling — keine personenbezogenen Daten werden zur Bewertung individueller Merkmale, Verhaltens oder Leistung verwendet
- Recht auf Löschung — Konversationsdaten können direkt aus der Datenbank gelöscht werden
- Datenportabilität — alle Daten in einer Standard-SQL-Datenbank gespeichert, vollständig exportierbar
BetrVG (Betriebsverfassungsgesetz)
- Kein individuelles Leistungsmonitoring — systemseitig untersagt und über Systemprompt-Regeln durchgesetzt
- Anonymisierte Aktivitätsprotokolle — Zusammenfassungen verwenden niemals namentlich genannte Personen
- Autonomes Monitoring berichtet nur über Aufgabenstatus — Alarme zu überfälligen Aufgaben referenzieren Aufgaben und Releases, nicht einzelne Verantwortliche
- Betriebsratsbeteiligung — Betreiber werden empfohlen, vor der Einführung den Betriebsrat gemäß §87 Abs. 1 Nr. 6 zu konsultieren
Revas Datenschutz-Guardrails sind ein wesentlicher Compliance-Vorteil. Sie stärken die Argumentation für die Artikel 6(3)-Ausnahme, unterstützen die DSGVO-Konformität und erleichtern die Betriebsratszustimmung.
Compliance-Zeitplan
Technische Schutzmaßnahmen
Um Revas Klassifizierung als Nicht-Hochrisiko-System aufrechtzuerhalten und ein Abdriften in reguliertes Gebiet zu verhindern, werden folgende Schutzmaßnahmen durchgesetzt:
Auf Systemebene erzwungen
- Individuelles Leistungstracking verboten — Systemprompt-Regeln verhindern, dass das LLM individuelle Leistungsbewertungen, Vergleiche oder Berichte erstellt
- Anonymisierung der Aktivitätsprotokolle — alle Zusammenfassungen verwenden „ein Teammitglied“ statt Namen; kein Feature kann dies umgehen
- Monitoring-Alarme referenzieren Aufgaben, nicht Personen — das autonome Monitoring berichtet über überfällige Aufgaben und fehlgeschlagene Gates, ohne Verzögerungen Einzelpersonen zuzuordnen
- Nur-Lese-MCP-Richtlinie — das LLM kann keine Daten in Release oder Jira erstellen, ändern oder löschen
- Nur vordefinierte Benachrichtigungsvorlagen — das LLM kann keine beliebigen Nachrichteninhalte für proaktive Benachrichtigungen verfassen
Feature-Review-Prozess
Vor der Einführung neuer Fähigkeiten wird jedes Feature auf potenzielle Auswirkungen auf die Risikoklassifizierung geprüft:
- Jedes Feature, das individuelle Arbeitsmuster analysiert → potenzieller Hochrisiko-Auslöser
- Jedes Feature, das Aufgabenzuweisungen basierend auf persönlichen Merkmalen empfiehlt → Hochrisiko
- Jedes Feature, das individuelle Leistungszusammenfassungen generiert → untersagt
Betreibervereinbarungen
Kundenverträge enthalten Klauseln, die:
- Die Nutzung von Reva zur individuellen Leistungsbewertung verbieten
- Betreiber verpflichten, Arbeitnehmer über Revas Einsatz zu informieren
- Die Einhaltung lokaler Betriebsratsanforderungen vorschreiben