11.08.2025

René Herzer
Ein Mitarbeiter fragt das neue KI-System: "Zeig mir alle Projekte von Team Alpha mit ihren aktuellen Budgets." Das System durchsucht Projektmanagement-Tools, Zeiterfassung und Finanzdatenbanken. Binnen Sekunden präsentiert es eine umfassende Analyse. Aber eine entscheidende Frage bleibt: Darf dieser Mitarbeiter wirklich alle diese Informationen sehen?
Hier stoßen wir auf ein fundamentales Problem: Traditionelle Rechtesysteme sind für direkte, systemspezifische Zugriffe designed – nicht für KI-vermittelte, systemübergreifende Anfragen.
Das Problem in der Praxis
Fragmentierte Berechtigungen
Heute haben Sie verschiedene Rechtesysteme:
Active Directory für grundlegende Identitäten
Datenbank-Rechte für Tabellenzugriffe
Anwendungsrechte in jedem Tool
API-Rechte für Schnittstellen
Jedes System hat eigene Regeln. Ein Projektleiter darf Budgetdaten seines Projekts sehen, aber nicht die Gehaltsinformationen seines Teams. Diese Trennung funktioniert, solange Menschen direkt mit einzelnen Systemen arbeiten.
KI durchbricht die Grenzen
KI-Systeme aggregieren Daten aus verschiedenen Quellen. Die Anfrage "Wie profitabel ist unser größtes Projekt?" benötigt:
Kundendaten aus dem CRM
Kostendaten aus dem ERP
Aufwände aus dem Projektmanagement
Personalkosten aus HR-Systemen
Plötzlich kann ein Nutzer durch eine einzige Anfrage auf Informationen zugreifen, die in getrennten Systemen für ihn gesperrt wären.
Das Inferenz-Problem
Noch kritischer: KI kann aus erlaubten Daten unerlaubte Schlüsse ziehen. Ein Mitarbeiter darf Projektbudgets und Teamgrößen sehen. Daraus lassen sich aber Gehaltsinformationen ableiten. Ist das erlaubt?
Warum bestehende Lösungen nicht funktionieren
Rollen sind zu starr: "Projektleiter" sagt nichts über spezifische KI-Anfragen aus.
Einzelberechtigungen sind zu komplex: Für jede mögliche Datenkombination Regeln zu definieren ist unmöglich.
Manuelle Freigaben sind zu langsam: KI soll Echtzeit-Antworten liefern.
Was wirklich funktioniert
1. Policy Engine als Gatekeeper
Statt in jedem System Rechte zu verwalten, entscheidet eine zentrale Engine bei jeder KI-Anfrage:
"Darf User X diese Art von Frage stellen?"
"Ist diese Anfrage mit seiner Rolle kompatibel?"
"Könnte das Ergebnis sensible Daten preisgeben?"
Praktisch: Systeme wie Open Policy Agent können das heute.
2. Intent-basierte Berechtigungen
Statt zu fragen "Darf er auf Tabelle Y?" fragen Sie "Darf er Profitabilitäts-Analysen machen?"
Beispiel-Regel: "Vertriebsleiter dürfen Kunden-Profitabilität analysieren, aber keine Einzelgehälter ableiten."
3. Dynamische Filterung
Das KI-System bekommt die Anfrage, aber die Policy Engine filtert das Ergebnis:
Zeigt nur Daten, die der Nutzer sehen darf
Entfernt sensible Kombinationen
Protokolliert alles für Compliance
Der pragmatische Ansatz
Fangen Sie klein an:
Implementieren Sie eine Policy Engine für Ihr erstes KI-System
Definieren Sie 5-10 grundlegende Regeln
Erweitern Sie schrittweise
Nutzen Sie bestehende Tools:
Ihre Identity-Systeme bleiben
Ergänzen Sie nur eine zentrale Entscheidungsebene
Keine komplette Neuarchitektur nötig
Fokus auf kritische Daten:
Nicht alles muss perfekt sein
Schützen Sie zuerst Gehaltsdaten, Finanzen, Personaldaten
Der Rest kann warten
Die Realität
Ohne Lösung dieses Problems bleiben KI-Systeme auf unkritische Bereiche beschränkt. Das Rechte-Problem wird zum Flaschenhals für ernsthafte KI-Nutzung.
Die gute Nachricht: Sie müssen nicht alles auf einmal lösen. Beginnen Sie mit einer Policy Engine für Ihr erstes produktives KI-System. Lernen Sie dabei. Erweitern Sie schrittweise.
Die Alternative ist, KI dauerhaft in der Sandbox zu lassen.
Dies ist der dritte Teil unserer Serie über KI-Integration jenseits von Pilotprojekten. Nächste Woche: Wie Sie eine realistische Roadmap für KI-native Organisationen entwickeln.
Bleiben Sie auf dem Laufendem