11.09.2025

René Herzer
Ein KI-System lehnt einen Kreditantrag ab. Der Kunde beschwert sich bei der BaFin. Die Aufsichtsbehörde fragt: "Wer hat diese Entscheidung getroffen und warum?" Die Bank antwortet: "Unser KI-System." Die BaFin fragt weiter: "Wer in Ihrer Organisation ist dafür verantwortlich?"
Schweigen.
Hier offenbart sich ein fundamentales Problem: In traditionellen IT-Systemen sind Verantwortlichkeiten klar. Bei KI-Systemen, die autonome Entscheidungen treffen, verschwimmen diese Grenzen. Das Ergebnis ist ein Verantwortungsvakuum, das Organisationen rechtlich und operativ gefährdet.
Warum traditionelle Verantwortungsmodelle versagen
Klare Ketten in deterministischen Systemen
In herkömmlicher Software ist die Verantwortungskette eindeutig:
Der Entwickler schreibt Code nach Spezifikation
Der Fachbereich definiert die Geschäftsregeln
Der Nutzer führt bewusste Aktionen aus
Das System führt exakt das aus, was angewiesen wurde
Wenn etwas schiefgeht, lässt sich die Ursache zurückverfolgen: Programmierfehler, falsche Spezifikation oder Benutzerfehler.
Verschwimmende Grenzen bei KI
KI-Systeme durchbrechen diese klaren Zuordnungen:
Das Modell trifft Entscheidungen basierend auf Mustern, nicht auf expliziten Regeln
Die Trainingsdaten beeinflussen Entscheidungen, ohne dass jemand weiß wie
Der Algorithmus entwickelt eigene "Logik", die niemand vollständig versteht
Der Kontext zum Zeitpunkt der Entscheidung kann das Ergebnis beeinflussen
Wenn das KI-System eine falsche Entscheidung trifft, ist oft unklar, wo der Fehler liegt.
Die Verantwortungslücken in der Praxis
Der Data Scientist: "Ich habe nur das Modell trainiert"
"Ich bin nicht verantwortlich für Geschäftsentscheidungen. Ich habe ein technisches System gebaut, das Muster in Daten erkennt. Wie das System eingesetzt wird, entscheiden andere."
Der Fachbereich: "Ich verstehe die Technik nicht"
"Ich habe gesagt, was wir erreichen wollen: bessere Kreditentscheidungen. Wie das technisch umgesetzt wird, ist nicht mein Bereich. Ich kann nicht beurteilen, ob das Modell richtig funktioniert."
Die IT: "Wir betreiben nur die Infrastruktur"
"Wir stellen sicher, dass das System läuft und verfügbar ist. Für die Geschäftslogik sind wir nicht zuständig. Das Modell ist eine Black Box für uns."
Das Management: "Wir haben Experten beauftragt"
"Wir haben qualifizierte Teams eingestellt und externe Berater engagiert. Die Verantwortung liegt bei den Fachexperten, die diese Systeme entwickelt haben."
Warum das gefährlich ist
Rechtliche Risiken
Regulierte Branchen müssen Entscheidungen rechtfertigen können. "Das KI-System hat entschieden" ist keine rechtlich haltbare Antwort.
Beispiel Bankenaufsicht: Die BaFin kann Bußgelder verhängen, wenn Kreditentscheidungen nicht nachvollziehbar sind. Ohne klare Verantwortlichkeiten trifft das die gesamte Organisation.
Operative Risiken
Wenn niemand sich verantwortlich fühlt, werden Probleme nicht rechtzeitig erkannt oder behoben.
Beispiel: Ein KI-System zur Betrugserkennung entwickelt einen Bias gegen bestimmte Kundengruppen. Wer überwacht das? Wer greift ein? Wer entscheidet über Korrekturen?
Reputationsrisiken
KI-Fehler werden öffentlich diskutiert. Organisationen, die keine klaren Verantwortlichkeiten haben, wirken unprofessionell und fahrlässig.
Neue Verantwortungsmodelle für KI
Der AI Product Owner
Eine Person, die end-to-end für ein KI-System verantwortlich ist:
Fachliche Verantwortung: Definiert Ziele und Erfolgskriterien
Technische Oversight: Versteht das Modell ausreichend für Entscheidungen
Operative Verantwortung: Überwacht Performance und greift bei Problemen ein
Compliance-Verantwortung: Stellt sicher, dass regulatorische Anforderungen erfüllt werden
Das AI Governance Board
Ein interdisziplinäres Gremium für strategische KI-Entscheidungen:
Fachbereich: Definiert Business-Anforderungen
Data Science: Bewertet technische Machbarkeit
Legal/Compliance: Prüft rechtliche Risiken
IT: Bewertet operative Umsetzbarkeit
Geteilte Verantwortung mit klaren Abgrenzungen
Model Owner (Data Science Team):
Technische Qualität des Modells
Dokumentation von Limitationen
Empfehlungen für Einsatzgebiete
Business Owner (Fachbereich):
Definition der Anwendungsfälle
Bewertung der Geschäftsergebnisse
Entscheidung über Modell-Updates
Operations Owner (IT):
Technische Verfügbarkeit
Performance-Monitoring
Incident Response
Compliance Owner (Legal/Risk):
Regulatorische Konformität
Audit-Dokumentation
Risikobewertung
Praktische Umsetzung
RACI-Matrix für KI-Systeme
Definieren Sie für jede KI-Entscheidung:
Responsible: Wer führt die Aufgabe aus?
Accountable: Wer ist letztendlich verantwortlich?
Consulted: Wer muss konsultiert werden?
Informed: Wer muss informiert werden?
Beispiel Kreditentscheidung:
Responsible: KI-System (technisch), Kreditbearbeiter (final)
Accountable: Kreditbereichsleiter
Consulted: Risk Management, Data Science
Informed: Compliance, Audit
Eskalationspfade definieren
Klare Regeln, wann menschliche Intervention erforderlich ist:
Automatische Eskalation: Bei Confidence-Scores unter Schwellenwerten
Manuelle Eskalation: Bei Kundenbeschwerden oder ungewöhnlichen Fällen
Systematische Eskalation: Bei erkannten Bias oder Performance-Problemen
Dokumentationspflichten
Entscheidungsprotokoll: Jede KI-Entscheidung mit Kontext und Begründung
Verantwortungsnachweis: Wer hat wann welche Entscheidung getroffen oder bestätigt
Audit-Trail: Nachvollziehbare Kette von Daten über Modell bis zur Entscheidung
Die häufigsten Fallstricke
Verantwortung an die Technik delegieren
"Das KI-System entscheidet" ist keine Lösung. Menschen müssen die Verantwortung übernehmen.
Zu viele Verantwortliche
Wenn alle verantwortlich sind, ist niemand verantwortlich. Klare, eindeutige Zuordnungen sind nötig.
Verantwortung ohne Kompetenz
Wer verantwortlich ist, muss auch die Kompetenz haben, fundierte Entscheidungen zu treffen.
Was wirklich funktioniert
Beginnen Sie mit klaren Rollen
Definieren Sie vor dem ersten produktiven KI-System, wer wofür verantwortlich ist.
Schulen Sie Ihre Verantwortlichen
AI Product Owner brauchen sowohl fachliche als auch technische Kompetenz.
Dokumentieren Sie alles
Verantwortung ohne Dokumentation ist wertlos. Schaffen Sie nachvollziehbare Prozesse.
Testen Sie Ihre Prozesse
Simulieren Sie Problemfälle: Funktionieren Ihre Eskalationspfade? Sind Verantwortlichkeiten klar?
Die unbequeme Wahrheit
KI-Systeme treffen Entscheidungen, aber sie können keine Verantwortung übernehmen. Diese bleibt bei Menschen. Organisationen, die das ignorieren, setzen sich rechtlichen, operativen und Reputationsrisiken aus.
Die Frage ist nicht, ob Sie Verantwortungsmodelle für KI brauchen – die Frage ist, ob Sie sie definieren, bevor oder nachdem etwas schiefgeht.
Klare Verantwortlichkeiten sind nicht nur ein Compliance-Thema. Sie sind die Grundlage dafür, dass KI-Systeme vertrauenswürdig und erfolgreich betrieben werden können.
Dies ist der vierte Teil unserer Serie über KI-Integration jenseits von Pilotprojekten. Nächste Woche: Warum traditionelle IT-Budgetierung bei KI-Systemen versagt und welche neuen Kostenmodelle Sie brauchen.
Bleiben Sie auf dem Laufendem