Wie man vertrauensbasierte KI-Sicherheit im großen Maßstab aufbaut 

Da KI zunehmend in die Erkennung von Bedrohungen, die Betrugsüberwachung, das Zugriffsmanagement und die Reaktion auf Vorfälle integriert wird, stellt sich eine entscheidende Frage: Wie können Unternehmen Vertrauen in KI-gestützte Sicherheit in großem Maßstab aufbauen?

Vertrauen hat in diesem Zusammenhang zwei Dimensionen. Erstens müssen Mitarbeiter und Analysten darauf vertrauen können, dass KI-Tools ihre Arbeit unterstützen und nicht ihr Urteilsvermögen untergraben. Zweitens müssen Führungskräfte darauf vertrauen können, dass diese Systeme sicher, nachvollziehbar und unter realen Bedingungen widerstandsfähig sind.

Ohne beide Dimensionen ist KI-gestützte Sicherheit nicht skalierbar – sie fragmentiert sich. Erfolgreiche Unternehmen betrachten Vertrauen nicht als Kommunikationsmaßnahme, sondern als Gestaltungsprinzip, das in Governance, Aufsicht und Einführungsstrategie eingebettet ist.

Die doppelte Bedeutung von Vertrauen 

Erstens: Was meinen wir, wenn wir im Zusammenhang mit KI und Sicherheit von Vertrauen sprechen? Eigentlich hat der Begriff zwei verschiedene Bedeutungen: 

  1. Die menschliche Seite: Haben Ihre Mitarbeiter tatsächlich Vertrauen in die KI-Sicherheitstools, die Sie für sie auswählen, oder sehen sie sie als Bedrohung, als Belastung oder als etwas, um das man herumarbeiten muss? 
  2. Die technische Seite: Können Sie sich darauf verlassen, dass Ihre KI-Sicherheits-Tools das tun, was ihre Hersteller oder Entwickler behaupten, dass sie es tun können?

Beide Seiten sind wichtig, und beide bestimmen, ob KI einen Mehrwert schafft oder nur neue Risiken erzeugt. 

Wenn Sie bei der Einführung neuer KI-Tools die menschliche Seite des Vertrauens vernachlässigen, riskieren Sie eine geringe Akzeptanz, Schattenpraktiken, die offizielle Systeme umgehen, und ein falsches Gefühl der Sicherheit, das Ihr Unternehmen anfälliger macht. Es verletzt auch das Vertrauen Ihres Teams, wenn Sie Tools wählen, die die Komplexität erhöhen, anstatt die Effizienz zu verbessern. Diese Spannung erklärt, warum laut Gartner 69 % der Unternehmen den Verdacht haben oder Beweise dafür haben, dass Mitarbeiter nicht autorisierte öffentliche GenAI-Tools („Schatten-KI“) verwenden. Wenn zugelassene Tools den tatsächlichen betrieblichen Anforderungen nicht gerecht werden, suchen Mitarbeiter nach Alternativen – oft ohne angemessene Aufsicht. 

Auf der technischen Seite müssen CIOs über den überwältigenden Hype und die ständigen übertriebenen Versprechungen hinwegsehen, die wir in den letzten Jahren von der KI-Community gesehen haben. Wie jedes andere Sicherheitstool müssen sich auch KI-gestützte Tools unter realen Bedingungen bewähren und Transparenz, Überprüfbarkeit und Widerstandsfähigkeit gegenüber neuen Bedrohungen wie Soforteinspeisung und Versagen der Zugriffskontrolle bieten. 

Integration von Vertrauen in die Einführung von KI 

Viele Unternehmen stehen bei der Einführung neuer KI-Tools vor Akzeptanzproblemen. Das liegt wahrscheinlich daran, dass laut einem BCG-Bericht fast die Hälfte (46 %) der Mitarbeiter KI als Bedrohung für ihren Arbeitsplatz ansehen. Es ist sicherlich nicht hilfreich, dass die KI-Branche weiterhin das Potenzial ihrer Tools anpreist, die Arbeit, wie wir sie kennen, neu zu definieren. Die Mitarbeiter haben berechtigte Bedenken. Es liegt an den IT- und Sicherheitsverantwortlichen, diese durch sorgfältig geplante Adoptionsstrategien auszuräumen. 

AI-Erfolgsgeschichte: MinterEllison 

Ein häufig zitiertes Beispiel ist MinterEllison, das ein strukturiertes KI-Kompetenzprogramm eingeführt hat, um die Einführung zu unterstützen. Die Kanzlei hat spezielle Lernzeiten vorgesehen, die Schulungen an den Leistungszielen ausgerichtet und interne Digital Champions ernannt, die ihre Kollegen anhand praktischer Anwendungsfälle anleiten.

Zu den berichteten Ergebnissen gehörten ein deutlicher Anstieg der wöchentlichen KI-Nutzung und ein anhaltendes Engagement in allen Abteilungen. Das Wichtigste dabei sind nicht die Nutzungszahlen selbst, sondern die Struktur: Das Vertrauen stieg, weil Schulungen, Zeitvorgaben und gegenseitige Unterstützung bewusst in die Einführung integriert wurden.

Bildung, Transparenz und Kommunikation 

Der Bedarf an strukturierter Bildung wird nur noch zunehmen. In seinem Bericht "Predicts 2025: AI and the Future of Work" (KI und die Zukunft der Arbeit) geht Gartner davon aus, dass bis 2028 40 % der Mitarbeiter von KI geschult oder gecoacht werden, wenn sie eine neue Stelle antreten - heute sind es weniger als 5 %. Wenn Mitarbeiter erwarten, dass KI sie vom ersten Tag an anleitet, können es sich Unternehmen nicht leisten, das Lesen und Schreiben dem Zufall zu überlassen. 

Auch eine klare Kommunikation ist wichtig. Seien Sie offen und realistisch, was KI-Tools leisten können und was nicht. Zeigen Sie den Mitarbeitern, wie wichtig ihr menschliches Mitspracherecht ist. Und sagen Sie nicht einfach: "Vertraut dem Tool". Lehren und ermutigen Sie sie stattdessen, die Ergebnisse zu hinterfragen und zu interpretieren. Wenn Mitarbeiter wissen, dass ihr Urteilsvermögen immer noch geschätzt wird, fühlt sich KI weniger wie eine Bedrohung und mehr wie eine Unterstützung an. 

Auswahl vertrauenswürdiger AI-Sicherheitstools 

Die andere Seite der Gleichung ist die Frage, ob IT- und Sicherheitsverantwortliche darauf vertrauen können, dass KI-Systeme zuverlässig und sicher funktionieren. Auch hier sind die Risiken real. Branchenprognosen deuten darauf hin, dass Schwachstellen in der Zugriffskontrolle – darunter Prompt-Injection- und Privilegieneskalationsrisiken – in den nächsten Jahren wahrscheinlich zu den primären Angriffsvektoren für KI-gestützte Systeme werden. Mit zunehmender operativer Autonomie von KI-Agenten werden Governance-Lücken zu Sicherheitslücken.

Parallel dazu müssen Unternehmen mit Genauigkeitsabweichungen, Verzerrungen und steigenden Cloud-Kosten umgehen. Vertrauensbasierte KI-Sicherheit hängt daher nicht nur von der Abwehr von Bedrohungen ab, sondern auch von kontinuierlicher Validierung, Überwachung und Kostenkontrolle. 

Diese Herausforderungen erklären, warum die Cybersicherheit für CIOs im Banken-, Versicherungs- und Einzelhandelssektor nach wie vor an dritter Stelle der Prioritätenliste steht. Die gute Nachricht ist jedoch, dass es bereits Beispiele für vertrauenswürdige KI-Implementierungen gibt, wie die folgenden Fallstudien von Gartner zeigen. 

Die Citizens Bank zum Beispiel hat einen sorgfältig ausgewählten Orchestrator-Agenten eingeführt, der Back-Office-Aufgaben innerhalb kontrollierter Arbeitsabläufe sicher verwaltet. Im Versicherungswesen setzt ein niederländisches Unternehmen KI ein, um einfache Kfz-Schäden automatisch zu bearbeiten und komplexe Fälle an menschliche Gutachter weiterzuleiten. Beide Beispiele lehren uns dieselbe Lektion: Führungskräfte können der KI vertrauen, wenn sie für den Anwendungsfall gut geeignet ist und klare Leitplanken hat, und wenn Menschen für risikoreiche Entscheidungen verantwortlich bleiben. 

Perspektiven für die Industrie 

Die Herausforderung des Vertrauens sieht in den einzelnen Sektoren etwas anders aus: 

  • Bankwesen: Vertrauen ist untrennbar mit Compliance verbunden. Führende Unternehmen benötigen KI-Systeme, die Fehlalarme bei der Betrugserkennung vermeiden und Prüfpfade erstellen, denen die Aufsichtsbehörden ohne Zweifel folgen können. 
  • Versicherung: Voreingenommenheit bei Underwriting- oder Schadenentscheidungen ist nicht nur ein ethisches Problem, sondern auch ein regulatorisches und Reputationsrisiko. Voreingenommenheitsprüfungen und Erklärungshilfen sind unerlässlich. 
  • Herstellung: Sicherheit ist nicht verhandelbar. Werksleiter werden sich nicht auf KI-Vorhersagen über Anlagenausfälle verlassen, wenn sie nicht wissen, wann und wie eine menschliche Überprüfung erfolgt. 
  • Einzelhandel: Bei der hohen Personalfluktuation ist die Schatten-KI das große Risiko. Einzelhändler müssen KI-Kenntnisse genauso ernst nehmen wie Datenkenntnisse, damit die Einführung sicher und produktiv bleibt.

Vertrauen skalierbar machen 

Wie können Führungskräfte also Vertrauen skalierbar machen, wenn sie KI-Sicherheitsprojekte auf den Weg bringen? Einige Muster fallen branchenübergreifend auf: 

  • KI-Kenntnisse zuerst. Mitarbeiter werden nicht übernehmen, was sie nicht verstehen. Programme wie das von MinterEllison beweisen, dass sich strukturierte Schulungen für die Akzeptanz und sichere Nutzung auszahlen. 
  • Klare Regeln für die Aufsicht. Legen Sie fest, wann der Mensch eingreift, und stellen Sie sicher, dass jeder dies weiß. Dies verhindert sowohl ein übermäßiges Vertrauen in die KI als auch Misstrauen gegenüber ihren Ergebnissen. 
  • Überprüfbarkeit. Jede KI-gestützte Aktion sollte eine Spur hinterlassen, die einer Überprüfung durch Behörden und Kunden standhält. 
  • Kosten- und Risikokontrolle. Überwachen Sie die Cloud-Ausgaben, die Genauigkeitsdrift und die Zugriffskontrolle genauso genau wie die Finanzkontrollen. 
  • Kulturwandel. KI wird in den kommenden Jahren zweifelsohne die Arbeitsplatzkultur verändern. CIOs, CISOs und CHROs spielen alle eine Rolle dabei, KI in großem Maßstab vertrauenswürdig zu machen.

Vertrauen in die Sicherheit von KI entsteht nicht automatisch. Es muss konstruiert werden.

Organisationen, die erfolgreich skalieren, konzentrieren sich auf fünf Säulen: Kompetenz, klare Aufsicht, Überprüfbarkeit, kontinuierliche Risikoüberwachung und funktionsübergreifende Governance. Wenn diese Grundlagen vorhanden sind, wird KI zu einem Kraftmultiplikator für Cybersicherheit und nicht zu einer neuen Gefährdungsebene.

Führungskräfte, die sowohl die menschlichen als auch die technischen Dimensionen des Vertrauens berücksichtigen, werden KI nicht nur sicher einsetzen, sondern auch die Widerstandsfähigkeit stärken, verantwortungsvolle Innovationen beschleunigen und dauerhaftes Vertrauen in ihre digitale Strategie aufbauen.

Getronics Redaktionsteam

In diesem Artikel:

Diesen Beitrag teilen

Zufällige Bilder

Sprechen Sie mit einem unserer Experten

Wenn Sie eine neue digitale Erfahrung in Betracht ziehen, egal in welcher Phase Sie sich gerade befinden, würden wir uns gerne mit Ihnen unterhalten.