20.10.2025
Es ist der Monat der Cybersicherheit in der IT-Welt. Und in diesem Jahr beschäftigt viele IT-Führungskräfte eine wichtige Frage: Können wir der KI-gestützten Sicherheit im großen Maßstab wirklich vertrauen?
Vertrauen war schon immer ein grundlegendes Konzept in der Sicherheit. In dem Maße, in dem Unternehmen KI-Initiativen in kritischen Bereichen wie der Bedrohungserkennung, der Betrugsüberwachung und der Zugangsverwaltung ausbauen, wird Vertrauen unserer Meinung nach noch entscheidender für den Erfolg. Denn wenn Ihre Teams den Systemen, die Sie einsetzen, nicht vertrauen können, schaffen diese Systeme eher Risiken, als dass sie sie mindern.
Wie also können IT- und Sicherheitsverantwortliche neuen KI-gesteuerten Tools vertrauen und gleichzeitig sicherstellen, dass auch die Mitarbeiter ihnen vertrauen? Hier finden Sie einen praktischen Aktionsplan für IT- und Sicherheitsverantwortliche, insbesondere in vertrauensintensiven Branchen wie Banken, Versicherungen, Einzelhandel und Produktion. Nehmen Sie Kontakt auf, um zu erfahren, wie Getronics Sie bei der Einführung von Vertrauen unterstützen kann.
Die doppelte Bedeutung von Vertrauen
Erstens: Was meinen wir, wenn wir im Zusammenhang mit KI und Sicherheit von Vertrauen sprechen? Eigentlich hat der Begriff zwei verschiedene Bedeutungen:
- Die menschliche Seite: Haben Ihre Mitarbeiter tatsächlich Vertrauen in die KI-Sicherheitstools, die Sie für sie auswählen, oder sehen sie sie als Bedrohung, als Belastung oder als etwas, um das man herumarbeiten muss?
- Die technische Seite: Können Sie sich darauf verlassen, dass Ihre KI-Sicherheits-Tools das tun, was ihre Hersteller oder Entwickler behaupten, dass sie es tun können?
Beide Seiten sind wichtig, und beide bestimmen, ob KI einen Mehrwert schafft oder nur neue Risiken erzeugt.
Wenn Sie bei der Einführung neuer KI-Tools die menschliche Seite des Vertrauens vernachlässigen, riskieren Sie eine geringe Akzeptanz, Schattenpraktiken, die die offiziellen Systeme umgehen, und ein falsches Sicherheitsgefühl, das Ihr Unternehmen angreifbarer macht. Es verletzt auch das Vertrauen Ihres Teams, wenn Sie sich für Tools entscheiden, die die Komplexität erhöhen, anstatt die Effizienz zu steigern. Das ist einer der Hauptgründe, warum 69 % der CIOs den Verdacht haben, dass ihre Mitarbeiter bei der Arbeit nicht autorisierte KI-Tools verwenden, so der Bericht "2025 AI Hype Cycle" von Gartner.
Auf der technischen Seite müssen CIOs über den überwältigenden Hype und die ständigen übertriebenen Versprechungen hinwegsehen, die wir in den letzten Jahren von der KI-Community gesehen haben. Wie jedes andere Sicherheitstool müssen sich auch KI-gestützte Tools unter realen Bedingungen bewähren und Transparenz, Überprüfbarkeit und Widerstandsfähigkeit gegenüber neuen Bedrohungen wie Soforteinspeisung und Versagen der Zugriffskontrolle bieten.
Integration von Vertrauen in die Einführung von KI
Viele Unternehmen stehen bei der Einführung neuer KI-Tools vor Akzeptanzproblemen. Das liegt wahrscheinlich daran, dass laut einem BCG-Bericht fast die Hälfte (46 %) der Mitarbeiter KI als Bedrohung für ihren Arbeitsplatz ansehen. Es ist sicherlich nicht hilfreich, dass die KI-Branche weiterhin das Potenzial ihrer Tools anpreist, die Arbeit, wie wir sie kennen, neu zu definieren. Die Mitarbeiter haben berechtigte Bedenken. Es liegt an den IT- und Sicherheitsverantwortlichen, diese durch sorgfältig geplante Adoptionsstrategien auszuräumen.
AI-Erfolgsgeschichte: MinterEllison
Eine Case Study zeigt, wie MinterEllison, eine weltweit tätige Anwaltskanzlei, durch die Einführung eines strukturierten und sozialen KI-Schulungsprogramms das Vertrauen der Mitarbeiter gewann. Zu den Maßnahmen gehörten die Bereitstellung von 12 Stunden über 12 Wochen für die Mitarbeiter zum Lernen, die Anrechnung der Schulungszeit auf die Leistungsziele und die Einstellung interner "digitaler Coaches" zur Förderung der Akzeptanz.
Innerhalb weniger Monate stieg die Zahl der wöchentlichen KI-Nutzer von 250 auf 1.600 (ein 6,5-facher Anstieg) mit über 4.000 gutgeschriebenen Lernstunden. Diese Geschichte zeigt, dass Mitarbeiter KI mehr vertrauen, wenn sie sich strukturell unterstützt fühlen und Änderungen schrittweise eingeführt werden.
Bildung, Transparenz und Kommunikation
Der Bedarf an strukturierter Bildung wird nur noch zunehmen. In seinem Bericht "Predicts 2025: AI and the Future of Work" (KI und die Zukunft der Arbeit) geht Gartner davon aus, dass bis 2028 40 % der Mitarbeiter von KI geschult oder gecoacht werden, wenn sie eine neue Stelle antreten - heute sind es weniger als 5 %. Wenn Mitarbeiter erwarten, dass KI sie vom ersten Tag an anleitet, können es sich Unternehmen nicht leisten, das Lesen und Schreiben dem Zufall zu überlassen.
Auch eine klare Kommunikation ist wichtig. Seien Sie offen und realistisch, was KI-Tools leisten können und was nicht. Zeigen Sie den Mitarbeitern, wie wichtig ihr menschliches Mitspracherecht ist. Und sagen Sie nicht einfach: "Vertraut dem Tool". Lehren und ermutigen Sie sie stattdessen, die Ergebnisse zu hinterfragen und zu interpretieren. Wenn Mitarbeiter wissen, dass ihr Urteilsvermögen immer noch geschätzt wird, fühlt sich KI weniger wie eine Bedrohung und mehr wie eine Unterstützung an.
Auswahl vertrauenswürdiger AI-Sicherheitstools
Die andere Seite der Gleichung ist, ob IT- und Sicherheitsverantwortliche darauf vertrauen können, dass KI-Systeme zuverlässig und sicher arbeiten. Auch hier sind die Risiken real. Gartner warnt, dass mehr als 50 % der erfolgreichen Cyberangriffe auf KI-Agenten bis 2029 Probleme bei der Zugriffskontrolle ausnutzen werden, wie z. B. Prompt Injection. Gleichzeitig haben Unternehmen mit Genauigkeitsabweichungen, Verzerrungen und unvorhersehbaren Cloud-Kosten zu kämpfen, die den ROI untergraben.
Diese Herausforderungen erklären, warum die Cybersicherheit für CIOs im Banken-, Versicherungs- und Einzelhandelssektor nach wie vor an dritter Stelle der Prioritätenliste steht. Die gute Nachricht ist jedoch, dass es bereits Beispiele für vertrauenswürdige KI-Implementierungen gibt, wie die folgenden Fallstudien von Gartner zeigen.
Die Citizens Bank zum Beispiel hat einen sorgfältig ausgewählten Orchestrator-Agenten eingeführt, der Back-Office-Aufgaben innerhalb kontrollierter Arbeitsabläufe sicher verwaltet. Im Versicherungswesen setzt ein niederländisches Unternehmen KI ein, um einfache Kfz-Schäden automatisch zu bearbeiten und komplexe Fälle an menschliche Gutachter weiterzuleiten. Beide Beispiele lehren uns dieselbe Lektion: Führungskräfte können der KI vertrauen, wenn sie für den Anwendungsfall gut geeignet ist und klare Leitplanken hat, und wenn Menschen für risikoreiche Entscheidungen verantwortlich bleiben.
Perspektiven für die Industrie
Die Herausforderung des Vertrauens sieht in den einzelnen Sektoren etwas anders aus:
- Bankwesen: Vertrauen ist untrennbar mit Compliance verbunden. Führende Unternehmen benötigen KI-Systeme, die Fehlalarme bei der Betrugserkennung vermeiden und Prüfpfade erstellen, denen die Aufsichtsbehörden ohne Zweifel folgen können.
- Versicherung: Voreingenommenheit bei Underwriting- oder Schadenentscheidungen ist nicht nur ein ethisches Problem, sondern auch ein regulatorisches und Reputationsrisiko. Voreingenommenheitsprüfungen und Erklärungshilfen sind unerlässlich.
- Herstellung: Sicherheit ist nicht verhandelbar. Werksleiter werden sich nicht auf KI-Vorhersagen über Anlagenausfälle verlassen, wenn sie nicht wissen, wann und wie eine menschliche Überprüfung erfolgt.
- Einzelhandel: Bei der hohen Personalfluktuation ist die Schatten-KI das große Risiko. Einzelhändler müssen KI-Kenntnisse genauso ernst nehmen wie Datenkenntnisse, damit die Einführung sicher und produktiv bleibt.
Vertrauen skalierbar machen
Wie können Führungskräfte also Vertrauen skalierbar machen, wenn sie KI-Sicherheitsprojekte auf den Weg bringen? Einige Muster fallen branchenübergreifend auf:
- KI-Kenntnisse zuerst. Mitarbeiter werden nicht übernehmen, was sie nicht verstehen. Programme wie das von MinterEllison beweisen, dass sich strukturierte Schulungen für die Akzeptanz und sichere Nutzung auszahlen.
- Klare Regeln für die Aufsicht. Legen Sie fest, wann der Mensch eingreift, und stellen Sie sicher, dass jeder dies weiß. Dies verhindert sowohl ein übermäßiges Vertrauen in die KI als auch Misstrauen gegenüber ihren Ergebnissen.
- Überprüfbarkeit. Jede KI-gestützte Aktion sollte eine Spur hinterlassen, die einer Überprüfung durch Behörden und Kunden standhält.
- Kosten- und Risikokontrolle. Überwachen Sie die Cloud-Ausgaben, die Genauigkeitsdrift und die Zugriffskontrolle genauso genau wie die Finanzkontrollen.
- Kulturwandel. KI wird in den kommenden Jahren zweifelsohne die Arbeitsplatzkultur verändern. CIOs, CISOs und CHROs spielen alle eine Rolle dabei, KI in großem Maßstab vertrauenswürdig zu machen.
Wir alle sind begeistert von den Möglichkeiten einer skalierbaren, KI-gestützten Sicherheit. Aber in diesem Monat der Cybersicherheit ist eines klar: Unternehmen müssen die Vertrauenslücke überwinden, wenn sie erfolgreich sein wollen. Mitarbeiter werden keine Tools verwenden, von denen sie nicht überzeugt sind. Führungskräfte können keine Systeme skalieren, auf die sie sich nicht verlassen können.
Wenn Sie sowohl die menschliche als auch die technische Seite des Vertrauens berücksichtigen, können Sie schneller einen Mehrwert aus Ihren KI-Initiativen ziehen und gleichzeitig Ihre Belegschaft stärken und langfristig Innovationen vorantreiben.




