Safer Internet Day 2026: AIBOM als erster Schritt für mehr KI-Sicherheit
09.02.2026
Chris Cochran, Field CISO & VP AI Security beim SANS Institute
KI ist einer der größten Leistungsverstärker, die Unternehmen seit Jahrzehnten gesehen haben, und sie verändert bereits jetzt die Art und Weise, wie Teams arbeiten, kreativ sind und im Wettbewerb bestehen. Aber wie bei jeder leistungsstarken Technologie beginnt der richtige Einsatz von KI damit, zu verstehen, wo die Risiken tatsächlich liegen.
Der erste Schritt ist Transparenz. Unternehmen müssen verstehen, wo KI im gesamten Unternehmen eingesetzt wird, und zwar nicht nur die von der Unternehmensleitung genehmigten Tools, sondern auch die KI, die in Workflows, Plugins, KI-Agenten und Plattformen von Drittanbietern zum Einsatz kommt. Die Führung eines KI-Bestandsverzeichnisses wird schnell zu einer Selbstverständlichkeit.
Von dort aus kommt es auf das Risiko durch Dritte an. Eine KI-Stückliste (AI Bill of Materials, AIBOM) hilft Unternehmen zu verstehen, welche Modelle, Datenquellen und Abhängigkeiten hinter den Kulissen existieren und wo externe Risiken auftreten. Wenn KI-Agenten immer autonomer werden, müssen Sicherheitsteams auch die Art und Weise ändern, wie sie diese absichern. KI-Agenten sollten wie Betreiber im Netzwerk behandelt werden, nicht wie herkömmliche Dienstkonten. Das bedeutet, dass sie eine Identität erhalten müssen, auch wenn diese nur von kurzer Dauer ist.
Tatsächlich wird oft eine kurzlebige Authentifizierung und Autorisierung bevorzugt. Technologien wie SPIFFE können dabei helfen, diese Art von Maschinenidentität in großem Maßstab zu ermöglichen. Die Zero Trust-Prinzipien gelten weiterhin. Sicherheitsteams sollten explizit authentifizieren und nur minimale Berechtigungen gewähren. Des Weiteren sollten sie von einer Sicherheitsverletzung ausgehen und das Verhalten KI-Agenten kontinuierlich überwachen. Wenn darüber hinaus eine Segmentierung angewendet wird, kann im Falle eines Problems der Schaden begrenzt werden. Identitäts- und Zugriffsdiagramme sollten im Blick behalten werden.
Sicherheitsteams müssen verstehen, worauf ihre Mitarbeiter und KI-Agenten zugreifen können und wo sich diese Pfade überschneiden. Die meisten KI-bezogenen Datenlecks stammen nicht aus dem Modell selbst, sondern aus zu weit gefassten Berechtigungen und unsichtbaren Zugriffspfaden. AI kann für Unternehmen absolut bahnbrechend sein. Organisationen sollten die Innovation mit Disziplin verbinden und Sicherheit in die tägliche Arbeitsweise von KI integrieren.
Safer Internet Day 2026: AIBOM als erster Schritt für mehr KI-Sicherheit
09.02.2026
Chris Cochran, Field CISO & VP AI Security beim SANS Institute
KI ist einer der größten Leistungsverstärker, die Unternehmen seit Jahrzehnten gesehen haben, und sie verändert bereits jetzt die Art und Weise, wie Teams arbeiten, kreativ sind und im Wettbewerb bestehen. Aber wie bei jeder leistungsstarken Technologie beginnt der richtige Einsatz von KI damit, zu verstehen, wo die Risiken tatsächlich liegen.
Der erste Schritt ist Transparenz. Unternehmen müssen verstehen, wo KI im gesamten Unternehmen eingesetzt wird, und zwar nicht nur die von der Unternehmensleitung genehmigten Tools, sondern auch die KI, die in Workflows, Plugins, KI-Agenten und Plattformen von Drittanbietern zum Einsatz kommt. Die Führung eines KI-Bestandsverzeichnisses wird schnell zu einer Selbstverständlichkeit.
Von dort aus kommt es auf das Risiko durch Dritte an. Eine KI-Stückliste (AI Bill of Materials, AIBOM) hilft Unternehmen zu verstehen, welche Modelle, Datenquellen und Abhängigkeiten hinter den Kulissen existieren und wo externe Risiken auftreten. Wenn KI-Agenten immer autonomer werden, müssen Sicherheitsteams auch die Art und Weise ändern, wie sie diese absichern. KI-Agenten sollten wie Betreiber im Netzwerk behandelt werden, nicht wie herkömmliche Dienstkonten. Das bedeutet, dass sie eine Identität erhalten müssen, auch wenn diese nur von kurzer Dauer ist.
Tatsächlich wird oft eine kurzlebige Authentifizierung und Autorisierung bevorzugt. Technologien wie SPIFFE können dabei helfen, diese Art von Maschinenidentität in großem Maßstab zu ermöglichen. Die Zero Trust-Prinzipien gelten weiterhin. Sicherheitsteams sollten explizit authentifizieren und nur minimale Berechtigungen gewähren. Des Weiteren sollten sie von einer Sicherheitsverletzung ausgehen und das Verhalten KI-Agenten kontinuierlich überwachen. Wenn darüber hinaus eine Segmentierung angewendet wird, kann im Falle eines Problems der Schaden begrenzt werden. Identitäts- und Zugriffsdiagramme sollten im Blick behalten werden.
Sicherheitsteams müssen verstehen, worauf ihre Mitarbeiter und KI-Agenten zugreifen können und wo sich diese Pfade überschneiden. Die meisten KI-bezogenen Datenlecks stammen nicht aus dem Modell selbst, sondern aus zu weit gefassten Berechtigungen und unsichtbaren Zugriffspfaden. AI kann für Unternehmen absolut bahnbrechend sein. Organisationen sollten die Innovation mit Disziplin verbinden und Sicherheit in die tägliche Arbeitsweise von KI integrieren.
