Explosion in drei Stufen: Die Folgen der KI-Disruption
27.02.2026
Von Sergej Epp, Global CISO bei Sysdig
Künstliche Intelligenz treibt den organisatorischen Wandel in einer Weise voran, wie wir es seit dem Aufkommen des Internets nicht mehr gesehen haben. Aber jede Disruption dieser Art bringt auch Warnsignale mit sich. Bei der KI-Disruption blinken sie alle gleichzeitig – in der Softwareentwicklung, in der Cyberkriminalität und in der Regulatorik. Das Problem: Wir behandeln jedes Signal einzeln. Allerdings sind diese drei Entwicklungen keine separaten Phänomene - sie sind die Stufen einer einzigen Explosion. Wer nur eine dieser Stufen sieht, statt das große Ganze zu betrachten, versteht die Detonation nicht.
Stufe 1: Das Pulverfass der Programmierer
KI macht das Handwerk der Softwareentwicklung einsteigerfreundlicher als jemals zuvor. Statt mit Code entstehen Anwendungen im Gespräch mit einem KI-Chatbot – schnell, intuitiv und ohne jede Sicherheitsprüfung. Genau das war der Hit auf der Geburtstagsfeier meines Sohnes: Ein paar Teenager entwickelten innerhalb weniger Stunden per “Vibe Coding” eine Handvoll Applikationen und stellten sie direkt der Öffentlichkeit zur Verfügung.
Was für die Jungs ein Partytrick war, lässt bei Sicherheitsverantwortlichen die Alarmglocken schrillen. Denn dasselbe passiert längst in Unternehmen: Mitarbeiter, die noch nie programmiert haben, nutzen KI, um eigene Tools zu bauen – mit den besten Absichten, aber ohne jedes Sicherheitsbewusstsein. Das Problem ist also, dass der Code zwar funktioniert, aber nicht sicher ist. Und das ist das gefährlichste Ergebnis, das KI liefern kann: Software, die gut genug aussieht, um vertrauenswürdig zu wirken.
Gründliches Testen und das Aufspüren von Schwachstellen erfordert Zeit und Know-how – beides bleibt bei der Laienentwicklung verständlicherweise auf der Strecke. Wir stehen vor einem Paradoxon: Die Demokratisierung der Entwicklung erzeugt eine Explosion der Angriffsfläche.
Stufe 2: Der kriminelle Funkenregen
Unternehmen aller Art setzen mittlerweile auf KI. Laut einer aktuellen Bitkom-Studie nutzt bereits ein Drittel aller deutschen Unternehmen die Technologie. Warum auch nicht? KI erlaubt es, Prozesse intelligent zu automatisieren, Workflows zu optimieren und Ressourcen besser einzusetzen. Doch was für legitime Unternehmen gilt, gilt ebenso für die florierende Schattenwirtschaft der Cyberkriminalität.
Cyberkriminelle Gruppen professionalisieren sich seit Jahren – man denke nur an das Ausmaß der Machenschaften von Lockbit, bevor sie durch Strafverfolgungsbehörden zerschlagen wurden. KI skaliert solche Operationen nun um ein Vielfaches. Ein Beispiel aus dem vergangenen Jahr: Angreifer nutzten eine falsch konfigurierte Open-WebUI-Instanz, eine weit verbreitete Open-Source-KI-Schnittstelle, um eine nahezu vollständig KI-generierte Payload auszuliefern. Das Sysdig Threat Research Team dokumentierte zudem einen Fall, in dem Angreifer innerhalb von nur acht Minuten administrativen Zugriff auf eine Cloud-Umgebung erlangten. KI beschleunigte dabei die Aufklärung, die Eskalation der Rechte und sogar die autonome Entscheidungsfindung in Echtzeit.
Noch nie war es derart einfach, Deepfakes zu erstellen, Phishing-Kampagnen zu orchestrieren und Malware zu programmieren. Die gefährlichsten Hacker der kommenden Jahre werden keine Programmierer sein - sondern Prompt Engineers.
Stufe 3: Die regulatorische Rauchwolke
Der EU AI Act hat große Ambitionen, vermutlich die größten weltweit. Der Gedanke dahinter ist nachvollziehbar. Doch Regulierung allein schafft weder Innovation noch Sicherheit. Und hier liegt Europas eigentliches Problem: Wir haben reguliert, bevor wir verstanden haben, was KI wirklich kann. Teile des Regelwerks adressieren eine Welt, die es so nicht mehr gibt.
Die notwendigen Infrastrukturen für souveräne KI-Entwicklung, für europäische Foundation Models, für unabhängige Prüf- und Forschungskapazitäten – all das steckt noch in den Anfängen. Wer reguliert, aber nicht gleichzeitig baut, schreibt Spielregeln für ein Spiel, an dem er nicht teilnimmt. Das Ergebnis: Die Regulierung wird zum Wunschzettel an andere Märkte.
Europa braucht deshalb drei Dinge gleichzeitig. Erstens: Kapazitätsaufbau. Massive Investitionen in eigene KI-Sicherheitsforschung, -Prüfinfrastruktur und souveräne Technologiekompetenz, damit wir nicht nur regulieren, sondern verstehen, was wir regulieren. Zweitens: Externen Ansporn. Unternehmen brauchen positive Anreize, KI so schnell wie möglich einzusetzen und ihre Prozesse auf diese neue Welt umzustellen. Wer die eigene Wirtschaft nicht befähigt, KI produktiv zu nutzen, verliert nicht nur an Wettbewerbsfähigkeit, sondern lässt auch das beste Gegenmittel gegen KI-gestützte Angriffe liegen. Drittens: Gezielte Deregulierung. Dort, wo reguliert wurde, bevor klar war, was KI leisten kann, müssen wir den Mut haben, Regeln anzupassen. Das ist kein Rückschritt, es ist die Anerkennung, dass sich die Realität schneller verändert hat als die Gesetzgebung.
Wir brauchen Regulierung, die schützt, ohne zu lähmen, Anreize, die den Wandel beschleunigen, und Freiräume, die es Verteidigern erlauben, der Bedrohung voraus zu sein. Sich selbst einzuschränken, während die Gegenseite aufrüstet, ist kein Vorsichtsprinzip. Es ist ein strategisches Handicap.
Der Knall: Chancen freisprengen statt Grundfesten einreißen
Die KI-Disruption wird transformieren, wie wir leben und arbeiten. In vielerlei Hinsicht hat sie das bereits. Mit dem Fortschritt der Technologie werden wir bald Milliarden potenzielle Softwareentwickler haben und daraus resultierend eine unvorstellbare Anzahl neuer Anwendungen. Doch dieselbe Mathematik gilt für Cyberkriminelle.
Es liegt an uns, das Gesamtbild zu erfassen. Wer nur auf einzelne Brandherde schaut, wie Laienentwickler, Kriminelle und die Regulatorik, verpasst die eigentliche Dynamik. Diese drei Stufen sind eine einzige Kettenreaktion. Nur wenn wir sie als solche behandeln – mit Kapazität statt nur Regulierung, mit Incentives statt Bremsen, mit gezielter Deregulierung statt starrer Auflagen – können wir sicherstellen, dass die Explosion, die KI verursacht, Innovation freisetzt, statt bestehende Grundfesten einzureißen.
Explosion in drei Stufen: Die Folgen der KI-Disruption
27.02.2026
Von Sergej Epp, Global CISO bei Sysdig
Künstliche Intelligenz treibt den organisatorischen Wandel in einer Weise voran, wie wir es seit dem Aufkommen des Internets nicht mehr gesehen haben. Aber jede Disruption dieser Art bringt auch Warnsignale mit sich. Bei der KI-Disruption blinken sie alle gleichzeitig – in der Softwareentwicklung, in der Cyberkriminalität und in der Regulatorik. Das Problem: Wir behandeln jedes Signal einzeln. Allerdings sind diese drei Entwicklungen keine separaten Phänomene - sie sind die Stufen einer einzigen Explosion. Wer nur eine dieser Stufen sieht, statt das große Ganze zu betrachten, versteht die Detonation nicht.
Stufe 1: Das Pulverfass der Programmierer
KI macht das Handwerk der Softwareentwicklung einsteigerfreundlicher als jemals zuvor. Statt mit Code entstehen Anwendungen im Gespräch mit einem KI-Chatbot – schnell, intuitiv und ohne jede Sicherheitsprüfung. Genau das war der Hit auf der Geburtstagsfeier meines Sohnes: Ein paar Teenager entwickelten innerhalb weniger Stunden per “Vibe Coding” eine Handvoll Applikationen und stellten sie direkt der Öffentlichkeit zur Verfügung.
Was für die Jungs ein Partytrick war, lässt bei Sicherheitsverantwortlichen die Alarmglocken schrillen. Denn dasselbe passiert längst in Unternehmen: Mitarbeiter, die noch nie programmiert haben, nutzen KI, um eigene Tools zu bauen – mit den besten Absichten, aber ohne jedes Sicherheitsbewusstsein. Das Problem ist also, dass der Code zwar funktioniert, aber nicht sicher ist. Und das ist das gefährlichste Ergebnis, das KI liefern kann: Software, die gut genug aussieht, um vertrauenswürdig zu wirken.
Gründliches Testen und das Aufspüren von Schwachstellen erfordert Zeit und Know-how – beides bleibt bei der Laienentwicklung verständlicherweise auf der Strecke. Wir stehen vor einem Paradoxon: Die Demokratisierung der Entwicklung erzeugt eine Explosion der Angriffsfläche.
Stufe 2: Der kriminelle Funkenregen
Unternehmen aller Art setzen mittlerweile auf KI. Laut einer aktuellen Bitkom-Studie nutzt bereits ein Drittel aller deutschen Unternehmen die Technologie. Warum auch nicht? KI erlaubt es, Prozesse intelligent zu automatisieren, Workflows zu optimieren und Ressourcen besser einzusetzen. Doch was für legitime Unternehmen gilt, gilt ebenso für die florierende Schattenwirtschaft der Cyberkriminalität.
Cyberkriminelle Gruppen professionalisieren sich seit Jahren – man denke nur an das Ausmaß der Machenschaften von Lockbit, bevor sie durch Strafverfolgungsbehörden zerschlagen wurden. KI skaliert solche Operationen nun um ein Vielfaches. Ein Beispiel aus dem vergangenen Jahr: Angreifer nutzten eine falsch konfigurierte Open-WebUI-Instanz, eine weit verbreitete Open-Source-KI-Schnittstelle, um eine nahezu vollständig KI-generierte Payload auszuliefern. Das Sysdig Threat Research Team dokumentierte zudem einen Fall, in dem Angreifer innerhalb von nur acht Minuten administrativen Zugriff auf eine Cloud-Umgebung erlangten. KI beschleunigte dabei die Aufklärung, die Eskalation der Rechte und sogar die autonome Entscheidungsfindung in Echtzeit.
Noch nie war es derart einfach, Deepfakes zu erstellen, Phishing-Kampagnen zu orchestrieren und Malware zu programmieren. Die gefährlichsten Hacker der kommenden Jahre werden keine Programmierer sein - sondern Prompt Engineers.
Stufe 3: Die regulatorische Rauchwolke
Der EU AI Act hat große Ambitionen, vermutlich die größten weltweit. Der Gedanke dahinter ist nachvollziehbar. Doch Regulierung allein schafft weder Innovation noch Sicherheit. Und hier liegt Europas eigentliches Problem: Wir haben reguliert, bevor wir verstanden haben, was KI wirklich kann. Teile des Regelwerks adressieren eine Welt, die es so nicht mehr gibt.
Die notwendigen Infrastrukturen für souveräne KI-Entwicklung, für europäische Foundation Models, für unabhängige Prüf- und Forschungskapazitäten – all das steckt noch in den Anfängen. Wer reguliert, aber nicht gleichzeitig baut, schreibt Spielregeln für ein Spiel, an dem er nicht teilnimmt. Das Ergebnis: Die Regulierung wird zum Wunschzettel an andere Märkte.
Europa braucht deshalb drei Dinge gleichzeitig. Erstens: Kapazitätsaufbau. Massive Investitionen in eigene KI-Sicherheitsforschung, -Prüfinfrastruktur und souveräne Technologiekompetenz, damit wir nicht nur regulieren, sondern verstehen, was wir regulieren. Zweitens: Externen Ansporn. Unternehmen brauchen positive Anreize, KI so schnell wie möglich einzusetzen und ihre Prozesse auf diese neue Welt umzustellen. Wer die eigene Wirtschaft nicht befähigt, KI produktiv zu nutzen, verliert nicht nur an Wettbewerbsfähigkeit, sondern lässt auch das beste Gegenmittel gegen KI-gestützte Angriffe liegen. Drittens: Gezielte Deregulierung. Dort, wo reguliert wurde, bevor klar war, was KI leisten kann, müssen wir den Mut haben, Regeln anzupassen. Das ist kein Rückschritt, es ist die Anerkennung, dass sich die Realität schneller verändert hat als die Gesetzgebung.
Wir brauchen Regulierung, die schützt, ohne zu lähmen, Anreize, die den Wandel beschleunigen, und Freiräume, die es Verteidigern erlauben, der Bedrohung voraus zu sein. Sich selbst einzuschränken, während die Gegenseite aufrüstet, ist kein Vorsichtsprinzip. Es ist ein strategisches Handicap.
Der Knall: Chancen freisprengen statt Grundfesten einreißen
Die KI-Disruption wird transformieren, wie wir leben und arbeiten. In vielerlei Hinsicht hat sie das bereits. Mit dem Fortschritt der Technologie werden wir bald Milliarden potenzielle Softwareentwickler haben und daraus resultierend eine unvorstellbare Anzahl neuer Anwendungen. Doch dieselbe Mathematik gilt für Cyberkriminelle.
Es liegt an uns, das Gesamtbild zu erfassen. Wer nur auf einzelne Brandherde schaut, wie Laienentwickler, Kriminelle und die Regulatorik, verpasst die eigentliche Dynamik. Diese drei Stufen sind eine einzige Kettenreaktion. Nur wenn wir sie als solche behandeln – mit Kapazität statt nur Regulierung, mit Incentives statt Bremsen, mit gezielter Deregulierung statt starrer Auflagen – können wir sicherstellen, dass die Explosion, die KI verursacht, Innovation freisetzt, statt bestehende Grundfesten einzureißen.
