Ein Agent ist nicht genug
Matthias Ingerfeld, Area VP & TechGM leading Field Engineering in Central EMEA bei Databricks
Die KI-Transformation im Unternehmensumfeld ist in vollem Gang. Die Diskussionen werden nicht länger über isolierte Chatbots geführt, die am Rande der Unternehmen agieren. Stattdessen dreht sie sich um die rasche Verbreitung von Multi-Agenten-Systemen als neues zugrundeliegendes Betriebssystem, mit dem Unternehmen ihre digitalen Workflows kreieren, ausführen und skalieren. Es geht nicht mehr darum, das am besten performende KI-Modell für jeden Anwendungsfall zu finden, sondern das Modell, das am besten zum Anwendungsfall passt. Vor allem größere Unternehmen benötigen nicht das aktuellste, beste und teuerste Modell, sie benötigen vielmehr das Modell, das ihnen Domänenwissen für ihr Geschäftsmodell bereitstellt und zwar verlässlich. Am Ende treibt diese Transformation nicht ein einziges Modell oder ein einziger Anbieter voran, sondern eine Vielzahl von Modellen.
Aktuelle Daten des Databricks State of AI Agents Reports, basierend auf aggregierten und anonymisierten Daten von 20.000 Organisationen weltweit, zeigen, wie schnell dieser Wandel stattfindet. In wenigen Monaten hat die Nutzung von Multi-Agenten-Systemen um 327 Prozent zugenommen. Im gleichen Zeitraum nutzen 78 Prozent der untersuchten Unternehmen zwei oder mehr LLM-Familien, darunter GPT, Claude, Llama, Gemini und Qwen. Dieser Trend führt dazu, dass Unternehmen nicht mehr länger auf nur ein Modell zurückgreifen, um jede Herausforderung aufzulösen. Im Gegenteil: Sie bauen flexible KI-Stacks auf, die verschiedene Modelle und ihre Stärken für bestimmte Anwendungsfälle kombinieren.
Wie die Automatisierung die Skalierung beeinflusst
Unternehmen, die als Early Adopter bezeichnet werden können, kreieren Multi-Agenten-Systeme, die sich aus spezialisierten Agenten zusammensetzen. Diese arbeiten zusammen sowie planen und führen autonom komplexe Workflows über verschiedene Wissensgebiete aus. Diese Systeme orchestrieren die an sie gestellten Aufgaben, indem sie Ziele in Unteraufgaben aufbrechen, diese an Domänenspezifische Agenten auslagern, strukturierte und unstrukturierte Daten integrieren und kontinuierlich ihre “Outputs” anpassen.
Die Erfahrung aus verschiedenen Projekten verdeutlicht, dass KI bereits tief in kritische Workflows eingebettet ist. Unternehmen streben danach, Mehrwert sowohl für strukturierte Datenbanken und große Mengen an unstrukturierten Daten zu schaffen - von Dokumenten und E-Mails bis hin zu Anwendungslogs. Viele Organisationen wollen Daten aus Datenbanken und anderen Repositorien automatisch herausziehen. Ein erheblicher Teil der Anwendungsfälle für generative KI konzentriert sich auf die Automatisierung routinemäßiger, aber dennoch wichtiger kundenorientierter Aufgaben. 40 Prozent von ihnen hängen mit Kundenerfahrungen zusammen.
Die zunehmende Verbreitung dieser Funktionen hat auch Auswirkungen auf die zugrunde liegende Dateninfrastruktur. KI-Agenten sind nicht mehr nur reine Datenkonsumenten, sie werden zu aktiven Teilnehmern im Datenbankbetrieb. In bestimmten Umgebungen ist der Anteil der von KI-Agenten erstellten Datenbanken innerhalb weniger Jahre von einem vernachlässigbaren Niveau auf eine überwältigende Mehrheit gestiegen. Den Ergebnissen des Berichts zufolge werden mittlerweile 80 Prozent der Datenbanken von KI-Agenten erstellt. In Test- und Entwicklungsumgebungen ist dieser Anteil sogar noch höher: Dort werden 97 Prozent von ihnen erstellt.
Angesichts dieser grundlegenden Veränderung in der Bereitstellung und Verwaltung von Datenbanken müssen Unternehmen neue Architekturen für OLTP-Datenbanken (Online Transaction Processing) wie Lakebase einführen. Diese neuen Architekturen trennen Rechenleistung und Speicher, ermöglichen eine unabhängige Skalierung und Branching und vereinfachen so die Arbeitsabläufe mit Geschäftsdaten. Diese neue Kategorie von Datenbanken macht fragile ETL-Pipelines (Extract, Transform, Load) und komplexe Infrastrukturen überflüssig, sodass Teams schneller arbeiten und intelligente Anwendungen auf einer einheitlichen Datenplattform bereitstellen können.
Bereits heute sind KI-Agenten für den Aufbau der überwiegenden Mehrheit der Umgebungen für Entwicklungs- und Testdatenbanken verantwortlich. Diese Verlagerung unterstreicht, dass KI nicht nur in Front-End-Anwendungen, sondern auch im Kern der Unternehmensdatenarchitektur verankert wird.
Während KI darüber hinaus mit immer mehr BI-Tools verbunden wird, müssen Datenteams zusätzlich mit Diensten arbeiten, die ihnen dialogorientierte Analysen ermöglichen. Ein solcher Dienst ist AI/BI Genie. Er nutzt die Namen und Beschreibungen aus kommentierten Tabellen und Spalten, um Fragen in natürlicher Sprache in eine entsprechende SQL-Abfrage umzuwandeln und sofortige Erkenntnisse aus den Daten zu gewinnen. Alles zusammen hilft Unternehmen, mehr aus ihren Daten zu schöpfen und mehr KI-gesteuerte geschäftskritische Anwendungsfälle zu realisieren.
Governance erhöht die Flexibilität
Die schnelle Integration von KI birgt jedoch auch Risiken. KI-Projekte vom Experimentierstadium erfolgreich in die Produktion zu überführen, bedarf mehr als einer starken Modell-Performance. Vielmehr sind robuste Bewertungs- und Governance-Rahmenwerke gefragt. Unternehmen, die die Modellleistungen systematisch bewerten, erzielen fast sechsmal so viele erfolgreiche Implementierung in den produktiven Betrieb. Über die Bewertung hinaus bringen Unternehmen, die in KI-Governance investieren, noch mehr Projekte in großem Maßstab in die Produktion. Dem Bericht zufolge überführen Unternehmen mit starker KI-Governance zwölfmal mehr KI-Initiativen vom Status des Experiments in Live-Produktionsumgebungen.
Dass sich KI-Governance zu einer strategischen Priorität gewandelt hat, kommt nicht überraschend. Ihr Einsatz hat sich innerhalb von neun Monaten versiebenfacht, denn Unternehmen haben erkannt, dass Vertrauen, Transparenz und Verantwortung für eine nachhaltige KI-Einführung unerlässlich sind.
In diesem Umfeld entwickelt sich die Flexibilität der Modelle zum entscheidenden Merkmal ausgereifter KI-Strategien. Verschiedene Modellfamilien eignen sich für unterschiedliche Aufgaben besonders gut. Einige sind besser für denkintensive Workflows geeignet, andere leisten mehr bei der Erstellung mehrsprachiger Inhalte, der Code-Entwicklung oder der domänenspezifischen Zusammenfassung. Durch die Nutzung mehrerer Modellfamilien innerhalb einer einheitlichen Architektur können Unternehmen gleichzeitig Leistung, Kosteneffizienz, Compliance und Ausfallsicherheit optimieren.
Fazit
Führungskräfte und Datenverantwortliche entwickeln KI-Architekturen, die die Modelle und Agenten kombinieren, die sich für bestimmte Aufgaben am besten eignen, auf dem Unternehmenskontext basieren und durch strenge Governance untermauert sind. Volumenreiche, sich wiederholende Prozesse bieten oft den praktischsten Ausgangspunkt, aber das ultimative Ziel ist, KI in die zentralen Wertschöpfungsketten zu integrieren.
Die Unternehmen, die mit KI erfolgreich sind, betrachten die Modellvielfalt als strategischen Vorteil und nicht als Komplexität, die es zu vermeiden gilt. Sie investieren in einheitliche Datenplattformen, die fragile Pipelines und isolierte Infrastrukturen beseitigen. Sie legen von Anfang an Wert auf Bewertung und Governance. Und sie betrachten Multi-Agenten-Systeme nicht als experimentelle Werkzeuge, sondern als grundlegende Komponenten ihres digitalen Betriebsmodells.
Bei der KI-Transformation geht es nicht mehr nur um den Einsatz eines einzigen Chatbots. Es geht darum, ein flexibles Ökosystem von Agenten zu orchestrieren, die unternehmensweit zusammenarbeiten. In dieser neuen Realität ist Modellvielfalt kein vorübergehender Trend, sondern der Lösungsansatz für skalierbare, widerstandsfähige und wirklich differenzierte KI-gesteuerte Organisationen.
Ein Agent ist nicht genug
Matthias Ingerfeld, Area VP & TechGM leading Field Engineering in Central EMEA bei Databricks
Die KI-Transformation im Unternehmensumfeld ist in vollem Gang. Die Diskussionen werden nicht länger über isolierte Chatbots geführt, die am Rande der Unternehmen agieren. Stattdessen dreht sie sich um die rasche Verbreitung von Multi-Agenten-Systemen als neues zugrundeliegendes Betriebssystem, mit dem Unternehmen ihre digitalen Workflows kreieren, ausführen und skalieren. Es geht nicht mehr darum, das am besten performende KI-Modell für jeden Anwendungsfall zu finden, sondern das Modell, das am besten zum Anwendungsfall passt. Vor allem größere Unternehmen benötigen nicht das aktuellste, beste und teuerste Modell, sie benötigen vielmehr das Modell, das ihnen Domänenwissen für ihr Geschäftsmodell bereitstellt und zwar verlässlich. Am Ende treibt diese Transformation nicht ein einziges Modell oder ein einziger Anbieter voran, sondern eine Vielzahl von Modellen.
Aktuelle Daten des Databricks State of AI Agents Reports, basierend auf aggregierten und anonymisierten Daten von 20.000 Organisationen weltweit, zeigen, wie schnell dieser Wandel stattfindet. In wenigen Monaten hat die Nutzung von Multi-Agenten-Systemen um 327 Prozent zugenommen. Im gleichen Zeitraum nutzen 78 Prozent der untersuchten Unternehmen zwei oder mehr LLM-Familien, darunter GPT, Claude, Llama, Gemini und Qwen. Dieser Trend führt dazu, dass Unternehmen nicht mehr länger auf nur ein Modell zurückgreifen, um jede Herausforderung aufzulösen. Im Gegenteil: Sie bauen flexible KI-Stacks auf, die verschiedene Modelle und ihre Stärken für bestimmte Anwendungsfälle kombinieren.
Wie die Automatisierung die Skalierung beeinflusst
Unternehmen, die als Early Adopter bezeichnet werden können, kreieren Multi-Agenten-Systeme, die sich aus spezialisierten Agenten zusammensetzen. Diese arbeiten zusammen sowie planen und führen autonom komplexe Workflows über verschiedene Wissensgebiete aus. Diese Systeme orchestrieren die an sie gestellten Aufgaben, indem sie Ziele in Unteraufgaben aufbrechen, diese an Domänenspezifische Agenten auslagern, strukturierte und unstrukturierte Daten integrieren und kontinuierlich ihre “Outputs” anpassen.
Die Erfahrung aus verschiedenen Projekten verdeutlicht, dass KI bereits tief in kritische Workflows eingebettet ist. Unternehmen streben danach, Mehrwert sowohl für strukturierte Datenbanken und große Mengen an unstrukturierten Daten zu schaffen - von Dokumenten und E-Mails bis hin zu Anwendungslogs. Viele Organisationen wollen Daten aus Datenbanken und anderen Repositorien automatisch herausziehen. Ein erheblicher Teil der Anwendungsfälle für generative KI konzentriert sich auf die Automatisierung routinemäßiger, aber dennoch wichtiger kundenorientierter Aufgaben. 40 Prozent von ihnen hängen mit Kundenerfahrungen zusammen.
Die zunehmende Verbreitung dieser Funktionen hat auch Auswirkungen auf die zugrunde liegende Dateninfrastruktur. KI-Agenten sind nicht mehr nur reine Datenkonsumenten, sie werden zu aktiven Teilnehmern im Datenbankbetrieb. In bestimmten Umgebungen ist der Anteil der von KI-Agenten erstellten Datenbanken innerhalb weniger Jahre von einem vernachlässigbaren Niveau auf eine überwältigende Mehrheit gestiegen. Den Ergebnissen des Berichts zufolge werden mittlerweile 80 Prozent der Datenbanken von KI-Agenten erstellt. In Test- und Entwicklungsumgebungen ist dieser Anteil sogar noch höher: Dort werden 97 Prozent von ihnen erstellt.
Angesichts dieser grundlegenden Veränderung in der Bereitstellung und Verwaltung von Datenbanken müssen Unternehmen neue Architekturen für OLTP-Datenbanken (Online Transaction Processing) wie Lakebase einführen. Diese neuen Architekturen trennen Rechenleistung und Speicher, ermöglichen eine unabhängige Skalierung und Branching und vereinfachen so die Arbeitsabläufe mit Geschäftsdaten. Diese neue Kategorie von Datenbanken macht fragile ETL-Pipelines (Extract, Transform, Load) und komplexe Infrastrukturen überflüssig, sodass Teams schneller arbeiten und intelligente Anwendungen auf einer einheitlichen Datenplattform bereitstellen können.
Bereits heute sind KI-Agenten für den Aufbau der überwiegenden Mehrheit der Umgebungen für Entwicklungs- und Testdatenbanken verantwortlich. Diese Verlagerung unterstreicht, dass KI nicht nur in Front-End-Anwendungen, sondern auch im Kern der Unternehmensdatenarchitektur verankert wird.
Während KI darüber hinaus mit immer mehr BI-Tools verbunden wird, müssen Datenteams zusätzlich mit Diensten arbeiten, die ihnen dialogorientierte Analysen ermöglichen. Ein solcher Dienst ist AI/BI Genie. Er nutzt die Namen und Beschreibungen aus kommentierten Tabellen und Spalten, um Fragen in natürlicher Sprache in eine entsprechende SQL-Abfrage umzuwandeln und sofortige Erkenntnisse aus den Daten zu gewinnen. Alles zusammen hilft Unternehmen, mehr aus ihren Daten zu schöpfen und mehr KI-gesteuerte geschäftskritische Anwendungsfälle zu realisieren.
Governance erhöht die Flexibilität
Die schnelle Integration von KI birgt jedoch auch Risiken. KI-Projekte vom Experimentierstadium erfolgreich in die Produktion zu überführen, bedarf mehr als einer starken Modell-Performance. Vielmehr sind robuste Bewertungs- und Governance-Rahmenwerke gefragt. Unternehmen, die die Modellleistungen systematisch bewerten, erzielen fast sechsmal so viele erfolgreiche Implementierung in den produktiven Betrieb. Über die Bewertung hinaus bringen Unternehmen, die in KI-Governance investieren, noch mehr Projekte in großem Maßstab in die Produktion. Dem Bericht zufolge überführen Unternehmen mit starker KI-Governance zwölfmal mehr KI-Initiativen vom Status des Experiments in Live-Produktionsumgebungen.
Dass sich KI-Governance zu einer strategischen Priorität gewandelt hat, kommt nicht überraschend. Ihr Einsatz hat sich innerhalb von neun Monaten versiebenfacht, denn Unternehmen haben erkannt, dass Vertrauen, Transparenz und Verantwortung für eine nachhaltige KI-Einführung unerlässlich sind.
In diesem Umfeld entwickelt sich die Flexibilität der Modelle zum entscheidenden Merkmal ausgereifter KI-Strategien. Verschiedene Modellfamilien eignen sich für unterschiedliche Aufgaben besonders gut. Einige sind besser für denkintensive Workflows geeignet, andere leisten mehr bei der Erstellung mehrsprachiger Inhalte, der Code-Entwicklung oder der domänenspezifischen Zusammenfassung. Durch die Nutzung mehrerer Modellfamilien innerhalb einer einheitlichen Architektur können Unternehmen gleichzeitig Leistung, Kosteneffizienz, Compliance und Ausfallsicherheit optimieren.
Fazit
Führungskräfte und Datenverantwortliche entwickeln KI-Architekturen, die die Modelle und Agenten kombinieren, die sich für bestimmte Aufgaben am besten eignen, auf dem Unternehmenskontext basieren und durch strenge Governance untermauert sind. Volumenreiche, sich wiederholende Prozesse bieten oft den praktischsten Ausgangspunkt, aber das ultimative Ziel ist, KI in die zentralen Wertschöpfungsketten zu integrieren.
Die Unternehmen, die mit KI erfolgreich sind, betrachten die Modellvielfalt als strategischen Vorteil und nicht als Komplexität, die es zu vermeiden gilt. Sie investieren in einheitliche Datenplattformen, die fragile Pipelines und isolierte Infrastrukturen beseitigen. Sie legen von Anfang an Wert auf Bewertung und Governance. Und sie betrachten Multi-Agenten-Systeme nicht als experimentelle Werkzeuge, sondern als grundlegende Komponenten ihres digitalen Betriebsmodells.
Bei der KI-Transformation geht es nicht mehr nur um den Einsatz eines einzigen Chatbots. Es geht darum, ein flexibles Ökosystem von Agenten zu orchestrieren, die unternehmensweit zusammenarbeiten. In dieser neuen Realität ist Modellvielfalt kein vorübergehender Trend, sondern der Lösungsansatz für skalierbare, widerstandsfähige und wirklich differenzierte KI-gesteuerte Organisationen.
