Databricks stellt Lakeflow Designer für Data Analysts vor

Databricks, das Daten- und KI- Unternehmen, hat auf dem Data & AI Summit 2025 die bevorstehende Preview von Lakeflow Designer angekündigt. Diese neue No-Code-ETL-Funktion ermöglicht es nicht-technischen Anwendern, mithilfe einer visuellen Drag-and-Drop-Oberfläche und einem GenAI-Assistenten in natürlicher Sprache produktionsreife Datenpipelines zu erstellen. Lakeflow Designer wird von Lakeflow unterstützt, der einheitlichen Lösung für Data Engineers zum schnelleren Aufbau zuverlässiger Datenpipelines mit allen geschäftskritischen Daten, die jetzt allgemein verfügbar ist.

Traditionell standen Unternehmen vor einem großen Dilemma: Entweder ließen sie Analysten Pipelines mit No-Code-/Low-Code-Tools erstellen und verzichteten dabei auf Governance, Skalierbarkeit und Zuverlässigkeit. Oder sie haben sich auf technische Data-Engineering-Teams verlassen, um produktionsreife Pipelines zu programmieren, aber diese Teams sind überlastet und haben einen großen Arbeitsrückstand. Letztendlich entscheiden sich die meisten Unternehmen für eine Kombination aus beiden Ansätzen, was zu komplexen Umgebungen führt, die verwaltet und gewartet werden müssen. Was datengesteuerte Unternehmen wirklich wollen, ist das Beste aus beiden Welten: No-Code-Pipelines mit Governance, Skalierbarkeit und Zuverlässigkeit.

„Unternehmen stehen unter großem Druck, ihre KI-Bemühungen zu skalieren. Die Bereitstellung hochwertiger Daten an den richtigen Stellen beschleunigt den Weg zur Entwicklung intelligenter Anwendungen“, sagt Ali Ghodsi, Mitbegründer und CEO von Databricks. „Mit Lakeflow Designer können mehr Mitarbeiter in einem Unternehmen produktionsreife Pipelines erstellen, sodass Teams Ideen schneller in die Praxis umsetzen können.“

Lakeflow Designer: AI-Native Drag-and-Drop Datenaufbereitung für den Business Analyst
Mit dem neuen Lakeflow Designer können Business Analysts ohne Programmierkenntnisse ETL-Pipelines mit natürlicher Sprache und einer Drag-and-Drop-Benutzeroberfläche erstellen, die dieselbe Skalierbarkeit, Governance und Wartbarkeit bieten wie die von Data Engineers entwickelten Pipelines. Dank der Unterstützung durch Lakeflow, Unity Catalog und Databricks Assistant beseitigt Lakeflow Designer die Kluft zwischen Code- und No-Code-Tools. Mit diesem neuen Ansatz erhalten nicht-technische Benutzer die Geschwindigkeit und Flexibilität, die sie zur Lösung von Geschäftsproblemen benötigen, ohne Data Engineers mit Wartungsproblemen und Governance-Aufgaben zu belasten.

main_image.png

Bildunterschrift: Der neue Lakeflow Designer bietet eine No-Code-Erfahrung für die Implementierung von ETL. (Quelle: Databricks 2025)

Einführung zusätzlicher Lakeflow-Funktionen

Lakeflow wird allgemein verfügbar: Heute wurde Lakeflow allgemein verfügbar und bietet eine einheitliche Data Engineering-Lösung von der Erfassung über die Transformation bis hin zur Orchestrierung. Insbesondere die neuen deklarativen Pipeline-Funktionen von Lakeflow ermöglichen es Data Engineers, End-to-End-Produktionspipelines in SQL oder Python zu erstellen, ohne die Infrastruktur verwalten zu müssen.

Neue IDE für Data Engineering: Lakeflow stellt eine brandneue Entwicklungsumgebung vor, die die Entwicklung von Datenpipelines durch KI-gestützte Codierung, Debugging und Validierung in einer integrierten Benutzeroberfläche beschleunigt.

Neue Ingestion Konnektoren: Neue Point-and-Click-Ingestionskonnektoren für Lakeflow Connect werden für Google Analytics, ServiceNow, SQL Server, SharePoint, PostgreSQL und SFTP eingeführt und ergänzen die bereits verfügbaren Konnektoren für Salesforce Platform und Workday Reports.

Direktes Schreiben in den Unity Catalog mit Zerobus: Mit Zerobus können Entwickler große Mengen an Ereignisdaten mit nahezu Echtzeit-Latenz in ihr Lakehouse schreiben, ohne zusätzliche Infrastruktur wie einen Message Bus verwalten zu müssen. Diese optimierte, serverlose Infrastruktur bietet skalierbare Leistung für IoT-Ereignisse, Clickstream-Daten, Telemetrie und andere ereignisgesteuerte Anwendungsfälle.

Kundenbeispiele

„Der neue Editor vereint alles an einem Ort – Code, Pipeline-Diagramm, Ergebnisse, Konfiguration und Fehlerbehebung. Kein Jonglieren mehr zwischen Browser-Tabs und kein Verlust des Kontexts. Die Entwicklung fühlt sich fokussierter und effizienter an. Ich kann die Auswirkungen jeder Codeänderung direkt sehen. Mit einem Klick gelange ich direkt zur fehlerhaften Zeile, was die Fehlersuche beschleunigt. Alles ist miteinander verbunden – Code mit Daten, Code mit Tabellen, Tabellen mit Code. Der Wechsel zwischen Pipelines ist einfach, und Funktionen wie automatisch konfigurierte Utility-Ordner reduzieren die Komplexität. So sollte Pipeline-Entwicklung meiner Meinung nach funktionieren.“ — Chris Sharratt, Data Engineer bei Rolls-Royce.

„Mit dem Salesforce-Konnektor von Lakeflow Connect können wir für Porsche eine wichtige Lücke in Bezug auf Benutzerfreundlichkeit und Preis schließen. Auf Kundenseite können wir ein völlig neues Kundenerlebnis schaffen, das die Bindung zwischen Porsche und dem Kunden durch eine einheitliche und nicht fragmentierte Customer Journey stärkt,” sagt Lucas Salzburger, Project Manager bei Porsche Holding Salzburg.

„Joby kann unsere Fertigungsagenten mit Lakeflow Connect Zerobus nutzen, um Gigabytes an Telemetriedaten pro Minute direkt in unser Lakehouse zu übertragen und so die Zeit bis zur Gewinnung von Erkenntnissen zu verkürzen – alles mit Databricks Lakeflow und der Data Intelligence Platform.“ – Dominik Müller, Factory Systems Lead bei Joby Aviation.

Verfügbarkeit

Auf dem Data + AI Summit, bringt Databricks Lakeflow in die allgemeine Verfügbarkeit, die neue IDE für Data Engineering geht in die Public Preview, neue Ingestionskonnektoren in verschiedenen Release-Stufen und Zerobus in die Private Preview. Lakeflow Designer wird kurz nach dem Data + AI Summit in die Private Preview gehen.


 

Databricks stellt Lakeflow Designer für Data Analysts vor

Databricks, das Daten- und KI- Unternehmen, hat auf dem Data & AI Summit 2025 die bevorstehende Preview von Lakeflow Designer angekündigt. Diese neue No-Code-ETL-Funktion ermöglicht es nicht-technischen Anwendern, mithilfe einer visuellen Drag-and-Drop-Oberfläche und einem GenAI-Assistenten in natürlicher Sprache produktionsreife Datenpipelines zu erstellen. Lakeflow Designer wird von Lakeflow unterstützt, der einheitlichen Lösung für Data Engineers zum schnelleren Aufbau zuverlässiger Datenpipelines mit allen geschäftskritischen Daten, die jetzt allgemein verfügbar ist.

Traditionell standen Unternehmen vor einem großen Dilemma: Entweder ließen sie Analysten Pipelines mit No-Code-/Low-Code-Tools erstellen und verzichteten dabei auf Governance, Skalierbarkeit und Zuverlässigkeit. Oder sie haben sich auf technische Data-Engineering-Teams verlassen, um produktionsreife Pipelines zu programmieren, aber diese Teams sind überlastet und haben einen großen Arbeitsrückstand. Letztendlich entscheiden sich die meisten Unternehmen für eine Kombination aus beiden Ansätzen, was zu komplexen Umgebungen führt, die verwaltet und gewartet werden müssen. Was datengesteuerte Unternehmen wirklich wollen, ist das Beste aus beiden Welten: No-Code-Pipelines mit Governance, Skalierbarkeit und Zuverlässigkeit.

„Unternehmen stehen unter großem Druck, ihre KI-Bemühungen zu skalieren. Die Bereitstellung hochwertiger Daten an den richtigen Stellen beschleunigt den Weg zur Entwicklung intelligenter Anwendungen“, sagt Ali Ghodsi, Mitbegründer und CEO von Databricks. „Mit Lakeflow Designer können mehr Mitarbeiter in einem Unternehmen produktionsreife Pipelines erstellen, sodass Teams Ideen schneller in die Praxis umsetzen können.“

Lakeflow Designer: AI-Native Drag-and-Drop Datenaufbereitung für den Business Analyst
Mit dem neuen Lakeflow Designer können Business Analysts ohne Programmierkenntnisse ETL-Pipelines mit natürlicher Sprache und einer Drag-and-Drop-Benutzeroberfläche erstellen, die dieselbe Skalierbarkeit, Governance und Wartbarkeit bieten wie die von Data Engineers entwickelten Pipelines. Dank der Unterstützung durch Lakeflow, Unity Catalog und Databricks Assistant beseitigt Lakeflow Designer die Kluft zwischen Code- und No-Code-Tools. Mit diesem neuen Ansatz erhalten nicht-technische Benutzer die Geschwindigkeit und Flexibilität, die sie zur Lösung von Geschäftsproblemen benötigen, ohne Data Engineers mit Wartungsproblemen und Governance-Aufgaben zu belasten.

main_image.png

Bildunterschrift: Der neue Lakeflow Designer bietet eine No-Code-Erfahrung für die Implementierung von ETL. (Quelle: Databricks 2025)

Einführung zusätzlicher Lakeflow-Funktionen

Lakeflow wird allgemein verfügbar: Heute wurde Lakeflow allgemein verfügbar und bietet eine einheitliche Data Engineering-Lösung von der Erfassung über die Transformation bis hin zur Orchestrierung. Insbesondere die neuen deklarativen Pipeline-Funktionen von Lakeflow ermöglichen es Data Engineers, End-to-End-Produktionspipelines in SQL oder Python zu erstellen, ohne die Infrastruktur verwalten zu müssen.

Neue IDE für Data Engineering: Lakeflow stellt eine brandneue Entwicklungsumgebung vor, die die Entwicklung von Datenpipelines durch KI-gestützte Codierung, Debugging und Validierung in einer integrierten Benutzeroberfläche beschleunigt.

Neue Ingestion Konnektoren: Neue Point-and-Click-Ingestionskonnektoren für Lakeflow Connect werden für Google Analytics, ServiceNow, SQL Server, SharePoint, PostgreSQL und SFTP eingeführt und ergänzen die bereits verfügbaren Konnektoren für Salesforce Platform und Workday Reports.

Direktes Schreiben in den Unity Catalog mit Zerobus: Mit Zerobus können Entwickler große Mengen an Ereignisdaten mit nahezu Echtzeit-Latenz in ihr Lakehouse schreiben, ohne zusätzliche Infrastruktur wie einen Message Bus verwalten zu müssen. Diese optimierte, serverlose Infrastruktur bietet skalierbare Leistung für IoT-Ereignisse, Clickstream-Daten, Telemetrie und andere ereignisgesteuerte Anwendungsfälle.

Kundenbeispiele

„Der neue Editor vereint alles an einem Ort – Code, Pipeline-Diagramm, Ergebnisse, Konfiguration und Fehlerbehebung. Kein Jonglieren mehr zwischen Browser-Tabs und kein Verlust des Kontexts. Die Entwicklung fühlt sich fokussierter und effizienter an. Ich kann die Auswirkungen jeder Codeänderung direkt sehen. Mit einem Klick gelange ich direkt zur fehlerhaften Zeile, was die Fehlersuche beschleunigt. Alles ist miteinander verbunden – Code mit Daten, Code mit Tabellen, Tabellen mit Code. Der Wechsel zwischen Pipelines ist einfach, und Funktionen wie automatisch konfigurierte Utility-Ordner reduzieren die Komplexität. So sollte Pipeline-Entwicklung meiner Meinung nach funktionieren.“ — Chris Sharratt, Data Engineer bei Rolls-Royce.

„Mit dem Salesforce-Konnektor von Lakeflow Connect können wir für Porsche eine wichtige Lücke in Bezug auf Benutzerfreundlichkeit und Preis schließen. Auf Kundenseite können wir ein völlig neues Kundenerlebnis schaffen, das die Bindung zwischen Porsche und dem Kunden durch eine einheitliche und nicht fragmentierte Customer Journey stärkt,” sagt Lucas Salzburger, Project Manager bei Porsche Holding Salzburg.

„Joby kann unsere Fertigungsagenten mit Lakeflow Connect Zerobus nutzen, um Gigabytes an Telemetriedaten pro Minute direkt in unser Lakehouse zu übertragen und so die Zeit bis zur Gewinnung von Erkenntnissen zu verkürzen – alles mit Databricks Lakeflow und der Data Intelligence Platform.“ – Dominik Müller, Factory Systems Lead bei Joby Aviation.

Verfügbarkeit

Auf dem Data + AI Summit, bringt Databricks Lakeflow in die allgemeine Verfügbarkeit, die neue IDE für Data Engineering geht in die Public Preview, neue Ingestionskonnektoren in verschiedenen Release-Stufen und Zerobus in die Private Preview. Lakeflow Designer wird kurz nach dem Data + AI Summit in die Private Preview gehen.