这是indexloc提供的服务,不要输入任何密码
Weiter zu
Cloud Composer

Cloud Composer

Vollständig verwalteter, auf Apache Airflow basierender Dienst für die Workflow-Orchestrierung

Neukunden erhalten eine Gutschrift von 300 $ für Composer oder andere Google Cloud-Produkte in den ersten 90 Tagen.

  • Erstellung, Planung und Überwachung von Pipelines, die sich über Hybrid- und Multi-Cloud-Umgebungen erstrecken

  • Basiert auf dem Open-Source-Projekt Apache Airflow und wird in der Programmiersprache Python betrieben

  • Nutzerfreundlichkeit und keine Anbieterbindung

  • Neue Unterstützung für Apache Airflow 3 (in der Vorschau)

Vorteile

Vollständig verwaltete Workflow-Orchestrierung

Cloud Composer ist vollständig verwaltet und mit Apache Airflow kompatibel. Sie müssen sich also nicht mehr mit der Bereitstellung von Ressourcen befassen, sondern können in Ruhe Workflows erstellen, planen und überwachen.

Einbindung in andere Google Cloud-Produkte

Dank der durchgängigen Einbindung von Google Cloud-Produkten, einschließlich BigQuery, Dataflow, Dataproc, Datastore, Cloud Storage, Pub/Sub und AI Platform, können Nutzer ihre Pipeline vollständig orchestrieren.

Unterstützung von Hybrid- und Multi-Cloud-Architekturen

Erstellen, planen und überwachen Sie Ihre Workflows über ein einziges Orchestrierungstool. Dabei kann Ihre Pipeline lokal, in mehreren Clouds oder vollständig innerhalb von Google Cloud existieren.

Wichtige Features

Wichtige Features

Hybrid- und Multi-Cloud

Orchestrierte Workflows schlagen Brücken zwischen lokaler Infrastruktur und öffentlichen Clouds. Sie können dies nutzen, um den Übergang in die Cloud zu erleichtern oder bei einer hybriden Datenumgebung zu bleiben. Erstellen Sie Workflows, deren Daten, Prozesse und Dienste aus mehreren Clouds stammen können, und schaffen Sie so eine einheitliche Datenumgebung.

Open Source

Cloud Composer basiert auf Apache Airflow. Die Nutzer sind dadurch flexibel und nicht an einen Anbieter gebunden Dieses Projekt, an dem sich auch Google beteiligt, ist anbieterunabhängig und mit vielen Plattformen kompatibel, zu denen durch die wachsende Airflow-Community in Zukunft noch weitere hinzukommen werden.

Einfache Orchestrierung

Cloud Composer-Pipelines werden mithilfe von Python als gerichtete azyklische Graphen (Directed Acyclic Graphs, DAGs) konfiguriert. So wird eine einfache Anwendung für alle Nutzer garantiert. Greifen Sie per Mausklick direkt auf eine umfangreiche Connector-Bibliothek zu und erzeugen Sie mehrere grafische Darstellungen des Workflows in Aktion. Dadurch wird die Fehlerbehebung besonders einfach. Dank automatischer Synchronisierung der gerichteten azyklischen Graphen bleiben Ihre Jobs im Zeitplan.

Daten-Workflows besser erstellen, verwalten und überwachen

Zu den wichtigsten Verbesserungen gehören die DAG-Versionsverwaltung für Prüfbarkeit und zuverlässige Rollbacks sowie vom Scheduler verwaltete Backfills für eine einfachere Aufbereitung historischer Daten. Eine neue API und ein neues SDK für die Ausführung von Aufgaben ebnen den Weg für zukünftige Unterstützung mehrerer Sprachen und isolierte Aufgabenumgebungen. Nutzer profitieren von einer schnelleren, modernen, auf React basierenden Benutzeroberfläche mit verbesserter Navigation. Die ereignisgesteuerte Planung zielt auf reaktivere, nahezu in Echtzeit ausgeführte Pipelines ab. Der Edge Executor optimiert die remote Ausführung von Aufgaben und eine geteilte CLI (airflow/airflowctl) bietet eine übersichtlichere Befehlszeile für Entwicklung und Betrieb.

Dokumentation

Dokumentation

Google Cloud Basics

Cloud Composer

Hier finden Sie eine Übersicht über eine Cloud Composer-Umgebung und die Google Cloud-Produkte, die für ein Deployment von Apache Airflow verwendet werden.
Architecture

CI/CD-Pipeline für Ihren Datenverarbeitungsworkflow verwenden

In dieser Anleitung wird beschrieben, wie Sie mit verwalteten Produkten in Google Cloud eine CI-/CD-Pipeline für die Datenverarbeitung einrichten.
Pattern

Private-IP-Umgebung in Cloud Composer

Hier finden Sie Informationen zum Verwenden einer privaten IP-Umgebung in Cloud Composer.
Tutorial

DAGs (Workflows) schreiben

In dieser Anleitung erfahren Sie, wie Sie einen gerichteten azyklischen Graphen (DAG) in Apache Airflow für die Ausführung in einer Cloud Composer-Umgebung schreiben.
Tutorial

Google Cloud Skills Boost: Data Engineering in Google Cloud

Diese viertägige Schulung mit Kursleiter bietet den Teilnehmern eine praktische Einführung in den Entwurf und die Erstellung von Datenpipelines in Google Cloud.

Suchen Sie nach etwas anderem?

Anwendungsfälle

Anwendungsfälle

Anwendungsfall
Anwendungsfälle für Cloud Composer
  • Orchestrierung von Datenpipelines (ETL/ELT): Automatisierung komplexer Daten-Workflows, einschließlich Extraktions-, Transformations- und Ladeprozessen (ETL/ELT) und Verwaltung von Abhängigkeiten zwischen Aufgaben.
  • MLOps und Machine-Learning-Workflows: Orchestrierung des gesamten ML-Lebenszyklus, von Datenvorbereitung und Modelltraining/Modellbewertung bis hin zur Bereitstellung und zum Monitoring.
  • Automatisierung von Business Intelligence (BI): Planen von Datenextraktionen für BI-Tools, automatisierte Berichterstellung und Aktualisierung von Dashboards.
  • Automatisierung von Infrastruktur und DevOps: Automatisierung von Cloud-Infrastrukturaufgaben wie Bereitstellung und Außerbetriebnahme von Clustern, Einreichen von Jobs und Verwalten von CI/CD-Releaseprozessen.
  • Hybride und Multi-Cloud-Datenintegration: Datenflüsse aus verschiedenen Quellen, einschließlich anderer Cloud-Anbieter und lokaler Rechenzentren, koordinieren, um einheitliche Datasets zu erstellen.
Lösung erstellen
Welches Problem möchten Sie lösen?
What you'll get:
Detaillierte Anleitung
Referenzarchitektur
Vorkonfigurierte Lösungen
Dieser Dienst wurde mit Vertex AI erstellt. Nutzer müssen mindestens 18 Jahre alt sein, um ihn verwenden zu können. Geben Sie keine vertraulichen oder personenbezogenen Daten ein.

Alle Features

Alle Features

Multi-Cloud
Sie erstellen Workflows, deren Daten, Prozesse und Dienste aus mehreren Clouds stammen können, und schaffen so eine einheitliche Datenumgebung.
Open Source
Cloud Composer basiert auf Apache Airflow. Die Nutzer sind dadurch flexibel und nicht an einen Anbieter gebunden.
Hybrid
Orchestrierte Workflows schlagen Brücken zwischen lokaler Infrastruktur und öffentlichen Clouds. Sie können dies nutzen, um den Übergang in die Cloud zu erleichtern oder bei einer hybriden Datenumgebung zu bleiben.
Eingebunden
Dank der Einbindung in BigQuery, Dataflow, Dataproc, Datastore, Cloud Storage, Pub/Sub, AI Platform und weitere Dienste können Sie End-to-End-Google Cloud-Arbeitslasten koordinieren.
Programmiersprache Python
Sie können mit Ihren vorhandenen Python-Kenntnissen Workflows in Cloud Composer dynamisch erstellen und planen.
Zuverlässigkeit
Mit übersichtlichen Diagrammen zum Monitoring und zur Fehlerbehebung können Sie der Ursache eines Problems mühelos auf die Spur kommen und Ihre Workflows noch stabiler gestalten.
Vollständig verwaltet
Cloud Composer ist vollständig verwaltet. Sie müssen sich also nicht mit der Bereitstellung von Ressourcen befassen, sondern können in Ruhe Ihre Workflows erstellen, planen und überwachen.
Netzwerk und Sicherheit

Beim Erstellen einer Umgebung bietet Cloud Composer die folgenden Konfigurationsoptionen: Private IP, Freigegebene VPC, VPC Service Control, CMEK-Verschlüsselung und mehr.

Preise

Preise

Die Preise für Cloud Composer sind nutzungsabhängig. Sie richten sich nach dem Verbrauch in vCPU/Stunde, GB/Monat und übertragene GB/Monat. Da Cloud Composer mehrere Google Cloud-Produkte als Bausteine nutzt, gibt es verschiedene Preiseinheiten.

Die Preise sind für alle Verbrauchsebenen und dauerhaften Nutzungsebenen einheitlich. Weitere Informationen finden Sie in der Preisübersicht.

Gleich loslegen

Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.

Cloud Composer
Google Cloud