Erstellen Sie ein offenes, verwaltetes und leistungsstarkes Iceberg-Lakehouse, um erweiterte Analysen und Data Science mit automatisierter Datenverwaltung und integrierter Governance zu ermöglichen.
Features
BigLake Metastore ist ein serverloser Metastore für alle Ihre Iceberg-Tabellen. Engines wie Apache Spark, BigQuery und Drittanbieterplattformen können damit Tabellen erstellen und verwalten. So erhalten Sie eine einheitliche Ansicht Ihrer Daten und Zugriffssteuerungen. BigLake Metastore unterstützt jetzt den Apache Iceberg Rest Catalog (Vorschau) für eine einfache Einbindung in OSS- und Drittanbieter-Engines. Iceberg-Tabellen sind jetzt in AlloyDB (Vorschau) zugänglich, um die Interoperabilität zwischen Transaktions- und Analyseplattformen zu verbessern.
BigLake erweitert die Verwaltungsfunktionen von Google Cloud Storage, sodass Sie die automatische Speicherklasse für eine effiziente Tiering-Speicherung von Cold Data verwenden und in Ihren Speicher-Buckets vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) anwenden können. Der BigLake Metastore ist nativ in den Dataplex Universal Catalog eingebunden. So werden zentral definierte Governance-Richtlinien konsistent in mehreren Engines durchgesetzt und gleichzeitig semantische Suche, Datenherkunft, Profilerstellung und Qualitätskontrollen ermöglicht.
BigLake-Tabellen für Apache Iceberg bieten in Kombination mit BigQuery eine vollständig verwaltete, unternehmensweite Iceberg-Lösung. Wenn Sie Apache Iceberg-Daten in Ihren eigenen Google Cloud Storage-Buckets speichern und die hochskalierbaren Funktionen zur Echtzeit-Metadatenverwaltung von BigQuery nutzen, profitieren Sie von den Vorteilen beider Welten: der Offenheit und dem Dateneigentum von GCS sowie dem Zugriff auf die vollständig verwalteten Funktionen von BigQuery mit Iceberg-Daten für Streaming, erweiterte Analysen und KI-Anwendungsfälle.
Funktionsweise
BigLake bietet eine native Implementierung für Apache Iceberg in Cloud Storage, wo Sie BigQuery oder Open-Source-Engines Ihrer Wahl direkt für Iceberg-Daten nutzen können. BigLake Metastore hilft bei der Vereinfachung der Datenverwaltung und ist für eine einheitliche Governance in Dataplex Universal Catalog eingebunden.
Gängige Einsatzmöglichkeiten
Google Cloud-Komponenten eines offenen Data Lakehouse
Wenn Sie ein Iceberg Lakehouse mit BigLake erstellen möchten, speichern Sie Ihre Daten zunächst in Cloud Storage. Definieren Sie diese Daten dann mithilfe von BigLake-Tabellen für Apache Iceberg. Der BigLake Metastore dient als zentralisierte, serverlose Datenbank für diese Iceberg-Tabellen, sodass Sie keine komplexe Infrastruktur verwalten müssen. Mit dieser Konfiguration kann jede Iceberg-kompatible Engine konsistent auf Ihre Daten zugreifen und sie verwalten. So entsteht eine einheitliche, offene und skalierbare Lakehouse-Umgebung.
Google Cloud-Komponenten eines offenen Data Lakehouse
Wenn Sie ein Iceberg Lakehouse mit BigLake erstellen möchten, speichern Sie Ihre Daten zunächst in Cloud Storage. Definieren Sie diese Daten dann mithilfe von BigLake-Tabellen für Apache Iceberg. Der BigLake Metastore dient als zentralisierte, serverlose Datenbank für diese Iceberg-Tabellen, sodass Sie keine komplexe Infrastruktur verwalten müssen. Mit dieser Konfiguration kann jede Iceberg-kompatible Engine konsistent auf Ihre Daten zugreifen und sie verwalten. So entsteht eine einheitliche, offene und skalierbare Lakehouse-Umgebung.
Echtzeitinformationen und Prognosen für Finanzdienstleistungen bereitstellen
Sie können Apache Iceberg für sich entwickelnde Data-Lake-Datasets wie Transaktionen oder Marktfeeds verwenden. BigLake ermöglicht es BigQuery, Iceberg-Tabellen neben nativem Speicher ohne Datenbewegung abzufragen. Sie können Echtzeitstreams in BigQuery einspeisen und mit historischen Iceberg-Daten über BigLake kombinieren, um sofort eine umfassende Analyse durchzuführen. BigQuery ML generiert dann Echtzeitinformationen wie Marktvolatilität und Betrugserkennung sowie Prognosemodelle wie Kreditrisiken und Kundenverhalten.
Echtzeitinformationen und Prognosen für Finanzdienstleistungen bereitstellen
Sie können Apache Iceberg für sich entwickelnde Data-Lake-Datasets wie Transaktionen oder Marktfeeds verwenden. BigLake ermöglicht es BigQuery, Iceberg-Tabellen neben nativem Speicher ohne Datenbewegung abzufragen. Sie können Echtzeitstreams in BigQuery einspeisen und mit historischen Iceberg-Daten über BigLake kombinieren, um sofort eine umfassende Analyse durchzuführen. BigQuery ML generiert dann Echtzeitinformationen wie Marktvolatilität und Betrugserkennung sowie Prognosemodelle wie Kreditrisiken und Kundenverhalten.
BigLake bietet sicheren, konsistenten Zugriff auf eine einzige Kopie von Daten in Cloud Storage. Dataplex Universal Catalog katalogisiert diese Daten dann automatisch, sodass alle Datennutzer und -engines darauf zugreifen können. So werden konsistente Datendefinitionen, eine einfache Auffindbarkeit und eine einheitliche Governance gewährleistet, was Silos beseitigt und die Zusammenarbeit an einer einzigen Quelle der Wahrheit fördert.
BigLake bietet sicheren, konsistenten Zugriff auf eine einzige Kopie von Daten in Cloud Storage. Dataplex Universal Catalog katalogisiert diese Daten dann automatisch, sodass alle Datennutzer und -engines darauf zugreifen können. So werden konsistente Datendefinitionen, eine einfache Auffindbarkeit und eine einheitliche Governance gewährleistet, was Silos beseitigt und die Zusammenarbeit an einer einzigen Quelle der Wahrheit fördert.
Preise
Preisgestaltung für BigLake | Die Preise für BigLake richten sich nach der Tabellenverwaltung, dem Metadatenspeicher und dem Metadatenzugriff. | |
---|---|---|
Dienste und Nutzung | Beschreibung | Preis ($) |
BigLake-Tabellenverwaltung | Rechenressourcen der BigLake-Tabellenverwaltung, die für die automatische Optimierung des Tabellenspeichers verwendet werden. | Ab 0,12 $ pro DCU-Stunde |
BigLake-Metadatenspeicher | BigLake Metastore stellt die gespeicherten Metadaten in Rechnung. Die kostenlose Stufe umfasst 1 GiB Metadatenspeicher pro Monat. | Ab 0,04 $ pro GiB und Monat |
Zugriff auf BigLake-Metadaten | Vorgänge der Klasse A: Kosten für den Zugriff auf BigLake-Metadaten für Schreib-, Aktualisierungs-, Listen-, Erstellungs- und Konfigurationsvorgänge. Die kostenlose Stufe umfasst 5.000 Vorgänge pro Monat. | Ab 6,00 $ pro 1 Million Vorgänge |
Vorgänge der Klasse B: Kosten für den Zugriff auf BigQuery-Metadaten für Vorgänge zum Lesen, Abrufen und Löschen mit einer kostenlosen Stufe von 50.000 Vorgängen pro Monat. | Ab 0,90 $ pro 1 Million Vorgänge |
Preisgestaltung für BigLake
Die Preise für BigLake richten sich nach der Tabellenverwaltung, dem Metadatenspeicher und dem Metadatenzugriff.
BigLake-Tabellenverwaltung
Rechenressourcen der BigLake-Tabellenverwaltung, die für die automatische Optimierung des Tabellenspeichers verwendet werden.
Starting at
0,12 $
pro DCU-Stunde
BigLake-Metadatenspeicher
BigLake Metastore stellt die gespeicherten Metadaten in Rechnung. Die kostenlose Stufe umfasst 1 GiB Metadatenspeicher pro Monat.
Starting at
0,04 $
pro GiB und Monat
Zugriff auf BigLake-Metadaten
Vorgänge der Klasse A: Kosten für den Zugriff auf BigLake-Metadaten für Schreib-, Aktualisierungs-, Listen-, Erstellungs- und Konfigurationsvorgänge. Die kostenlose Stufe umfasst 5.000 Vorgänge pro Monat.
Starting at
6,00 $
pro 1 Million Vorgänge
Vorgänge der Klasse B: Kosten für den Zugriff auf BigQuery-Metadaten für Vorgänge zum Lesen, Abrufen und Löschen mit einer kostenlosen Stufe von 50.000 Vorgängen pro Monat.
Starting at
0,90 $
pro 1 Million Vorgänge