Documentation Dataproc

Dataproc est un service géré Apache Spark et Apache Hadoop qui vous permet de bénéficier d'outils de données Open Source pour le traitement par lot, l'émission de requêtes, le streaming et le machine learning. L'automatisation Dataproc vous permet de créer des clusters rapidement, de les gérer facilement et de faire des économies en désactivant ceux que vous n'utilisez plus. Vous consacrez moins de temps et d'argent aux fonctions d'administration, ce qui vous permet de vous concentrer sur les tâches et les données. En savoir plus

  • Accès à Gemini 2.0 Flash Thinking
  • Utilisation mensuelle gratuite de produits populaires, y compris les API d'IA et BigQuery
  • Aucuns frais automatiques, aucun engagement

Continuez à explorer le monde avec plus de 20 produits toujours gratuits

Accédez à plus de 20 produits gratuits pour des cas d'utilisation courants, y compris des API d'IA, des VM, des entrepôts de données, et plus encore.

Explorez les auto-formations de Google Cloud Skills Boost, des cas d'utilisation, des architectures de référence et des exemples de code illustrant comment utiliser et se connecter à des services Google Cloud .
Formation
Formation et tutoriels

Envoyez des tâches Spark à un cluster Google Kubernetes Engine en cours d'exécution à partir de l'API Jobs de Dataproc.

Formation
Formation et tutoriels

Ce cours combine des présentations, des démonstrations et des ateliers pratiques pour vous apprendre à créer un cluster Dataproc, envoyer une tâche Spark, puis arrêter le cluster.

Formation
Formation et tutoriels

Ce cours combine des présentations, des démonstrations et des ateliers pratiques pour vous apprendre à mettre en œuvre une régression logistique à l'aide d'une bibliothèque de machine learning pour Apache Spark exécutée sur un cluster Dataproc. L'objectif sera de développer un modèle de données à partir d'un ensemble de données multivariable.

Cas d'utilisation
Cas d'utilisation

Planifiez des workflows sur Google Cloud.

Cas d'utilisation
Cas d'utilisation

Découvrez comment transférer des données depuis un système de fichiers distribués Hadoop (HDFS) vers Google Cloud.

Cas d'utilisation
Cas d'utilisation

Méthodes recommandées pour inclure des dépendances lorsque vous envoyez une tâche Spark à un cluster Dataproc.

Exemple de code
Exemples de code

Appelez les API Dataproc à partir de Python.

Exemple de code
Exemples de code

Appelez les API Dataproc à partir de Java.

Exemple de code
Exemples de code

Appelez les API Dataproc à partir de Node.js.

Exemple de code
Exemples de code

Appelez les API Dataproc à partir de Go.

Vidéos similaires