Mettez vos conteneurs en mode Autopilot et exécutez de façon sécurisée vos charges de travail d'entreprise à grande échelle, quel que soit votre niveau d'expertise sur Kubernetes.
Bénéficiez d'un cluster zonal ou Autopilot gratuit par mois. Les nouveaux clients bénéficient de 300 $ de crédits pour essayer GKE et d'autres produits Google Cloud.
Vitesse accrue, risque réduit et coût total de possession (TCO) moindre
Outils de stratégie de sécurité et d'observabilité intégrés
Avec une capacité pouvant atteindre 65 000 nœuds, nous pensons que GKE offre une capacité d'industrialisation plus de 10 fois supérieure à celle des deux autres principaux fournisseurs de services cloud publics.
Fonctionnalités
En prévision de modèles encore plus volumineux, nous lançons la compatibilité avec les clusters de 65 000 nœuds. Pour développer des modèles d'IA de pointe, les équipes doivent pouvoir allouer des ressources de calcul à différentes charges de travail. Cela inclut non seulement l'entraînement du modèle, mais aussi la diffusion, l'inférence, la recherche ad hoc et la gestion des tâches auxiliaires. En centralisant la puissance de calcul dans le plus petit nombre possible de clusters, vous pouvez vous adapter rapidement aux changements de la demande liés aux charges de travail d'inférence, de recherche et d'entraînement.
Les fonctionnalités d'inférence de GKE, associées aux techniques d'équilibrage de charge et de scaling adaptées à l'IA générative, offrent des performances distinctes pour les applications d'IA générative. Ces fonctionnalités permettent de réduire les coûts de diffusion de plus de 30 % et la latence de queue de 60 %, et d'augmenter le débit jusqu'à 40 % par rapport à d'autres offres Kubernetes gérées et Open Source.
GKE Enterprise, la nouvelle édition Premium de GKE, offre des fonctionnalités permettant aux équipes chargées des plates-formes de bénéficier d'une rapidité accrue : configuration et observation de plusieurs clusters au même endroit ; définition de la configuration en fonction des équipes plutôt que des clusters ; fourniture d'options en libre-service aux développeurs pour le déploiement et la gestion de leurs applications. Vous pouvez réduire les risques à l'aide des fonctionnalités de sécurité avancées et de la gestion de configuration basée sur GitOps. Réduisez le coût total de possession (TCO) en vous appuyant sur une solution entièrement intégrée et gérée, et bénéficiez d'un ROI de près de 196 % en trois ans.
L'édition GKE Standard offre une gestion entièrement automatisée du cycle de vie des clusters, l'autoscaling des pods et des clusters, la visibilité des coûts et l'optimisation automatisée des coûts d'infrastructure. Elle inclut tous les avantages existants de GKE, et propose les modes de fonctionnement Autopilot et Standard. GKE Enterprise, la nouvelle édition Premium de GKE, offre tous les avantages mentionnés précédemment, ainsi que des fonctionnalités de gestion, de gouvernance, de sécurité et de configuration pour plusieurs équipes et clusters, le tout pilotable via une console unifiée, et enfin un maillage de services intégré.
Le mode Autopilot de GKE est une solution pratique qui régit l'infrastructure de calcul sous-jacente à votre cluster, tout en vous offrant une expérience Kubernetes complète. Vous n'avez rien à configurer ni à surveiller à ce niveau. Grâce à la facturation au pod, vous ne payez que pour les pods en cours d'exécution. Les composants système, le système d'exploitation et la capacité non allouée ne vous sont pas facturés (ce qui représente une économie pouvant atteindre 85 % sur les coûts liés aux ressources et à l'efficacité opérationnelle). Les modes de fonctionnement Autopilot et Standard sont disponibles dans l'édition GKE Enterprise.
La fonctionnalité de détection des menaces GKE est fournie par Security Command Center (SCC) et identifie en temps quasi réel les menaces qui affectent vos clusters GKE en surveillant en permanence les journaux d'audit GKE.
La conformité avec GKE offre des insights en temps réel simplifiés, des rapports automatisés et la liberté d'innover de manière sécurisée sur Google Cloud.
GKE implémente l'API Kubernetes complète, l'autoscaling quadridirectionnel, les canaux de publication et la compatibilité multicluster. L'autoscaling horizontal des pods peut être basé sur l'utilisation du processeur ou sur des métriques personnalisées. L'autoscaling des clusters fonctionne par pool de nœuds. L'autoscaling vertical des pods analyse en continu l'utilisation de la mémoire et des processeurs des pods, et ajuste automatiquement les demandes de ressources mémoire et de processeurs en conséquence.
Profitez de Kubernetes et de la technologie cloud dans votre propre centre de données grâce à Google Distributed Cloud. Bénéficiez de l'expérience GKE avec des installations simples, rapides et gérées, ainsi que des mises à jour validées par Google.
Réservez une plage d'adresses IP pour votre cluster afin que ses adresses IP coexistent avec celles de votre réseau privé via Google Cloud VPN.
Fonctionnement
Un cluster GKE comporte un plan de contrôle et des machines appelés "nœuds". Les nœuds exécutent les services nécessaires aux conteneurs qui constituent vos charges de travail. Le plan de contrôle décide ensuite de ce qui s'exécute sur ces nœuds : il gère entre autres la planification et le scaling. Le mode Autopilot prend en charge cette complexité. Il vous suffit de déployer et d'exécuter vos applications.
Utilisations courantes
Utilisez des parcs pour simplifier la gestion des déploiements multicluster, par exemple pour dissocier les environnements de production et hors production, ou séparer les services entre les niveaux, les sites d'exploitation ou les équipes. Un parc vous permet de regrouper et de normaliser des clusters Kubernetes, ce qui facilite l'administration de l'infrastructure et l'adoption des bonnes pratiques de Google.
Utilisez des parcs pour simplifier la gestion des déploiements multicluster, par exemple pour dissocier les environnements de production et hors production, ou séparer les services entre les niveaux, les sites d'exploitation ou les équipes. Un parc vous permet de regrouper et de normaliser des clusters Kubernetes, ce qui facilite l'administration de l'infrastructure et l'adoption des bonnes pratiques de Google.
Une plate-forme de ML et d'IA robuste offre les éléments suivants : (i) orchestration d'infrastructure compatible avec les GPU pour l'entraînement et l'inférence des charges de travail à grande échelle, (ii) intégration flexible avec des frameworks de calcul et de traitement des données distribués, et (iii) possibilité pour plusieurs équipes d'utiliser la même infrastructure dans l'optique d'optimiser l'utilisation des ressources.
Une plate-forme de ML et d'IA robuste offre les éléments suivants : (i) orchestration d'infrastructure compatible avec les GPU pour l'entraînement et l'inférence des charges de travail à grande échelle, (ii) intégration flexible avec des frameworks de calcul et de traitement des données distribués, et (iii) possibilité pour plusieurs équipes d'utiliser la même infrastructure dans l'optique d'optimiser l'utilisation des ressources.
Créez une application Web conteneurisée, testez-la localement, puis déployez-la sur un cluster Google Kubernetes Engine (GKE), le tout directement depuis l'éditeur Cloud Shell. À la fin de ce court tutoriel, vous saurez comment créer, modifier et déboguer une application Kubernetes.
Créez une application Web conteneurisée, testez-la localement, puis déployez-la sur un cluster Google Kubernetes Engine (GKE), le tout directement depuis l'éditeur Cloud Shell. À la fin de ce court tutoriel, vous saurez comment créer, modifier et déboguer une application Kubernetes.
Tarification
Fonctionnement des tarifs de GKE | Une fois les crédits gratuits utilisés, le coût total est basé sur l'édition, le mode de fonctionnement du cluster, les frais de gestion du cluster et les frais de transfert de données entrant applicables. | |
---|---|---|
Service | Description | Prix (USD) |
Version gratuite | La version gratuite de GKE fournit 74,40 $ de crédits mensuels par compte de facturation, appliqués aux clusters zonaux et Autopilot. | Gratuit |
Kubernetes | Édition Enterprise Inclut toutes les fonctionnalités de l'édition Standard, mais également les opérations inter-équipes, la gestion multicluster et l'accès en libre-service, des fonctionnalités avancées de sécurité, de maillage de services et de configuration, ainsi qu'une console unifiée. | 0,0083 $ par vCPU et par heure |
Édition Standard Inclut la gestion entièrement automatisée du cycle de vie des clusters, l'autoscaling des pods et des clusters, la visibilité des coûts et l'optimisation automatisée des coûts d'infrastructure. | 0,10 $ par cluster et par heure | |
Calcul | Mode Autopilot : ressources de processeur, de mémoire et de calcul provisionnées pour vos pods. Mode Standard : chaque instance vous est facturée selon les tarifs de Compute Engine. | Consultez les tarifs de Compute Engine. |
Apprenez-en davantage sur les tarifs de GKE. Afficher le détail des tarifs
Fonctionnement des tarifs de GKE
Une fois les crédits gratuits utilisés, le coût total est basé sur l'édition, le mode de fonctionnement du cluster, les frais de gestion du cluster et les frais de transfert de données entrant applicables.
La version gratuite de GKE fournit 74,40 $ de crédits mensuels par compte de facturation, appliqués aux clusters zonaux et Autopilot.
Gratuit
Édition Enterprise
Inclut toutes les fonctionnalités de l'édition Standard, mais également les opérations inter-équipes, la gestion multicluster et l'accès en libre-service, des fonctionnalités avancées de sécurité, de maillage de services et de configuration, ainsi qu'une console unifiée.
0,0083 $
par vCPU et par heure
Édition Standard
Inclut la gestion entièrement automatisée du cycle de vie des clusters, l'autoscaling des pods et des clusters, la visibilité des coûts et l'optimisation automatisée des coûts d'infrastructure.
0,10 $
par cluster et par heure
Mode Autopilot : ressources de processeur, de mémoire et de calcul provisionnées pour vos pods.
Mode Standard : chaque instance vous est facturée selon les tarifs de Compute Engine.
Consultez les tarifs de Compute Engine.
Apprenez-en davantage sur les tarifs de GKE. Afficher le détail des tarifs
Cas d'utilisation métier
Moloco : entraînement de modèles 10 fois plus rapide avec des TPU sur Google Kubernetes Engine
"Faire évoluer notre infrastructure à mesure que l'activité publicitaire de Moloco prenait de l'ampleur de façon exponentielle était un défi de taille. Les fonctionnalités d'autoscaling de GKE ont permis à l'équipe d'ingénierie de se concentrer sur le développement sans consacrer beaucoup d'efforts aux opérations." - Sechan Oh, directeur du machine learning, Moloco
En combinant la puissance de NVIDIA NIM avec Google Kubernetes Engine, nous avons multiplié par 6,1 la vitesse moyenne des jetons. LiveX AI peut ainsi offrir des expériences personnalisées aux clients en temps réel, y compris une assistance client fluide, des recommandations de produits instantanées et une réduction des retours.
- Jia Li, cofondatrice et directrice de l'IA, LiveX AI
"L'utilisation de TPU sur GKE, notamment Trillium pour l'inférence, et plus particulièrement pour la génération d'images, a permis de réduire la latence jusqu'à 66 %, ce qui a amélioré l'expérience utilisateur et augmenté les taux de conversion. Les utilisateurs reçoivent une réponse en moins de 10 secondes au lieu d'attendre jusqu'à 30 secondes. Ce point est crucial pour favoriser l'engagement et la fidélisation des utilisateurs."
- Cem Ortabas, cofondateur, HubX
"L'optimisation du rapport prix-performances pour l'inférence de l'IA générative est essentielle pour nos clients. Nous sommes ravis de bénéficier de la passerelle d'inférence GKE avec son équilibrage de charge optimisé et son extensibilité en Open Source. Les nouvelles fonctionnalités de la passerelle d'inférence GKE pourraient nous aider à améliorer davantage les performances des charges de travail d'inférence de nos clients."
- Chaoyu Yang, PDG et fondateur, BentoML
GKE offre une inférence évolutive et économique inégalée
"Nous avons constaté que le streaming d'images de conteneurs dans GKE a un impact significatif sur l'accélération du temps de démarrage de nos applications. Le streaming d'images nous permet d'accélérer de 20 % le temps de démarrage d'un job d'entraînement après sa soumission."
- Jucho Kallio, directeur de la technologie et cofondateur, IPRally
"La nouvelle compatibilité de GKE avec les clusters plus volumineux nous permet d'accélérer le rythme de nos innovations en matière d'IA."
- James Bradbury, responsable du calcul, Anthropic
"Les classes de calcul ont joué un rôle essentiel pour aider Shopify à évoluer lors de nos événements les plus exigeants."
- Justin Reid, ingénieur principal, Shopify