O sistema de supercomputação por trás de todas as cargas de trabalho de IA no Google Cloud. Personalize os componentes usando hardware totalmente integrado, software aberto e modelos de consumo flexíveis.
Visão geral
Escolha entre opções de computação, armazenamento e rede otimizadas para objetivos granulares no nível da carga de trabalho, seja para maior capacidade de processamento, menor latência, menor tempo para resultados ou menor TCO. Saiba mais sobre: Google Cloud TPU, GPU do Google Cloud, Google Cloud Storage, Titanium, a rede Jupiter.
O hipercomputador de IA é otimizado para oferecer suporte às ferramentas e bibliotecas mais comuns, como Pytorch e JAX. Além disso, ele permite que os clientes aproveitem tecnologias como as configurações de multislice e multihost do Cloud TPU e serviços gerenciados, como o Google Kubernetes Engine. Dessa forma, os clientes podem fazer implantações prontas para cargas de trabalho comuns, como o framework NVIDIA NeMO orquestrado pelo SLURM (link em inglês).
Nossos modelos de consumo flexíveis permitem que os clientes escolham custos fixos com descontos por compromisso de uso ou modelos dinâmicos sob demanda para atender às necessidades dos negócios.O Dynamic Workload Scheduler ajuda os clientes a conseguir a capacidade necessária sem alocação excessiva para que eles paguem apenas pelo que precisam.Além disso, as ferramentas de otimização de custos do Google Cloud automatizam a utilização de recursos para reduzir as tarefas manuais dos engenheiros.
Como funciona
O Google é líder em inteligência artificial com a invenção de tecnologias como o TensorFlow. Você sabia que pode aproveitar a tecnologia do Google nos seus próprios projetos? Saiba mais sobre a história de inovação do Google em infraestruturas de IA e como você pode aproveitá-la em suas cargas de trabalho.
Usos comuns
A arquitetura do hipercomputador de IA oferece opcionalidade para usar a infraestrutura subjacente que melhor se escalone para atender às suas necessidades de treinamento.
Meça a eficácia do seu treinamento em larga escala do jeito que o Google faz com o goodput de produtividade de ML.
"Precisamos de GPUs para gerar respostas às mensagens dos usuários. E, à medida que temos mais usuários na nossa plataforma, precisamos de mais GPUs para atendê-los. No Google Cloud, podemos fazer testes para descobrir qual é a plataforma certa para uma carga de trabalho específica. É ótimo ter essa flexibilidade para escolher as soluções mais valiosas." Myle Ott, engenheiro fundador, Character.AI
A arquitetura do hipercomputador de IA oferece opcionalidade para usar a infraestrutura subjacente que melhor se escalone para atender às suas necessidades de treinamento.
Meça a eficácia do seu treinamento em larga escala do jeito que o Google faz com o goodput de produtividade de ML.
"Precisamos de GPUs para gerar respostas às mensagens dos usuários. E, à medida que temos mais usuários na nossa plataforma, precisamos de mais GPUs para atendê-los. No Google Cloud, podemos fazer testes para descobrir qual é a plataforma certa para uma carga de trabalho específica. É ótimo ter essa flexibilidade para escolher as soluções mais valiosas." Myle Ott, engenheiro fundador, Character.AI
O Google Cloud tem o compromisso de garantir que frameworks abertos funcionem bem na arquitetura de hipercomputador de IA.
Com o ecossistema de software aberto do Google Cloud, é possível criar aplicativos com as ferramentas e frameworks que você mais conhece e aproveitar os benefícios de preço-desempenho da arquitetura de hipercomputador de IA.
"Com a ajuda do Google Cloud na incorporação da IA generativa, podemos criar um concierge de viagens personalizado em nosso chatbot. Queremos ajudar nossos clientes a ir muito além do simples planejamento de uma viagem, proporcionando uma experiência de viagem única”. Martin Brodbeck, CTO, Priceline
Lightricks
A Lightricks está escalonando ferramentas de criação de conteúdo de última geração com o Google Cloud
AppLovin
Crescimento impulsionado por IA: a jornada da AppLovin amplificada pelo Google Cloud
QuillBot
A QuillBot reduz o tempo de escrita para mais de 10 milhões de usuários usando o Google Cloud
O Google Cloud tem o compromisso de garantir que frameworks abertos funcionem bem na arquitetura de hipercomputador de IA.
Com o ecossistema de software aberto do Google Cloud, é possível criar aplicativos com as ferramentas e frameworks que você mais conhece e aproveitar os benefícios de preço-desempenho da arquitetura de hipercomputador de IA.
"Com a ajuda do Google Cloud na incorporação da IA generativa, podemos criar um concierge de viagens personalizado em nosso chatbot. Queremos ajudar nossos clientes a ir muito além do simples planejamento de uma viagem, proporcionando uma experiência de viagem única”. Martin Brodbeck, CTO, Priceline
Lightricks
A Lightricks está escalonando ferramentas de criação de conteúdo de última geração com o Google Cloud
AppLovin
Crescimento impulsionado por IA: a jornada da AppLovin amplificada pelo Google Cloud
QuillBot
A QuillBot reduz o tempo de escrita para mais de 10 milhões de usuários usando o Google Cloud
O Google Cloud oferece preço/desempenho líder do setor para disponibilizar modelos de IA com opção de acelerador e atender às necessidades de qualquer carga de trabalho.
As instâncias de VM do Cloud TPU v5e e G2 que entregam GPUs NVIDIA L4 permitem inferências econômicas e de alto desempenho para uma ampla variedade de cargas de trabalho de IA, incluindo os modelos mais recentes de LLMs e IA generativa. Ambos oferecem melhorias significativas no desempenho do preço em relação aos modelos anteriores, e a arquitetura de hipercomputador com IA do Google Cloud permite que os clientes escalonem as implantações para níveis líderes do setor.
"Nossos resultados experimentais mostram que o Cloud TPU v5e é o acelerador mais econômico para executar inferência em grande escala no nosso modelo. Ela oferece desempenho por dólar 2,7 vezes maior do que a G2 e desempenho por dólar 4,2 vezes maior do que as instâncias A2." Domenic Donato,
vice-presidente de tecnologia, AssemblyAI
O Google Cloud oferece preço/desempenho líder do setor para disponibilizar modelos de IA com opção de acelerador e atender às necessidades de qualquer carga de trabalho.
As instâncias de VM do Cloud TPU v5e e G2 que entregam GPUs NVIDIA L4 permitem inferências econômicas e de alto desempenho para uma ampla variedade de cargas de trabalho de IA, incluindo os modelos mais recentes de LLMs e IA generativa. Ambos oferecem melhorias significativas no desempenho do preço em relação aos modelos anteriores, e a arquitetura de hipercomputador com IA do Google Cloud permite que os clientes escalonem as implantações para níveis líderes do setor.
"Nossos resultados experimentais mostram que o Cloud TPU v5e é o acelerador mais econômico para executar inferência em grande escala no nosso modelo. Ela oferece desempenho por dólar 2,7 vezes maior do que a G2 e desempenho por dólar 4,2 vezes maior do que as instâncias A2." Domenic Donato,
vice-presidente de tecnologia, AssemblyAI