这是indexloc提供的服务,不要输入任何密码
Logotipo de AI Hypercomputer

Hipercomputadora de IA

El sistema de supercomputación que respalda cada carga de trabajo de IA en Google Cloud. Personaliza sus componentes con hardware completamente integrado, software abierto y modelos de consumo flexibles.

Descripción general

Hardware optimizado para IA

Elige entre opciones de procesamiento, almacenamiento y redes optimizadas para objetivos detallados a nivel de la carga de trabajo, ya sea una capacidad de procesamiento mayor, una latencia más baja, un tiempo de obtención de resultados más rápido o un TCO más bajo. Obtén más información sobre los siguientes temas: Google Cloud TPU, GPU de Google Cloud, Google Cloud Storage, Titanium y la red Jupiter.

Software abierto

AI Hypercomputer está optimizado para admitir las herramientas y bibliotecas más comunes, como Pytorch y JAX. Además, permite que los clientes aprovechen tecnologías como los parámetros de configuración de Cloud TPU Multislice y Multihost, y los servicios administrados como Google Kubernetes Engine. Esto permite que los clientes entreguen implementaciones listas para usar en cargas de trabajo comunes, como el framework de NVIDIA NeMO organizado por SLURM.

Consumo flexible

Nuestros modelos de consumo flexible permiten a los clientes elegir costos fijos con descuentos por compromiso de uso o modelos dinámicos según demanda para satisfacer sus necesidades empresariales. El programador dinámico de cargas de trabajo ayuda a los clientes a obtener la capacidad que necesitan sin sobreasignar recursos, de modo que solo pagan por lo que necesitan. Además, las herramientas de optimización de costos de Google Cloud ayudan a automatizar el uso de recursos para reducir las tareas manuales de los ingenieros.

Cómo funciona

Google es uno de los líderes en inteligencia artificial gracias a la invención de tecnologías como TensorFlow. ¿Sabías que puedes aprovechar la tecnología de Google en tus propios proyectos? Conoce la historia de innovación en infraestructura de IA de Google y cómo puedes aprovecharla en tus cargas de trabajo.

Diagrama de arquitectura del hipercomputadora de IA de Google Cloud junto con la foto de la gerente de producto de Google Cloud, Chelsie

Usos comunes

Ejecuta entrenamiento de IA a gran escala

Entrenamiento de IA potente, escalable y eficiente

La arquitectura de hipercomputadora de IA ofrece la opción de usar la infraestructura subyacente que mejor se ajusta para satisfacer tus necesidades de entrenamiento.

Tres gráficos que describen los factores de crecimiento de la IA

Entrenamiento de IA potente, escalable y eficiente

La arquitectura de hipercomputadora de IA ofrece la opción de usar la infraestructura subyacente que mejor se ajusta para satisfacer tus necesidades de entrenamiento.

Tres gráficos que describen los factores de crecimiento de la IA

Entrenamiento de IA potente, escalable y eficiente

Mide la eficacia de tu entrenamiento a gran escala al estilo de Google con ML Productivity Goodput.

Velocidad de entrenamiento de TPUv4(bf16) frente a TPUv5(int8)

Character.AI aprovecha Google Cloud para escalar verticalmente

“Necesitamos GPU para generar respuestas a los mensajes de los usuarios. Y a medida que tenemos más usuarios en nuestra plataforma, necesitamos más GPU para prestarles servicios. En Google Cloud, podemos experimentar para descubrir cuál es la plataforma adecuada para una carga de trabajo en particular. Es estupendo tener esa flexibilidad para elegir las soluciones más valiosas”. Myle Ott, ingeniero fundador, Character.AI

Entrega aplicaciones potenciadas por IA

Aprovecha frameworks abiertos para ofrecer experiencias potenciadas por IA

Google Cloud se compromete a garantizar que los frameworks abiertos funcionen bien en la arquitectura del hipercomputadora de IA.

Arquitectura de RAG de alto nivel

Aprovecha frameworks abiertos para ofrecer experiencias potenciadas por IA

Google Cloud se compromete a garantizar que los frameworks abiertos funcionen bien en la arquitectura del hipercomputadora de IA.

Arquitectura de RAG de alto nivel

Aprovecha frameworks abiertos para ofrecer experiencias potenciadas por IA

El ecosistema de software abierto de Google Cloud te permite compilar aplicaciones con las herramientas y los frameworks que más te convengan y, al mismo tiempo, aprovechar los beneficios de la relación precio-rendimiento de la arquitectura de la hipercomputadora de IA.

Herramientas y frameworks de IA de Google Cloud

Priceline: Ayuda a los viajeros a seleccionar experiencias únicas

“Trabajar con Google Cloud para incorporar la IA generativa nos permite crear un asistente de viajes personalizado dentro de nuestro chatbot. Queremos ayudar a nuestros clientes no solo a planificar un viaje, sino también a crear una experiencia de viaje única para ellos”. Martin Brodbeck, director de Tecnología, Priceline

Logotipo de Priceline

Entrega modelos rentables a gran escala

Maximiza el precio y el rendimiento para entregar IA a gran escala

Google Cloud ofrece un precio y rendimiento líderes en la industria para entregar modelos de IA con la opción de un acelerador para abordar las necesidades de cualquier carga de trabajo.

Diagrama de arquitectura del balanceo de cargas basado en la profundidad de la cola

Maximiza el precio y el rendimiento para entregar IA a gran escala

Google Cloud ofrece un precio y rendimiento líderes en la industria para entregar modelos de IA con la opción de un acelerador para abordar las necesidades de cualquier carga de trabajo.

Diagrama de arquitectura del balanceo de cargas basado en la profundidad de la cola

Maximiza el precio y el rendimiento para entregar IA a gran escala

Cloud TPU v5e y las instancias de VM G2 que entregan GPU NVIDIA L4 permiten una inferencia rentable y de alto rendimiento para una amplia gama de cargas de trabajo de IA, incluidos los últimos LLM y modelos de IA generativa. Ambas opciones ofrecen mejoras significativas en cuanto al precio en comparación con los modelos anteriores, y la arquitectura de hipercomputadora de IA de Google Cloud permite a los clientes escalar sus implementaciones a niveles líderes en la industria.

Rendimiento relativo por dólar: Cloud TPU v4 y v5e

AssemblyAI usa Google Cloud para la rentabilidad

“Los resultados experimentales muestran que Cloud TPU v5e es el acelerador más rentable para ejecutar inferencias a gran escala para nuestro modelo. Ofrece un rendimiento 2.7 veces mayor por dólar que G2 y un rendimiento 4.2 veces mayor por dólar que las instancias de A2”. Domenic Donato,

vicepresidente de Tecnología, AssemblyAI


Logotipo de AssemblyAI

Modelos de código abierto en Google Cloud

Entrega un modelo con GKE en una sola GPU

Entrena modelos comunes con GPU

Escala la entrega de modelos a varias GPU

Entrega un LLM con TPU de varios hosts en GKE con Saxml

Entrena a gran escala con el framework NVIDIA Nemo

Google Cloud