这是indexloc提供的服务,不要输入任何密码
Logotipo de AI Hypercomputer

Hiperordenador con IA

El sistema de supercomputación que se encuentra detrás de todas las cargas de trabajo de IA en Google Cloud. Personaliza sus componentes con hardware totalmente integrado, software libre y modelos de consumo flexibles.

Información general

Hardware optimizado para IA

Elige entre opciones de computación, almacenamiento y redes optimizadas para objetivos específicos a nivel de carga de trabajo, ya sea un mayor rendimiento, una latencia más baja, un tiempo de obtención de resultados más rápido o un menor coste total de propiedad. Consulta más información sobre: TPU de Google Cloud, GPU de Google Cloud, Google Cloud Storage, Titanium y la red Jupiter.

Software libre

AI Hypercomputer está optimizado para admitir las herramientas y bibliotecas más habituales, como Pytorch y JAX. Además, permite a los clientes beneficiarse de tecnologías como las configuraciones de TPU de Cloud Multislice y Multihost y servicios gestionados como Google Kubernetes Engine. De esta forma, los clientes pueden desplegar cargas de trabajo habituales de forma inmediata, como el framework NVIDIA NeMO orquestado por SLURM.

Flexibilidad de uso

Nuestros modelos de consumo flexibles permiten a los clientes elegir costes fijos con descuentos por compromiso de uso o modelos dinámicos bajo demanda en función de las necesidades de su negocio.Gracias a Dynamic Workload Scheduler, los clientes pueden obtener la capacidad que necesitan sin tener que asignar demasiadas tareas para que paguen solo por lo que necesitan.Además, las herramientas de optimización de costes de Google Cloud ayudan a automatizar el uso de recursos para reducir las tareas manuales de los ingenieros.

Cómo funciona

Google es un líder en inteligencia artificial gracias a la invención de tecnologías como TensorFlow. ¿Sabías que puedes aprovechar la tecnología de Google en tus propios proyectos? Descubre la historia de Google en materia de innovación en infraestructura de IA y cómo puedes aprovecharla para tus cargas de trabajo.

Diagrama de la arquitectura de hiperordenador de IA de Google Cloud junto con la foto de Chelsie, responsable de producto de Google Cloud

Usos habituales

Ejecutar entrenamiento de IA a gran escala

Curso en IA potente, escalable y eficiente

La arquitectura de hiperordenador de IA ofrece la opción de usar la infraestructura subyacente que mejor se adapte a tus necesidades de entrenamiento.

Tres gráficos que describen los factores de crecimiento de la IA

Curso en IA potente, escalable y eficiente

La arquitectura de hiperordenador de IA ofrece la opción de usar la infraestructura subyacente que mejor se adapte a tus necesidades de entrenamiento.

Tres gráficos que describen los factores de crecimiento de la IA

Curso en IA potente, escalable y eficiente

Mide la eficacia de tu entrenamiento a gran escala al estilo de Google con ML Productivity Goodput.

Velocidad de entrenamiento de TPUv4(bf16) frente a TPUv5(int8)

Character AI aprovecha Google Cloud para escalar verticalmente

"Necesitamos GPUs para generar respuestas a los mensajes de los usuarios. Además, cuantos más usuarios lleguen a nuestra plataforma, necesitaremos más GPUs para ofrecer sus servicios. Por ello, en Google Cloud podemos experimentar para encontrar la plataforma adecuada para una carga de trabajo concreta. Es fantástico tener esa flexibilidad para elegir qué soluciones son más valiosas". Myle Ott, ingeniero fundador de Character.AI

Proporciona aplicaciones basadas en IA

Aprovecha frameworks abiertos para ofrecer experiencias basadas en la IA

Google Cloud tiene el compromiso de asegurar que los frameworks abiertos funcionen correctamente en la arquitectura de hiperordenador de IA.

Arquitectura RAG de alto nivel

Aprovecha frameworks abiertos para ofrecer experiencias basadas en la IA

Google Cloud tiene el compromiso de asegurar que los frameworks abiertos funcionen correctamente en la arquitectura de hiperordenador de IA.

Arquitectura RAG de alto nivel

Aprovecha frameworks abiertos para ofrecer experiencias basadas en la IA

El ecosistema de software libre de Google Cloud te permite desarrollar aplicaciones con las herramientas y los frameworks que más te gustan, al tiempo que aprovechas las ventajas de la relación precio-rendimiento que ofrece la arquitectura hiperordenador de IA.

Herramientas y frameworks de IA de Google Cloud

Priceline: Ayudamos a los viajeros a seleccionar experiencias únicas

"Trabajar con Google Cloud para incorporar la IA generativa nos permite crear un servicio de conserjería de viajes a medida en nuestro bot de chat. Queremos que nuestros clientes no solo planteen viajes, sino que les ayuden a personalizar su experiencia de viaje única". Martin Brodbeck, director de tecnología de Priceline

Logotipo de Priceline

Servir modelos a gran escala de forma rentable

Maximiza la relación precio-rendimiento para servir IA a gran escala

Google Cloud ofrece un precio y un rendimiento líderes en el sector al servir modelos de IA con la opción de activar un acelerador para satisfacer las necesidades de cualquier carga de trabajo.

Diagrama de arquitectura de balanceo de carga basado en la profundidad de la cola

Maximiza la relación precio-rendimiento para servir IA a gran escala

Google Cloud ofrece un precio y un rendimiento líderes en el sector al servir modelos de IA con la opción de activar un acelerador para satisfacer las necesidades de cualquier carga de trabajo.

Diagrama de arquitectura de balanceo de carga basado en la profundidad de la cola

Maximiza la relación precio-rendimiento para servir IA a gran escala

Las instancias de VM de la versión 5e y G2 de TPU de Cloud que ofrecen GPUs NVIDIA L4 permiten obtener inferencias de alto rendimiento y rentables en una amplia variedad de cargas de trabajo de IA, incluidos los LLMs y los modelos de IA generativa más recientes. Ambos ofrecen importantes mejoras en el rendimiento de los precios con respecto a modelos anteriores, y la arquitectura hiperordenador de IA de Google Cloud permite a los clientes escalar sus despliegues a niveles líderes del sector.

Rendimiento relativo por dólar: versión 4 y 5e de TPU de Cloud

Assembly AI aprovecha Google Cloud para mejorar la rentabilidad

"Nuestros resultados experimentales muestran que la versión 5e de TPU de Cloud es el acelerador más rentable para ejecutar inferencias a gran escala en nuestro modelo. Ofrece 2,7 veces más rendimiento por dólar que G2 y 4,2 veces más rendimiento por dólar que las instancias A2". Domenic Donato,

Vicepresidente de Tecnología de AssemblyAI


Logotipo de AssemblyAI

Modelos de código abierto en Google Cloud

Servir un modelo con GKE en una sola GPU

Entrena modelos comunes con GPUs

Servicio de modelos a escala en varias GPUs

Servir un LLM mediante TPUs de varios hosts en GKE con Saxml

Entrena a escala con NVIDIA Nemo Framework

Google Cloud