这是indexloc提供的服务,不要输入任何密码
Logo AI Hypercomputer

Hypercomputer AI

Sistem superkomputer di balik setiap workload AI di Google Cloud. Sesuaikan komponennya menggunakan hardware yang terintegrasi sepenuhnya, software terbuka, dan model konsumsi yang fleksibel.

Ringkasan

Hardware yang dioptimalkan AI

Pilih berbagai opsi komputasi, penyimpanan, dan jaringan yang dioptimalkan untuk tujuan tingkat workload yang terperinci, baik itu throughput yang lebih tinggi, latensi yang lebih rendah, waktu penyiapan hasil yang lebih cepat, atau TCO yang lebih rendah. Pelajari lebih lanjut: Google Cloud TPU, Google Cloud GPU, Google Cloud Storage, Titanium, jaringan Jupiter.

Software terbuka

AI Hypercomputer dioptimalkan untuk mendukung alat dan library yang paling umum, seperti Pytorch dan JAX. Selain itu, arsitektur ini memungkinkan pelanggan untuk memanfaatkan teknologi seperti konfigurasi Cloud TPU Multislice dan Multihost, serta layanan terkelola seperti Google Kubernetes Engine. Hal ini memungkinkan pelanggan memberikan deployment siap pakai untuk workload umum seperti framework NVIDIA NeMO yang diorkestrasi oleh SLURM.

Konsumsi fleksibel

Model konsumsi kami yang fleksibel memungkinkan pelanggan memilih biaya tetap dengan diskon abonemen atau model on-demand dinamis untuk memenuhi kebutuhan bisnis mereka. Dynamic Workload Scheduler membantu pelanggan mendapatkan kapasitas yang mereka butuhkan tanpa alokasi yang berlebih sehingga pelanggan hanya membayar sesuai kebutuhan. Selain itu, alat pengoptimalan biaya Google Cloud membantu mengotomatiskan penggunaan resource untuk mengurangi tugas manual bagi engineer.

Cara Kerjanya

Google dinobatkan sebagai pemimpin dalam kecerdasan buatan dengan penemuan teknologi seperti TensorFlow. Tahukah Anda bahwa Anda dapat memanfaatkan teknologi Google untuk project Anda sendiri? Pelajari histori inovasi Google dalam infrastruktur AI dan cara memanfaatkannya untuk workload Anda.

Diagram arsitektur Hypercomputer AI Google Cloud beserta foto product manager Google Cloud, bernama Chelsie

Penggunaan Umum

Jalankan pelatihan AI berskala besar

Pelatihan AI yang andal, skalabel, dan efisien

Arsitektur AI Hypercomputer menawarkan opsi untuk menggunakan infrastruktur dasar yang dapat diskalakan dengan baik guna memenuhi kebutuhan pelatihan Anda.

Tiga Diagram yang Mendeskripsikan Faktor Pertumbuhan AI

Pelatihan AI yang andal, skalabel, dan efisien

Arsitektur AI Hypercomputer menawarkan opsi untuk menggunakan infrastruktur dasar yang dapat diskalakan dengan baik guna memenuhi kebutuhan pelatihan Anda.

Tiga Diagram yang Mendeskripsikan Faktor Pertumbuhan AI

Pelatihan AI yang andal, skalabel, dan efisien

Mengukur efektivitas pelatihan berskala besar agar selaras dengan cara Google menggunakan Goodput Produktivitas ML.

Kecepatan Pelatihan TPUv4(bf16) vs TPUv5(int8)

Character AI memanfaatkan Google Cloud untuk meningkatkan skala

"Kami membutuhkan GPU untuk memberikan respons kepada pesan pengguna. Seiring bertambahnya pengguna di platform kami, kami memerlukan lebih banyak GPU untuk melayani mereka. Jadi di Google Cloud, kami dapat bereksperimen untuk menemukan platform yang tepat untuk workload tertentu. Sangat menyenangkan memiliki fleksibilitas untuk memilih solusi yang paling berharga." Myle Ott, Founding Engineer, Character.AI

Menghadirkan aplikasi yang didukung AI

Memanfaatkan framework terbuka untuk memberikan pengalaman yang didukung teknologi AI

Google Cloud berkomitmen untuk memastikan framework terbuka berfungsi dengan baik dalam arsitektur Hypercomputer AI.

Arsitektur RAG Tingkat Tinggi

Memanfaatkan framework terbuka untuk memberikan pengalaman yang didukung teknologi AI

Google Cloud berkomitmen untuk memastikan framework terbuka berfungsi dengan baik dalam arsitektur Hypercomputer AI.

Arsitektur RAG Tingkat Tinggi

Memanfaatkan framework terbuka untuk memberikan pengalaman yang didukung teknologi AI

Ekosistem software terbuka Google Cloud memungkinkan Anda membangun aplikasi dengan alat dan framework yang paling sesuai bagi Anda, sekaligus memanfaatkan keunggulan harga-performa dari arsitektur Hyperkomputer AI.

Alat dan framework AI Google Cloud

Priceline: Membantu wisatawan menyeleksi pengalaman unik

"Melalui kerja sama dengan Google Cloud untuk mengintegrasikan kemampuan AI generatif, kami dapat membuat asisten perjalanan khusus di dalam chatbot kami. Kami ingin agar pelanggan dapat melakukan lebih dari sekadar merencanakan perjalanan dan membantu mereka memilih pengalaman perjalanan yang unik.” Martin Brodbeck, CTO, Priceline

Logo priceline

Model inferensi dengan biaya efisien dalam skala besar

Memaksimalkan harga/performa untuk menginferensi AI dalam skala besar

Google Cloud memberikan harga/performa terbaik di industri dengan menginferensi model AI menggunakan opsi akselerator guna memenuhi kebutuhan workload apa pun.

Load Balancing Berdasarkan Diagram Arsitektur Kedalaman Antrean

Memaksimalkan harga/performa untuk menginferensi AI dalam skala besar

Google Cloud memberikan harga/performa terbaik di industri dengan menginferensi model AI menggunakan opsi akselerator guna memenuhi kebutuhan workload apa pun.

Load Balancing Berdasarkan Diagram Arsitektur Kedalaman Antrean

Memaksimalkan harga/performa untuk menginferensi AI dalam skala besar

Instance Cloud TPU v5e dan G2 yang menghadirkan GPU NVIDIA L4 memungkinkan inferensi berperforma tinggi dan hemat biaya untuk berbagai workload AI, termasuk model LLM dan AI Generatif terbaru. Keduanya menawarkan peningkatan performa harga yang signifikan dibandingkan model sebelumnya dan arsitektur Hyperkomputer AI Google Cloud memungkinkan pelanggan menskalakan deployment mereka ke level terdepan di industri.

Performa relatif per dolar: Cloud TPU v4 dan v5e

Assembly AI memanfaatkan Google Cloud untuk efisiensi biaya

"Hasil eksperimental kami menunjukkan bahwa Cloud TPU v5e adalah akselerator yang paling hemat biaya untuk menjalankan inferensi berskala besar pada model kami. Akselerator ini memberikan performa 2,7 kali lebih besar per dolar daripada G2 dan performa 4,2 kali lebih besar per dolar daripada instance A2." Domenic Donato,

VP of Technology, AssemblyAI


Logo AssemblyAI

Model open source di Google Cloud

Menyajikan model dengan GKE pada satu GPU

Melatih model umum dengan GPU

Menskalakan inferensi model ke beberapa GPU

Menyajikan LLM menggunakan TPU multi-host di GKE dengan Saxml

Berlatih dalam skala besar dengan framework NVIDIA Nemo