Percepat pelatihan dan inferensi HPC dan AI dengan sistem file paralel berperforma tertinggi dari Google yang mematuhi POSIX.
Fitur
Melatih model deep learning besar memerlukan set data yang sangat besar. Managed Lustre, yang didasarkan pada DDN EXAScaler, mendistribusikan akses data, sehingga mengurangi waktu pelatihan dan memungkinkan insight yang lebih cepat, akurasi yang lebih baik, dan penanganan project AI yang kompleks. Skalabilitasnya memastikan performa dapat mengimbangi pertumbuhan data, sehingga mencegah bottleneck penyimpanan.
Managed Lustre memungkinkan pembuatan kueri dan pemrosesan yang cepat terhadap set data besar yang disimpan di cloud. Hal ini memungkinkan pembuatan laporan business intelligence yang lebih cepat, analisis yang real-time, dan eksplorasi data yang lebih efektif.
Optimalkan penggunaan resource dengan mendistribusikan data dan tugas pemrosesan secara efisien. Hal ini dapat mengurangi biaya penyimpanan, menurunkan biaya komputasi, dan meningkatkan efisiensi biaya secara keseluruhan. Fitur-fitur seperti tingkatan data, kompresi, dan penempatan data cerdas juga dapat berkontribusi pada penghematan biaya.
Cara Kerjanya
Menyiapkan dan mengoperasikan infrastruktur HPC secara lokal membutuhkan biaya besar, dan infrastrukturnya memerlukan pemeliharaan berkelanjutan. Selain itu, infrastruktur lokal biasanya tidak dapat diskalakan dengan cepat untuk menyesuaikan dengan perubahan permintaan. Perencanaan, pengadaan, deployment, dan penonaktifan hardware di infrastruktur lokal memerlukan waktu yang cukup lama, sehingga penambahan resource HPC tertunda atau kapasitas kurang dimanfaatkan. Di cloud, Anda dapat menyediakan infrastruktur HPC yang menggunakan teknologi terbaru secara efisien, dan dapat menskalakan kapasitas sesuai permintaan. Ilmuwan, peneliti, dan analis dapat dengan cepat mengakses kapasitas HPC tambahan untuk project mereka saat mereka membutuhkannya.
Penggunaan Umum
Sistem file paralel secara signifikan mempercepat pelatihan dan inferensi AI dengan menyediakan akses berlatensi rendah dan ber-throughput tinggi ke set data yang sangat besar. Sistem ini mendistribusikan data ke beberapa node penyimpanan, sehingga memungkinkan akses serentak oleh banyak unit pemroses atau GPU. Akses paralel ini menghilangkan bottleneck yang terjadi pada sistem file tradisional, sehingga model AI dapat secara cepat menyerap dan memproses data dalam jumlah besar yang diperlukan untuk pelatihan.
Sistem file paralel secara signifikan mempercepat pelatihan dan inferensi AI dengan menyediakan akses berlatensi rendah dan ber-throughput tinggi ke set data yang sangat besar. Sistem ini mendistribusikan data ke beberapa node penyimpanan, sehingga memungkinkan akses serentak oleh banyak unit pemroses atau GPU. Akses paralel ini menghilangkan bottleneck yang terjadi pada sistem file tradisional, sehingga model AI dapat secara cepat menyerap dan memproses data dalam jumlah besar yang diperlukan untuk pelatihan.
Sistem file paralel sangat penting untuk komputasi berperforma tinggi (HPC). Dalam peramalan cuaca, sistem file paralel menangani data meteorologi yang sangat besar untuk menghasilkan prediksi yang akurat. Para engineer menggunakannya untuk simulasi dinamika fluida yang kompleks, sehingga meningkatkan desain pesawat terbang dan otomotif. Lembaga keuangan mempercepat penilaian risiko dan prediksi pasar dengan memproses set data keuangan yang sangat besar. Sistem ini memberikan throughput tinggi dan latensi rendah yang diperlukan untuk workload dengan data yang intensif, sehingga memungkinkan analisis yang lebih cepat dan lebih efisien di seluruh aplikasi HPC yang penting.
Sistem file paralel sangat penting untuk komputasi berperforma tinggi (HPC). Dalam peramalan cuaca, sistem file paralel menangani data meteorologi yang sangat besar untuk menghasilkan prediksi yang akurat. Para engineer menggunakannya untuk simulasi dinamika fluida yang kompleks, sehingga meningkatkan desain pesawat terbang dan otomotif. Lembaga keuangan mempercepat penilaian risiko dan prediksi pasar dengan memproses set data keuangan yang sangat besar. Sistem ini memberikan throughput tinggi dan latensi rendah yang diperlukan untuk workload dengan data yang intensif, sehingga memungkinkan analisis yang lebih cepat dan lebih efisien di seluruh aplikasi HPC yang penting.
Harga
Harga Managed Lustre | Harga untuk Managed Lustre terutama didasarkan pada lokasi dan tingkat layanan. |
---|---|
Tingkat layanan | Harga |
1.000 MB/dtk/TB Terbaik untuk workload berperforma tinggi seperti pelatihan AI/ML yang membutuhkan throughput tinggi. | Mulai $0,60 per GiB per bulan |
500 MB/dtk/TiB Terbaik untuk Keseimbangan Performa Tinggi: Sangat baik untuk workload AI/ML yang menuntut, aplikasi HPC yang kompleks, dan analisis intensif data yang memerlukan throughput besar, tetapi dapat memperoleh manfaat dari rasio harga terhadap performa yang lebih seimbang. | Mulai $0,34 per GiB per bulan |
250 MB/dtk/TiB Terbaik untuk HPC Tujuan Umum & AI yang Intensif Throughput: Cocok untuk berbagai workload HPC, inferensi AI/ML, prapemrosesan data, dan aplikasi yang memerlukan performa yang jauh lebih baik daripada NFS tradisional, dengan titik harga yang hemat biaya. | Mulai $0,21 per GiB per bulan |
125 MB/dtk/TiB Terbaik untuk Workload yang Berfokus pada Kapasitas dengan Kebutuhan Akses Paralel: Dirancang untuk skenario yang memerlukan kapasitas besar dan akses sistem file paralel. Cocok untuk tugas paralel yang tidak terlalu terikat I/O. | Mulai $0,145 per GiB per bulan |
Pelajari harga Google Cloud lebih lanjut. Lihat semua detail harga.
Harga Managed Lustre
Harga untuk Managed Lustre terutama didasarkan pada lokasi dan tingkat layanan.
1.000 MB/dtk/TB
Terbaik untuk workload berperforma tinggi seperti pelatihan AI/ML yang membutuhkan throughput tinggi.
Mulai $0,60 per GiB per bulan
500 MB/dtk/TiB
Terbaik untuk Keseimbangan Performa Tinggi: Sangat baik untuk workload AI/ML yang menuntut, aplikasi HPC yang kompleks, dan analisis intensif data yang memerlukan throughput besar, tetapi dapat memperoleh manfaat dari rasio harga terhadap performa yang lebih seimbang.
Mulai $0,34 per GiB per bulan
250 MB/dtk/TiB
Terbaik untuk HPC Tujuan Umum & AI yang Intensif Throughput: Cocok untuk berbagai workload HPC, inferensi AI/ML, prapemrosesan data, dan aplikasi yang memerlukan performa yang jauh lebih baik daripada NFS tradisional, dengan titik harga yang hemat biaya.
Mulai $0,21 per GiB per bulan
125 MB/dtk/TiB
Terbaik untuk Workload yang Berfokus pada Kapasitas dengan Kebutuhan Akses Paralel: Dirancang untuk skenario yang memerlukan kapasitas besar dan akses sistem file paralel. Cocok untuk tugas paralel yang tidak terlalu terikat I/O.
Mulai $0,145 per GiB per bulan
Pelajari harga Google Cloud lebih lanjut. Lihat semua detail harga.