本頁說明 Vertex AI 的 TensorFlow 整合功能,並提供相關資源,協助您瞭解如何在 Vertex AI 上使用 TensorFlow。Vertex AI 的 TensorFlow 整合功能可讓您在正式環境中,更輕鬆地訓練、部署及自動化調度 TensorFlow 模型。
在筆記本中執行程式碼
Vertex AI 提供兩種在筆記本中執行程式碼的選項:Colab Enterprise 和 Vertex AI Workbench。如要進一步瞭解這些選項,請參閱選擇筆記本解決方案。
用於訓練的預先建構容器
Vertex AI 提供預建的 Docker 容器映像檔,用於模型訓練。這些容器是依據機器學習架構和架構版本來分類,其中包含您可能會想在訓練程式碼中使用的常見依附元件。
如要瞭解哪些 TensorFlow 版本有預先建構的訓練容器,以及如何使用預先建構的訓練容器訓練模型,請參閱「自訂訓練的預先建構容器」。
分散式訓練
您可以在 Vertex AI 上執行 TensorFlow 模型的分散式訓練。對於多工作站訓練,您可以使用 Reduction Server,進一步最佳化所有縮減集體作業的效能。如要進一步瞭解 Vertex AI 中的分散式訓練,請參閱「分散式訓練」。
用於推論的預先建構容器
與訓練用的預建容器類似,Vertex AI 也提供預建容器映像檔,可從您在 Vertex AI 內外建立的 TensorFlow 模型,提供推論和說明。這些映像檔提供 HTTP 推論伺服器,您可以使用這些伺服器放送推論,且設定作業極為簡單。
如要瞭解哪些 TensorFlow 版本有預先建構的訓練容器,以及如何使用預先建構的訓練容器訓練模型,請參閱「自訂訓練的預先建構容器」。
最佳化 TensorFlow 執行階段
最佳化 TensorFlow 執行階段採用模型最佳化和 Google 全新專有技術,與 Vertex AI 的標準預建 TensorFlow 推論容器相比,可提升推論速度並降低成本。
整合 TensorFlow Cloud Profiler
透過 Vertex AI 的 TensorFlow Cloud Profiler 整合功能,監控及最佳化訓練作業的效能,以更便宜且快速的方式訓練模型。TensorFlow Cloud Profiler 可協助您瞭解訓練作業的資源消耗情形,找出並解決效能瓶頸。
如要進一步瞭解 Vertex AI TensorFlow Cloud Profiler,請參閱「使用 Profiler 分析模型訓練效能」。
在 Vertex AI 上使用 TensorFlow 的資源
如要進一步瞭解如何在 Vertex AI 中使用 TensorFlow,請參閱下列資源。
從設計原型到投入實際工作環境: 這個系列影片提供端對端範例,說明如何在 Vertex AI 上開發及部署自訂 TensorFlow 模型。
利用 Vertex AI 上的縮減伺服器最佳化訓練效能: 這篇網誌文章說明如何使用縮減伺服器,在 Vertex AI 上最佳化分散式訓練。
如何使用 Vertex AI 上的 TensorFlow Cloud Profiler 提升訓練效能: 這篇網誌文章說明如何使用 Vertex AI TensorFlow Cloud Profiler,找出訓練工作中的效能瓶頸。
使用特徵篩選功能進行自訂模型批次預測: 這個筆記本教學課程說明如何使用 Vertex AI SDK for Python 訓練自訂表格分類模型,以及如何使用特徵篩選功能執行批次推論。
Vertex AI Pipelines:使用預先建構的管道元件進行自訂訓練 Google Cloud: 這份 Notebook 教學課程說明如何搭配使用 Vertex AI Pipelines 與預先建構的管道元件,進行自訂訓練。 Google Cloud
在同一部 VM 上共同代管 TensorFlow 模型以進行預測: 本程式碼研究室說明如何使用 Vertex AI 的共同代管模型功能,在同一部 VM 上代管多個模型,以進行線上推論。