LiteRT Next による NPU アクセラレーション
LiteRT Next は、ベンダー固有のコンパイラ、ランタイム、ライブラリの依存関係を個別にナビゲートすることなく、ニューラル プロセッシング ユニット(NPU)を使用するための統合インターフェースを提供します。NPU アクセラレーションに LiteRT Next を使用すると、ベンダー固有またはデバイス固有の複雑さを回避し、リアルタイム推論と大規模モデル推論のパフォーマンスを向上させ、ゼロコピー ハードウェア バッファの使用を通じてメモリコピーを最小限に抑えることができます。
LiteRT NPU 早期アクセス プログラムにすでに登録している場合は、承認済みのアカウントにログインして NPU のドキュメントを表示します。登録していない場合は、早期アクセス プログラムに登録します。
登録arrow_forward
使ってみる
まず、NPU の概要ガイドをご覧ください。
- 従来の ML モデルの場合は、コア フレームワークに直接進みます。
- 大規模言語モデル(LLM)の場合、NPU 実行に必要なエンドツーエンド処理を処理するには、LiteRT-LM フレームワークを使用することをおすすめします。
NPU サポート付きの LiteRT Next の実装例については、次のデモアプリを参照してください。
NPU ベンダー
LiteRT Next は、次のベンダーの NPU アクセラレーションをサポートしています。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-07-10 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-07-10 UTC。"],[],[]]