LiteRT Next cung cấp một giao diện hợp nhất để sử dụng Đơn vị xử lý thần kinh (NPU) mà không bắt buộc bạn phải điều hướng riêng lẻ các trình biên dịch, thời gian chạy hoặc phần phụ thuộc thư viện dành riêng cho nhà cung cấp. Việc sử dụng LiteRT Next để tăng tốc NPU giúp tránh nhiều vấn đề phức tạp dành riêng cho nhà cung cấp hoặc thiết bị, tăng hiệu suất cho suy luận theo thời gian thực và mô hình lớn, đồng thời giảm thiểu việc sao chép bộ nhớ thông qua việc sử dụng bộ đệm phần cứng không sao chép.
Nếu bạn đã đăng ký tham gia Chương trình tiếp cận sớm NPU LiteRT, hãy đăng nhập vào tài khoản được uỷ quyền để xem tài liệu về NPU. Nếu bạn chưa đăng ký, hãy đăng ký tham gia Chương trình tiếp cận sớm:
Đối với Mô hình ngôn ngữ lớn (LLM), bạn nên sử dụng khung LiteRT-LM của chúng tôi để xử lý quy trình xử lý bắt buộc từ đầu đến cuối cho việc thực thi NPU:
[[["Dễ hiểu","easyToUnderstand","thumb-up"],["Giúp tôi giải quyết được vấn đề","solvedMyProblem","thumb-up"],["Khác","otherUp","thumb-up"]],[["Thiếu thông tin tôi cần","missingTheInformationINeed","thumb-down"],["Quá phức tạp/quá nhiều bước","tooComplicatedTooManySteps","thumb-down"],["Đã lỗi thời","outOfDate","thumb-down"],["Vấn đề về bản dịch","translationIssue","thumb-down"],["Vấn đề về mẫu/mã","samplesCodeIssue","thumb-down"],["Khác","otherDown","thumb-down"]],["Cập nhật lần gần đây nhất: 2025-07-10 UTC."],[],[]]