XLA

XLA (Đại số tuyến tính tăng tốc) là một trình biên dịch nguồn mở dành cho công nghệ học máy. Trình biên dịch XLA lấy mô hình từ các khung phổ biến như PyTorch, TensorFlow và JAX, đồng thời tối ưu hoá các mô hình đó để thực thi hiệu suất cao trên nhiều nền tảng phần cứng, bao gồm GPU, CPU và trình tăng tốc học máy. Ví dụ: trong một yêu cầu gửi MLPerf BERT, việc sử dụng XLA với 8 GPU Volta V100 đã giúp cải thiện hiệu suất xấp xỉ 7 lần và cải thiện kích thước theo lô xấp xỉ 5 lần so với các GPU tương tự không có XLA.

Nằm trong dự án OpenXLA, XLA được các công ty phần cứng và phần mềm học máy hàng đầu trong ngành xây dựng, trong đó có Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta và NVIDIA cùng hợp tác xây dựng XLA.

Lợi ích chính

  • Xây dựng ở mọi nơi: XLA đã được tích hợp vào các khung ML hàng đầu như TensorFlow, PyTorch và JAX.

  • Chạy ở mọi nơi: Giải pháp này hỗ trợ nhiều phần phụ trợ, bao gồm cả GPU, CPU và trình tăng tốc học máy, đồng thời bao gồm một cơ sở hạ tầng có thể cắm để hỗ trợ nhiều công cụ khác.

  • Tối đa hoá hiệu suất và mở rộng quy mô hiệu suất: Tính năng này tối ưu hoá hiệu suất của mô hình bằng các lần truyền tối ưu hoá thử nghiệm chính thức và phân vùng tự động cho mô hình song song.

  • Loại bỏ sự phức tạp: Giải pháp này tận dụng sức mạnh của MLIR để đưa các tính năng tốt nhất vào một chuỗi công cụ của trình biên dịch duy nhất, nhờ đó, bạn không phải quản lý nhiều trình biên dịch theo miền cụ thể.

  • Sẵn sàng cho tương lai: Là một dự án nguồn mở, được xây dựng thông qua sự cộng tác của các nhà cung cấp phần cứng và phần mềm học máy hàng đầu, XLA được thiết kế để vận hành ở vị trí tiên phong của ngành công nghiệp học máy.

Tài liệu

Để tìm hiểu thêm về XLA, hãy nhấp vào các đường liên kết ở bên trái. Nếu là nhà phát triển XLA mới, bạn nên bắt đầu từ kiến trúc XLA rồi đọc Bài đánh giá mã.