본문으로 이동

Accelerated Linear Algebra

위키백과, 우리 모두의 백과사전.
XLA
Accelerated Linear Algebra
개발자OpenXLA
저장소(영어) xla - 깃허브
프로그래밍 언어C++
운영 체제리눅스, MacOS, Windows
종류컴파일러
라이선스Apache License 2.0
웹사이트openxla.org

Accelerated Linear Algebra(XLA)는 OpenXLA 프로젝트에서 개발한 기계 학습을 위한 오픈 소스 컴파일러이다.[1] XLA는 더 낮은 수준에서 계산 그래프를 최적화하여 기계 학습 모델의 성능을 향상시키도록 설계되었으며, 대규모 계산 및 고성능 기계 학습 모델에 특히 유용하다. XLA의 주요 기능은 다음과 같다.[2]

  • 계산 그래프 컴파일: 계산 그래프를 효율적인 기계 코드로 컴파일한다.
  • 최적화 기술: 연산 융합, 메모리 최적화 및 기타 기술을 적용한다.
  • 하드웨어 지원: CPU, GPU, NPU를 포함한 다양한 하드웨어에 맞게 모델을 최적화한다.
  • 모델 실행 시간 개선: 학습 및 추론 모두에서 기계 학습 모델의 실행 시간을 줄이는 것을 목표로 한다.
  • 원활한 통합: 최소한의 변경으로 기존 기계 학습 코드와 함께 사용할 수 있다.

XLA는 기계 학습 모델을 최적화하는 데 중요한 단계이며, 개발자에게 계산 효율성과 성능을 향상시키는 도구를 제공한다.[3][4]

지원되는 대상 장치

[편집]

같이 보기

[편집]

각주

[편집]
  1. “OpenXLA Project”. 2024년 12월 21일에 확인함. 
  2. Woodie, Alex (2023년 3월 9일). “OpenXLA Delivers Flexibility for ML Apps”. 《Datanami》. 2023년 12월 10일에 확인함. 
  3. “TensorFlow XLA: Accelerated Linear Algebra”. 《TensorFlow Official Documentation》. 2023년 12월 10일에 확인함. 
  4. Smith, John (2022년 7월 15일). 《Optimizing TensorFlow Models with XLA》. 《Journal of Machine Learning Research》 23. 45–60쪽. 
  5. “intel/intel-extension-for-openxla”. 《GitHub. 2024년 12월 29일에 확인함. 
  6. “Accelerated JAX on Mac - Metal - Apple Developer”. 2024년 12월 29일에 확인함. 
  7. “Developer Guide for Training with PyTorch NeuronX — AWS Neuron Documentation”. 《awsdocs-neuron.readthedocs-hosted.com》. 2024년 12월 29일에 확인함. 
  8. Barsoum, Emad (2022년 4월 13일). “Supporting PyTorch on the Cerebras Wafer-Scale Engine - Cerebras” (영어). 《Cerebras》. 2024년 12월 29일에 확인함. 
  9. Ltd, Graphcore. “Poplar® Software”. 《graphcore.ai》. 2024년 12월 29일에 확인함. 
  10. “PyTorch/XLA documentation — PyTorch/XLA master documentation”. 《pytorch.org》. 2024년 12월 29일에 확인함.