Lablup - Backend.AI

Backend.AI는 AI 분산 처리 솔루션 및 서비스 개발 기업인 래블업(Lablup)이 개발한 클라우드 기술을 기반으로 하는 GPU 자원 관리 플랫폼입니다. Backend.AI는 NVIDIA가 제공하는 NVlink, NVSwitch, NGC 기술에 최적화되어 있어 온프레미스, 하이브리드, 공용 클라우드 어디에 자원이 있건 최상의 성능을 보장합니다. 또한, 컨테이너 클러스터를 대상으로 유연하고 신속하게 GPU 자원을 할당하고 관리할 수 있어 MLOps, DevOps 체계를 손쉽게 확립해 머신 러닝, 딥러닝 모델 개발과 트레이닝을 가속할 수 있습니다. 

컨테이너 기반 GPU 클라우드 솔루션 - Backend.AI

Backend.AI는 컨테이너 환경에 최적화된 GPU 자원 관리 플랫폼입니다. GPU 자원 공유를 위해 사용자가 알아야 할 것은 하나도 없습니다. GPU 가상화, 리소스 할당과 회수 등 기술적 고려 사항 없이 도입 즉시 바로 데이터 과학자와 AI 개발자가 자신의 프로젝트에 맞는 트레이닝 환경을 컨테이너 환경에 구축하고 필요한 만큼 GPU 자원을 할당할 수 있습니다. Backend.AI는 Jupyter, VSCode, Atom, PyCharm 등의 도구와 긴밀히 통합되어 있어 데이터 과학자와 AI 개발자가 친숙하게 이용할 수 있습니다. 더불어 중요 AI 관련 프레임워크와 라이브러리를 지원하여 데이터 과학자나 AI 개발자는 다양한 소프트웨어 스택으로 구성된 개발과 트레이닝 환경을 자유롭게 구성할 수 있는 편의성도 제공합니다. 

스크린샷 2020-03-09 오전 11.56.39.png

Backend.AI를 이용하면 GPU 자원 관리 부담을 덜 수 있습니다. GPU뿐만 아니라 CPU, 메모리, 스토리지 자원을 자유롭게 조합해 할당할 수 있습니다. 사용자가 GPU 가상화나 리소스 배치를 알아야 할 필요는 없습니다. 자원 배치와 관리를 위한 코드는 자동으로 최적화됩니다. 따라서 인프라에 변화가 일어나도 늘 최적의 상태에서 자원 배포와 관리를 할 수 있습니다. 

온프레미스, 하이브리드, 공용 클라우드 모두 지원

Backend.AI는 기업의 필요에 따라 다양한 방식으로 이용할 수 있습니다. 사내에 GPU 기반 컴퓨팅 인프라를 구성해 운영할 수도 있고, 하이브리드 클라우드 방식으로도 사용할 수 있습니다. GCP, AWS, 마이크로소프트 애저 등 공용 클라우드를 통해서도 이용할 수 있습니다. GPU 자원의 위치에 관계없이 데이터 과학자와 AI 개발자는 컨테이너화된 AI 워크로드를 배포해 운영할 수 있습니다. 인프라 관리자 역시 GPU 자원이 어디에 있건 통합 운영 환경으로 모니터링, 스케줄링, 보안과 데이터 관리 등의 작업을 수행할 수 있습니다. 

온프레미스

Backend.AI On-Premise

  • 컨테이너 수준 GPU 가상화로 부분 GPU 할당에서 다중 GPU 할당까지 적용 가능

  • 다양한 개발 도구를 버전 별로 여러 사용자에 동시에 사용 가능

  • 통합 스케줄링과 모니터링, 데이터까지 GUI 환경에서 손쉽게 관리

  • Open Source 버전: 무료, 일부 기능 제약 

  • Enterprise 버전: GPU 특화 기능과 전문적인 기술 지원 제공  

클라우드

Backend.AI Cloud

  • 고가의 GPU를 필요한 만큼만 사용하고 쓴 만큼만 비용 지불

  • 필요한 연산 자원과 개발 도구바로 개발 시작

  • 자원 현황부터 개발까지 쉽고 깔끔한 웹 GPU로 사용

  • Basic 버전: 무료, 머신 러닝 입문에 적합

  • Pro 버전: 필요한 만큼 이용할 수 있는 GPU 클라우드

  • Enterprise 버전: 기업 및 기관에 특화된 그룹 관리 및 효율적인 자원 분배를 지원하는 클라우드 서비스