NVIDIA

DGX Station A100

DGX Station A100은 AI, 딥러닝 전문가를 위해 특별히 고안된 개인용 슈퍼컴퓨터입니다. 데이터센터급 성능을 1대의 워크스테이션을 통해 이용할 수 있습니다. 일반 사무실이나 연구실 환경에 맞추어 일반적인 워크스테이션 대비 1/10의 소음을 내도록 수냉식 쿨러를 장착하고 있습니다. 또한, 다양한 딥러닝 프레임워크와 개발 환경 및 도구를 사전에 통합된 형태로 제공합니다. 

NVIDIA DGX Station A100은 AI, 딥러닝 관련 현업 부서의 요구 사항을 신속하게 수용할 수 있도록 설계된 세계 최초의 개인용 AI 슈퍼컴퓨터입니다. 많은 기업이 현업 부서에서 AI 프로젝트를 위해 GPU 카드 및 관련 워크스테이션을 사용합니다. 이들 자원은 대부분 IT 부서의 통제 아래 있지 않은 Shdow IT 환경에 놓여 있게 됩니다. 이런 경우 자원의 배치와 사용 측면에서 비효율이 커집니다. DGX Station A100은 책상 위에 올려놓고 사용할 수 있는 작은 워크스테이션 크기의 시스템입니다. 수냉식 냉각을 하므로 사무실에서 사용해도 소음 걱정이 없습니다. 반면에 이 작은 워크스테이션 하나가 현업 사용자에게는 슈퍼컴퓨터의 파워를 제공합니다. 따라서 어떤 AI 프로젝트를 현업 사용자가 추진 중이건 늘 최상의 환경에서 최고의 결과를 얻을 수 있습니다. 

DGX Station A100은 도입 즉시 사용이 가능합니다. 하드웨어 구매 후 드라이버 최적화, 각종 소프트웨어 설치에 시간을 따로 들일 필요가 없습니다. 널리 쓰이는 딥러닝 프레임워크부터 시작해 NVIDIA DIGITS 딥러닝 트레이닝 애플리케이션, 써드파티 가속 솔루션, NVIDIA 딥러닝 SDK(cuDNN, cuBLAS), CUDA 툴킷, Fast multi-GPU collective NCCL, NVIDIA 드라이브 등이 사전에 최적화되어 있습니다. 따라서 보통 1달 이상 걸리는 최적화 작업 시간이 필요 없으므로 DGX Station A100은 도입한 날 바로 딥러닝 트레이닝을 할 수 있습니다. 또한, 컨테이너와 도커 기술을 지원하므로 AI, 딥러닝 관련 여러 프로젝트를 단일 워크스테이션 상에 올려 처리할 수 있습니다. 더 큰 성능과 용량이 필요할 경우 코드 수정 없이 바로 DGX A100이나 클라우드로 마이그레이션해 트레이닝을 할 수 있습니다. 물론 왠만한 딥러닝 모델은 DGX Station A100이 제공하는 성능으로 충분히 처리합니다. 

AI Data-Center-in-a-Box

DGX Station A100의 모토는 'AI Data Center in a Box'입니다. 일반 타워형 데스크톱 보다 약간 큰 사이즈의 이 작은 시스템에 데이터센터를 담았습니다. DGX Station A100은 NVIDIA A100 Tensor Core GPU 4개가 장착되어 있습니다. 이들 GPU는 NVIDIA NVLink로 연결되어 마치 하나처럼 동작합니다. 참고로 DGX Station A100은 4개의 80GB 또는 40GB NVIDIA A100 Tensor Core GPU를 장착할 수 있으며, 이외에도 여러 옵션을 제공합니다. 그렇다면 이전 세대 DGX Station과 비교해 성능은 얼마나 좋아졌을까요? BERT Large 모델을 인퍼런싱 작업을 기준으로 DGX Station A100은 이전 세대 시스템보다 4배 이상 빠르고, 트레이닝 작업은 3배 더 빠릅니다. 성능 향상은 옵션 구성을 통해 극대화할 수 있습니다. DGX Station A100은 데이터센터급 워크로드 처리도 가능합니다. NVIDIA A100 80GB 모델 GPU를 선택하면 시스템 당 메모리 용량이 640GB에 이릅니다. 이에 따라 더 큰 데이터 세트와 모델 처리에도 부족함이 없습니다. 또한, DGX Station A100 640GB 메모리 모델은 NVIDIA DGX SuperPOD과 통합 운영이 가능하여 전사 측면에서 자원 통합에도 유리합니다.

MIG를 지원하는 유일한 워크 그룹 서버 

DGX Station A100은 단일 시스템만으로도 충분히 데이터센터급 활용성을 제공합니다. DGX Station A100은 워크 그룹 서버 및 워크스테이션 중 유일하게 다중 인스턴스 GPU(MIG)를 지원합니다. MIG를 이용하면 한 대의 DGX Station A100 시스템을 최대 28개의 독립적인 GPU 인스턴스로 나누어 활용할 수 있습니다. 각 인스턴스는 물리적으로 독립적이므로 서로 영향을 주지 않습니다. 따라서 여러 사용자가 동시에 DGX Station A100 한 대에서 병렬로 작업을 처리할 수 있습니다. 이런 특징으로 NVIDIA는 DGX Station A100을 'Data Center in a Box'라고 부릅니다.

NVIDIA DGX Station A100은 AI 관련 모델과 애플리케이션을 다양한 프로젝트 이해 관계자가 손쉽게 개발할 수 있는 출발점입니다. 더 큰 성능과 용량이 필요한 모델링, 트레이닝, 인퍼런싱이 필요해도 코드 수정 없이 배포해 원하는 결과를 받아 볼 수 있습니다. 이것이 바로 전사 측면에서 추구할 수 있는 AI Transformation입니다.  

Contact Us

주소: 서울특별시 중구 퇴계로 286 쌍림빌딩 8/9층 (주)유클릭 AI 사업본부

전화: 02-6320-0121

© 2030 by uDNA & Uclick

  • 블랙 블로거 아이콘
  • 블랙 유튜브 아이콘