Chang Sun Park2022년 5월 31일2분DGX SuperPOD 옵션으로 DGX H100을 선택할 수 있는 시기는?최근 NVIDIA DGX H100에 대한 관심이 커지고 있습니다. 그도 그럴 것이 전 세대 모델인 DGX A100보다 성능이 크게 높아졌기 때문입니다. 어느 정도일까요? NVIDIA의 DGX H100은 H100 Tensor Core GPU를...
Chang Sun Park2021년 8월 5일2분NVIDIA Base Command 플랫폼 - 북미 지역 공식 서비스 개시 베일에 가려져 있던 NVIDIA Base Command 플랫폼의 실제 모습을 이제 직접 확인할 수 있게 되었습니다. 개념만 소개했을 뿐인데 많은 이들이 언제 이용 가능한지 궁금해했던 바로 그 플랫폼을 NVIDIA가 공식 런칭했습니다. 일단 북미...
Chang Sun Park2021년 1월 27일2분VAST 데이터와 엔비디아, 공동 개발한 AI 인프라 레퍼런스 아키텍처 공개VAST 데이터와 엔비디아가 공동 개발한 레퍼런스 아키텍처 관련 보도자료가 배포되었습니다. 원문 공유되고 있으니 참조 바랍니다. [2021년 1월 27일] AI 전용 스토리지 기업인 VAST 데이터와 엔비디아(NVIDIA)가 차세대 AI, HPC...
Chang Sun Park2021년 1월 12일2분그린 AI 데이터센터 구축을 위한 팁 데이터센터는 한정된 자원입니다. 전력, 공조 등 기반 시설과 공간을 채울 수 있는 서버와 각종 장비의 수도 정해져 있습니다. 그렇다면 이 시설을 어떻게 운영해야 ‘그린(Green)’ 데이터센터로 경제성과 효율성 모두를 인정받을 수 있을까요? 지금...
Chang Sun Park2020년 9월 28일2분GPU 가속 기반 인프라 프로비져닝을 위한 팁 GPU 가속 인프라를 쉽고 빠르게 구축하는 길은 무엇일까요? 바로 NVIDIA가 제시하는 레퍼런스 아키텍처를 따르는 것입니다. NVIDIA는 DGX POD를 통해 컴퓨팅, 네트워킹, 스토리지 통합 아키텍처를 제시합니다. 이를 따르면 인프라 구축과...
Chang Sun Park2020년 8월 24일6분kubeflow만 있으면 충분? cnvrg.io를 통해 살펴본 End-To-End MLOps 플랫폼의 필요 충분 조건 kubeflow를 이용해 머신 러닝 파이프라인을 구축하는 것이 요즘 입니다. kubeflow는 머신 러닝 워크플로우를 쿠버네티스(kubernetes) 환경에 배포하는 작업을 간소화합니다. 간단히 말해 컨테이너 환경에서 머신 러닝 모델 배포...
Chang Sun Park2020년 8월 18일3분NVIDIA DGX A100의 멀티 인스턴스 GPU 기능 본격 지원하는 MLOps 플랫폼 - cnvrg.ioMLOps 플랫폼으로 유명한 cnvrg.io가 NVIDIA DGX A100의 멀티 인스턴스 GPU(이하 MIG) 기능을 본격적으로 지원합니다. DGX A100은 NVIDIA A100 Tensor Core GPU를 장착한 최신 시스템입니다. DGX...
Chang Sun Park2020년 8월 4일2분GPUDirect Storage - 스토리지와 GPU 메모리 직통 연결! AI, HPC 워크로드 성능 병목 문제의 근본적인 해결책...AI, HPC 워크로드 성능을 이야기할 때 만성 병목 구간으로 지목되는 곳이 있습니다. 네, 스토리지입니다. AI, HPC 데이터 세트가 나날이 커지면서 스토리지 성능 병목은 모두의 고민이 되었습니다. 성능 저하의 본질적인 문제 해결을 위해...