top of page

엔비디아, 스노우플레이크와 협업이 기업의 Generative AI 전략에 끼치는 영향은?

최근 엔비디아, 스노우플레이크가 생성형 AI 관련해 협업을 한다고 발표하였습니다. 이에 따라 앞으로 대규모 언어 모델(LLM) 개발을 위한 엔비디아 네모(NeMo) 플랫폼과 엔비디아 GPU 가속 컴퓨팅을 통해 스노우플레이크 계정의 데이터를 사용할 수 있게 됩니다.


양사의 협력은 기업의 생성형 AI 투자 전략에 큰 영향을 끼칠 전망입니다. 그 이유는? 바로 데이터에 대한 고민을 해결하기 때문입니다. 스노우플레이크 계정의 데이터를 사용할 수 있다는 것은 기업이 대량의 데이터를 처리할 수 있도록 LLM 모델을 확장할 수 있다는 것을 의미합니다. 이는 고객 서비스 챗봇이나 검색 엔진과 같이 대량의 텍스트를 생성해야 하는 비즈니스에 중요합니다.


LLM을 위한 데이터 파이프라인의 중심에 스노우플레이크를 둔다는 것이 갖는 중요한 의미는 바로 ‘이동이 필요 없다는 것’입니다. 데이터를 이동하지 않고 LLM을 생성할 수 있다는 것은 기업이 데이터를 안전하게 유지할 수 있다는 것을 의미합니다.

데이터 파이프라인 간소화는 모델 배포의 민첩성도 높입니다. 스노우플레이크와 NVIDIA NeMo의 조합을 통해 기업은 LLM 모델을 쉽게 생성하고 배포할 수 있습니다. 이를 통해 기업이 생성형 AI에 투자할 가능성이 높아질 것입니다.

조금 더 자세히 알아볼까요. 조직은 교육, 미세 조정, 강화 학습 등을 위해 구축한 NeMo의 실행 에이전트를 스노우플레이크 플랫폼으로 가져와 통합할 수 있습니다. 데이터가 있는 보안이 강화된 스노우플레이크의 환경이 제공하는 Snowpark 컨테이너 서비스를 통해 NeMo의 실행 에이전트를 실행할 수 있다는 것이죠.

통제된 클라우드 기반 환경의 이점이 극대화 된다고 보면 되는데요. 기업은 스노우플레이크 외부로 데이터를 이동하지 않고도 NVIDIA GPU 위에서 컨테이너화된 애플리케이션을 실행할 수 있어 보안과 규제 관련 통제력과 투명성을 높일 수 있습니다. 참고로 Snowpark 컨테이너 서비스는 현재 프리뷰로 제공되고 있습니다. 더 자세한 내용은 스노우플레이크 블로그를 참조 바랍니다.




조회수 4회댓글 0개
bottom of page