top of page

기업이 Generative AI를 활용하는 세 가지 옵션

생성형 AI(Generative AI) 도입에 대한 고민을 많이 기업들이 하고 있습니다. 이번 포스팅에서는 기업이 고려할 수 있는 생성형 AI 전략을 세 가지 측면에서 간단히 살펴보고자 합니다.


생성형 AI 서비스를 API로 이용하기

파운데이션 모델은 클라우드 기반 서비스로 인프라 투자 없이 이용을 할 수 있습니다. 오픈AI의 ChatGPT, NVIDIA의 AI Foundations 그리고 마이크로소프트나 구글 등의 퍼블릭 클라우드 사업자가 제공하는 서비스를 통해 파운데이션 모델을 이용할 수 있습니다. 이 경우 초기 투자 비용 없이 초거대 모델을 파인튜닝하여 비즈니스 목적에 맞게 활용할 수 있는 이점이 있습니다. 대부분의 서비스는 파운데이션 모델을 더 빠르고 효율적으로 이용할 수 있도록 프롬프트 엔지니어링 및 로우코드/노코드 기반 파인튜닝 도구를 제공합니다. 이런 이유로 인력, 예산 등이 부족한 조직도 초거대 모델을 이용할 수 있습니다.


장점이 큰 반면에 아직도 많은 조직이 보안과 규제 측면에서 우려의 시각을 보내기도 합니다. 기업은 조직원들이 ChatGPT, Bard 같은 서비스를 사용할 경우 질문을 입력하고 답변을 받는 과정 속에서 기업의 중요 정보가 생성형 AI 서비스 제공 기업에 넘어 가는 것을 경계하고 있습니다. 이는 막연한 우려가 아닙니다. 오픈AI 이용 약관을 보면 ChatGPT 성능 향상을 위해 사용자가 입력한 데이터를 사용한다는 문구가 있습니다. 이런 이유로 국내 주요 대기업은 생성형 AI 서비스의 사내 사용을 막는 조치를 발빠르게 취하였습니다. 삼성전자 같은 기업의 경우 자체 생성형 AI 개발을 발표하기도 하였습니다. 실제로 ChatGPT와 Bard는 공개적으로 사용 가능한 정보를 포함할 수 있는 대규모 데이터 세트에 대해 학습됩니다. 모델이 실수로 실제 데이터나 기밀과 유사한 정보를 생성할 수 있다는 우려가 있습니다. 학습 데이터가 익명화되고 민감한 정보가 포함되지 않도록 하기 위해 노력하고 있지만, 의도하지 않은 데이터 유출의 위험은 항상 존재합니다. 또한, ChatGPT와 Bard는 아직 개발 중이며, 공격자가 악용할 수 있는 보안 취약점이 있을 수 있습니다. 이로 인해 공격자는 민감한 데이터에 액세스할 수 있습니다. 사전 학습된 초거대 모델 파인튜닝의 장단점을 정리하면 다음과 같습니다.


직접 구축하기


GPT, BERT, PaLM, LaMDA, DALL-E 같은 파운데이션 모델(Foundation Model)을 NVIDIA SuperPOD 같은 강력한 GPU 기반 컴퓨팅 인프라를 기반으로 직접 훈련과 최적화를 하는 접근법입니다. 파운데이이션 모델을 이용할 경우 비즈니스 목적에 맞게 해야 할 작업들이 매우 많습니다. 이런 이유로 시간과 비용이 많이 듭니다. 이 전략은 예산, 인력 그리고 방대한 내부 데이터를 보유한 조직에게 알맞다고 볼 수 있습니다.


직접 구축할 때 기업이 고려할 수 있는 옵션 중 하나는 NVIDIA NeMo를 이용하는 것입니다. NeMo는 도메인별 데이터에 대해 미세 조정할 수 있는 사전 훈련된 모델 모음을 제공합니다. 이를 통해 조직은 모델을 처음부터 학습시키지 않고도 고유한 요구 사항에 더 잘 맞도록 모델을 사용자 지정할 수 있습니다. NeMo는 모듈식 접근 방식을 따릅니다. 따라서 구성 요소(인코더, 디코더, 언어 모델 등)를 쉽게 교체하여 다양한 아키텍처를 실험하고 특정 작업에 가장 적합한 구성을 찾을 수 있습니다. 다음으로 기업은 NeMo의 데이터 처리 유틸리티를 사용하여 훈련을 위한 자체 데이터 세트를 준비할 수 있습니다. 여기에는 데이터 증강, 기능 추출, 데이터 세트 변환을 위한 도구가 포함되며, 이는 사용자 지정 데이터에서 고품질 모델을 학습하는 데 매우 중요합니다. 훈련 및 미세 조정 역시 기업의 요구를 충실히 담아 내고 있습니다. NeMo는 다양한 훈련 스크립트와 구성 파일을 제공하므로 사용자 지정 데이터 세트에서 모델을 쉽게 훈련할 수 있습니다.



경량화된 초거대 모델 파인튜닝

양질의 데이터를 보유한 경우 파운데이션 모델보다 비즈니스 목표에 맞게 사전 최적화된 경량화된 모델을 이용하는 것이 더 유리합니다. 이런 이유로 최근 많은 조직이 소형 언어 모델(sLLM, small Large Language Model)에 대한 관심이높아지고 있습니다. sLLM은 LLM에 비하여 변수의 수가 적으며 60억(6B) 내지 100억(10B)대를 지칭하는 신조어입니다. sLLM은 훈련을 위한 소요 비용 및 시간 절감이 되며 다른 애플리케이션과 통합하기 쉽습니다. 또한, 기업이 기존 보유한 데이터 활용하여 맞춤형으로 구축하기 수월하여 효율성이 좋다는 이점이 있습니다. 이러한 이유로 기업에서 저마다의 언어 모델과 이를 기반으로 질문 응답 챗봇을 구축할 수 있어 각광받고 있습니다.


간단히 기업이 생성형 AI를 활용하는 방안을 살펴 보았습니다. 더 자세한 내용은 유클릭의 ‘엔터프라이즈를 위한 생성형 AI 전략’ 백서를 참조 바랍니다. 백서를 받고자 하시는 분은 nvidia@uclick.co.kr 또는 아래 채팅 문의를 통해 이메일 주소 남겨 주시면 감사하겠습니다.


조회수 17회댓글 0개
bottom of page