top of page

검색 결과

"" 검색 결과: 157개의 아이템

  • 아이언맨 자비스 부럽지 않은 NVIDIA Jarvis를 자동차에서 만날 날을 손꼽아 기다리며...

    최근 출시되는 신차들은 아날로그와 디지털 중간 즈음의 느낌을 줍니다. 자동차를 움직이는 메커니즘은 여전히 전통적인 내연 기관의 그것입니다. 하지만 운전석에 앉아 계기판을 보는 순간부터 아직은 완전하지 않지만 반자율 주행 기능을 이용하는 순간까지 느껴지는 감성은 디지털을 향해 있습니다. 디지털 감성과 관련해 요즘 신차 리뷰 유튜브 영상에 빠지지 않는 것이 하나 있죠. 바로 음성 인식입니다. 목적지를 말하고 길을 찾는 것은 더 이상 흥미롭지 않죠. 요즘에는 여기서 조금 더 나아가 창문도 열어 주고, 에어컨도 틀어 줍니다. 물론 2019년 현재 신차에 적용된 음성 인식 기술은 걸음마 단계를 벗어나지 못하고 있습니다. 시쳇말로 말귀를 못 알아먹습니다. 정형화된 뻔한 질문 몇 개 알아듣는 수준이죠. 하지만 머지않아 꽤 똑똑한 음성 인식 기능을 차량에서 만날 수 있을 듯합니다. 다음 영상을 보시죠. 자동차와 운전자 그리고 탑승자가 자연스럽게 대화를 나눕니다. 운전자가 음성으로 명령하고 자동차가 알아듣는 수준이 아닙니다. 그냥 3명이 이야기를 나누는 장면을 보여줍니다. 위 영상은 미래를 가정한 것이 아닙니다. NVIDIA가 곧 공개할 예정인 자비스(Jarvis)라는 소프트웨어 개발 키트(SDK)를 이용하면 이 정도의 자동차를 위한 음성 인식 기능을 만들 수 있다는 것을 보여 주는 영상입니다. 물론 아이언맨에 나오는 그 자비스만큼은 아닙니다. NVIDIA 자비스 SDK는 멀티 모달(Multimodal) 기반의 음성 인식을 지원하는 인공 지능(AI) 애플리케이션을 만드는 것을 도와줍니다.  멀티 모달은 좀 어려운 개념인데요, 간단히 말해 단순히 음성만 듣는 것이 아니라 시청각 정보를 모두 활용해 대화를 나눈다고 보면 됩니다. 위 영상에서도 누가 말하는지 시스템이 인식하고, 대화를 자연스럽게 이어가죠. 단순히 소리만 듣는 것이 아니라 말하는 사람의 입술 모양도 보고 가능한 많은 정보를 참조해 말귀를 알아듣고, 문맥을 벗어나지 않는 선에서 대화를 이어가기 위한 기술이라 보면 됩니다. NVIDIA 자비스 기반 AI 애플리케이션은 음성 명령을 이해하고 실행하는 수준을 넘어 감정을 느끼고, 이야기의 흐름을 이해하는 수준까지 구현이 가능하다고 하네요. 빨리 위 영상 같은 음성 인식 기능을 자동차에서 이용하고 싶네요.  참고로 NVIDIA 자비스에 관심이 있는 개발자라면 관련해 먼저 프리뷰를 체험할 수 있으니, 사용자 등록을 한 후 최신 정보를 받아 보세요. #NVIDIA #유클릭 #자율주행 #자동차_디지털 #자동차_음성인식 #자동차_NVIDIA_음성인식 #NVIDIA_Jarvis

  • 빌딩, 병원, 쇼핑몰, 호텔 등 안쓰이는 곳이 없는 실내용 AI 로봇 개발 ~ 이보다 더 쉬울 순 없다!

    NVIDIA에서 최근 인도어 용도로 쓰이는 스마트 로봇 개발자를 위한 SDK인 Isaac 최신 버전인 2019.3을 공개했습니다. 실내용 로봇 시장의 잠재력은 상당합니다. 호텔에서 고객을 안내하고, 식당에서 주문을 받고 음식을 서빙하고, 병원에서 환자를 돌보고, 대형 빌딩이나 쇼핑몰에서 짐을 실어 나르거나 심부름을 하는 등 그 쓰임이 다양합니다. 관련해 실내용 로봇 개발에 참여하는 기업들이 늘고 있습니다. Isaac은 NVIDIA가 개발해 공개한 업계 최초 로봇 AI 개발 플랫폼으로 실내용 로봇 시대를 앞당기기 위해 등장했습니다. 사실 Isaac은 SDK보다는 AI 개발 플랫폼이라 보는 편이 더 정확한 것 같습니다. Isaac을 플랫폼이라 보는 이유는 시뮬레이션, 내비게이션, 조작 등 다양한 기능을 AI 기반으로 구현하는데 필요한 것들을 하나의 환경에서 제공하기 때문입니다. Isaac을 이용하면 AI 기반 스마트 로봇 개발을 더 빠르게 할 수 있는 장점이 있습니다. NVIDIA의 말에 따르면 Isaac은 로봇 제조사, 로봇 연구소 및 대학 연구실 그리고 스타트업이 원하는 용도의 AI 기반 로봇을 더 쉽고 빠르게 만들 수 있도록 돕기 위해 만들었다고 합니다. Isaac의 주요 구성 요소는 다음과 같습니다. ​ Isaac SIM for Navigation 내비게이션 관련 뉴럴 네트워크 트레이닝 지원 HIL(Hardware in the loop)로 여러 대의 로봇 시뮬레이션 지원 ​ Isaac GEMs Multi-class segmentation DNN Object Detection with ResNet (and NVIDIA Trasfer Learning Toolkit) 3D Object Pose Detection DNN Streo Visual Intertial Odomentry 2D Skeleton Pse Estimation DNN (OpenPose) ​ 카터 레퍼런스 애플리케이션과 플랫폼 실내 내비게이션을 위한 카터 레퍼런스 하드웨어와 소프트웨어 Isaac 엔진 NVIDIA Trasfer Learning Toolkit) 통합 DeepStream SDK 통합 C API 제공 ​ Isaac SIM for Manipuation 클라우드 기반 시뮬레이터를 이용해 로봇을 조작할 수 있는 기능 아직 공개되지 않았으나, 신청자의 경우 프리뷰 체험이 가능 이상으로 Isaac에 대해 간단히 알아보았습니다. 더 자세한 내용은 Isaac SDK 페이지를 참조 바랍니다. ​ #NVIDIA #로봇_ SDK #NVIDIA_Isaac #NVIDIA_SDK #유클릭 #로봇_개발 #로봇_AI #로봇_AI_플랫폼

  • 의료 인공 지능 표준화 동향 ~ 의료 선진국의 미래를 앞당기는 열쇠

    인공 지능이 미래를 바꾼다! 관련해 가장 많은 미래 시나리오가 언급되는 분야로 의료를 꼽습니다. 특히 5G가 상용화되고 AI, 빅 데이터 그리고 IoT 기술의 상호 연계 시나리오가 쏟아지고 있습니다. 물론 의료 분야에 대한 기대감은 어제오늘 일이 아니었습니다. 2000년대 u-헬스케어 관련해 다양한 기술적 실험이 있었지만, 실제 우리 일상에 안착한 서비스는 없었습니다. 의료 분야의 특성상 까다로운 규제 요건을 충족해야 하고, 기술과 의료 모든 측면에서 검증을 거쳐야 하는 부분이 많다 보니 기술의 혜택이 뻔히 눈앞에 보인다고, 이런 이유로 의료 관련 첨단 서비스는 아이디어가 떠오른다고 해서 이를 바로 상용화하기 어려움이 큽니다. 다시 불붙고 있는 인공 지능 기반 의료 혁신에 대한 기대감 ~ 여러 이유로 한동안 소강상태를 보이던 IT 기술과 의료의 만남은 최근 몇 년 사이 빅 데이터와 인공 지능 열풍을 타고 다시 불붙는 분위기입니다. 이번에는 2000년대와는 사뭇 다른 기대감이 듭니다. 그 이유는? 관련 표준화 움직임, 정부 측면에서 첨단 기술 기반 의료 기기의 허가 심사 가이드라인 구체화 등을 볼 때 2019년 현재 인공 지능으로 대변되는 첨단 기술 기반 미래의 의료 서비스는 우리 앞에 성큼 다가왔다는 기대를 갖게 합니다. 관련해 ETRI에서 '의료 인공 지능 표준화 동향' 보고서를 최근 발표했습니다. 의료 분야에서 인공 지능 기반 서비스나 기기를 만들고자 하는 기업이나 연구소라면 동향 파악 차원에서 읽어 보면 좋을 듯하여 간단히 주요 내용을 추려 보았습니다. 원문은 다음 BIOIN에서 다운로드하면 됩니다. 이 보고서는 국제/국내 표준화 동향, 인허가 관련 기준 규격 및 가이드라인 현황, 핵심 정책 이슈에 대해 다르고 있습니다. ISO/IEC, WHO, ITU 등의 국제단체는 의료, 기술 그리고 윤리/도덕 등 다양한 주제에 관한 워킹 그룹을 운영하며 첨단 기술 수용에 대한 기준점을 잡고 있습니다. 여기서 다루는 기술은 인공 지능뿐 아니라 빅 데이터, 3D 프린터 등 다양합니다. 국내의 경우 인공 지능 관련 허가나 심사 표준은 제정되지 않았지만 인허가 관련 기준 규격과 가이드라인은 식품의약품안전처에서 제시하고 있는 상황입니다. 발 빠른 표준화와 유연한 규제 적용으로 인공 지능 기반 미래 의료 혁신 시대 앞당겨야 인공 지능이 미래의 의료 서비스 혁신의 핵심이란 것은 누구나 다 압니다. 또한, 국가 의료 서비스 체계의 고도화와 고령화 시대 우리 사회가 짊어져야 할 의료 복지 부담 경감 등 국가의 당면 과제 해결에도 인공 지능은 매우 큰 역할을 할 것이란 것도 모두 압니다. 하지만 의료에 첨단 기술을 접목하는 것은 성급하게 서두른다고 되는 일이 아닙니다. 충분한 협의와 연구 그리고 평가가 이루어져야 하는 그런 성격의 과제입니다. 이번 ETRI 보고서에 나온 핵심 정책과 표준화 관련 의료 기기 생애 주기 연관도에는 그 과정과 노력이 잘 나타나 있습니다. 유클릭은 인공 지능 혁신을 앞당기는 인프라, 플랫폼 전문가 그룹으로 인공 지능 기반 의료 혁신의 미래를 앞당길 관련 분야 기관, 기업 그리고 스타트업을 응원합니다. 의료 혁신에 관심이 있다면 ETRI의 동향 보고서 일독을 추천합니다. #유클릭 #인공지능 #의료_인공지능 #의료영상_빅데이터 #의료영상_인공지능 #의료_3D프린터 #식품의약안전처 #의료기기_허가_심사_가이드라인 #5G_인공지능

  • AI 기반 서비스를 위한 최적의 자원 활용법은? 결국 하이브리드인가?

    미국 덴버에서 열린 수퍼컴퓨팅 2019 행사에서 NVIDIA는 새로운 유형의 GPU 가속 기반 수퍼컴퓨터를 마이크로소프트 애저 상에서 이용할 수 있다고 발표했습니다. 고성능 컴퓨팅 관련 클라우드 수요를 겨냥한 전략으로 보이는데요, 이번 발표에 따라 애저의 새로운 NDv2 인터스터 상에서 복잡한 AI 서비스, 강력한 컴퓨팅 파워를 요구하는 HPC 워크로드를 운영할 수 있게 되었습니다. 참고로 애저 NDv2 인스턴스는 클라우드 상에 구축하는 초강력 수퍼컴퓨터입니다. NVIDIA V100 Tensor Core GPU를 최대 800개까지 구성할 수 있으며, 이들 환경은 맬라녹스 인피니밴드로 묶입니다. 이 서비스를 이용하면 복잡한 AI 모델 서빙을 위한 수퍼컴퓨팅 환경을 몇 시간 만에 구성할 수 있습니다. 편의성이 높은 만큼 비용 역시 상당할 것 같긴 합니다. AI, HPC도 결국 하이브리드가 답인가? AWS, GCP, 애저 등 시장을 선도하는 클라우드 사업자는 AI, HPC 관련 시장을 겨냥한 서비스를 지속해서 선보이고 있습니다. 인프라 측면에서 보면 클라우드 사업자의 서비스는 매우 신중하게 선택해야 합니다. NVIDIA의 최신 GPU나 구글 TPU 기반 인스턴스를 아무 생각 없이 쓰다가는 감당할 수 없는 수준으로 비용이 발생하기 쉽습니다. 그렇다면 어떤 방식으로 클라우드를 바라보는 것이 현명할까요? 스타트업들의 이용 방식에서 그 힌트를 찾을 수 있지 않을까요? ​ AI 서비스 기업, 특히 스타트업은 클라우드를 사업 기반으로 삼는 것이 일반적입니다. AI 모델 개발과 최적화, 경량화 작업은 주로 온프레미스 환경에서 DGX 서버 같은 강력한 머신을 이용해 합니다. 그리고 모델 서빙과 인퍼런싱의 경우 클라우드를 이용하는데요, 이때 CPU와 GPU 자원을 적절히 사용하는 식으로 경비를 절감합니다. ​ 하이브리드 방식으로 GPU 인프라를 운영할 때 기술적으로 가상화와 잡 스케줄링 그리고 머신러닝, 딥러닝 프로젝트 관리 플랫폼을 살펴봐야 합니다. 관련해 유클릭은 딥러닝 관리 플랫폼인 Valohai, GPU 가상화 솔루션, GPU잡 스케줄러 등 다양한 솔루션을 제공합니다. 관련해 도움이 필요하면 현재 무료 컨설팅을 진행 중이니 유클릭으로 문의 바랍니다. 이 서비스를 이용하면 복잡한 AI 모델 서빙을 위한 수퍼컴퓨팅 환경을 몇 시간 만에 구성할 수 있습니다. 편의성이 높은 만큼 비용 역시 상당할 것 같긴 합니다. AI, HPC도 결국 하이브리드가 답인가? AWS, GCP, 애저 등 시장을 선도하는 클라우드 사업자는 AI, HPC 관련 시장을 겨냥한 서비스를 지속해서 선보이고 있습니다. 인프라 측면에서 보면 클라우드 사업자의 서비스는 매우 신중하게 선택해야 합니다. NVIDIA의 최신 GPU나 구글 TPU 기반 인스턴스를 아무 생각 없이 쓰다가는 감당할 수 없는 수준으로 비용이 발생하기 쉽습니다. 그렇다면 어떤 방식으로 클라우드를 바라보는 것이 현명할까요? 스타트업들의 이용 방식에서 그 힌트를 찾을 수 있지 않을까요? ​ AI 서비스 기업, 특히 스타트업은 클라우드를 사업 기반으로 삼는 것이 일반적입니다. AI 모델 개발과 최적화, 경량화 작업은 주로 온프레미스 환경에서 DGX 서버 같은 강력한 머신을 이용해 합니다. 그리고 모델 서빙과 인퍼런싱의 경우 클라우드를 이용하는데요, 이때 CPU와 GPU 자원을 적절히 사용하는 식으로 경비를 절감합니다. ​ 하이브리드 방식으로 GPU 인프라를 운영할 때 기술적으로 가상화와 잡 스케줄링 그리고 머신러닝, 딥러닝 프로젝트 관리 플랫폼을 살펴봐야 합니다. 관련해 유클릭은 딥러닝 관리 플랫폼인 Valohai, GPU 가상화 솔루션, GPU잡 스케줄러 등 다양한 솔루션을 제공합니다. 관련해 도움이 필요하면 현재 무료 컨설팅을 진행 중이니 유클릭으로 문의 바랍니다.

  • AI, HPC 사용자를 위한 NVIDIA의 선물 'Magnum IO' 소프트웨어

    수퍼컴퓨팅 2019 행사에서 NVIDIA가 Magnum IO라는 소프트웨어를 소개했습니다. 이 소프트웨어는 데이터 과학자의 AI 프로젝트와 다양한 연구 목적으로 HPC를 이용하는 사용자를 위해 마련한 NVIDIA의 선물입니다. 왜 선물이라고 표현을 했냐면, Magnum IO를 이용하면 몇 시간 걸릴 작업이 몇 분으로 줄어들기 때문입니다. 작업 시간을 늘어지게 하는 병목 구간 '스토리지 IO' Magnum IO는 AI, HPC 워크로드를 처리할 때 성능 병목 구간으로 늘 지목되는 스토리지 IO 병목을 최소화합니다. Magnum IO를 이용하면 멀티 GPU, 멀티 서버 환경에서 복잡한 금융 분석, 기후 모델링같이 무거운 AI, HPC 워크로드의 데이터 처리 속도를 20배 이상 끌어올릴 수 있습니다. NVIDIA, IBM, Mellanox, WekaIO, Excelero, DataDirect Networks의 협업 Magnum IO가 놀라운 수치의 스토리지 IO 속도 개선을 보여줄 있는 이유는? 네, NVIDIA가 IBM, 멜라녹스 등 업계의 내놓으라 하는 IO 전문가들과 협업을 해 만든 작품이기 때문입니다. Magnum IO의 핵심 요소는 GPUDirect입니다. CPU를 바이패스 하고 GPU가 제공하는 넓고 빠른 메모리와 네트워크 기반 스토리지가 바로 연결되어 데이터를 처리하는 요소라 보면 됩니다. GPUDirect를 적용하면 NVLink, NCCL , OpenMPI, UCX 등의 인터커넥트 API를 이용해 스토리지 IO 병목을 최소화할 수 있습니다. ​ Magnum IO 소프트웨어에 대한 자세한 내용은 다음 페이지를 참조 바랍니다. GPUDirect 기능이 적용된 스토리지는 2020년 상반기부터 시장에서 만나볼 수 있다고 합니다. #유클릭 #NVIDIA #수퍼컴퓨팅 #HPC #AI #NVIDIA_Magnum_IO #AI #HPC #스토리지_IO #GPUDirect #NVLink #NCCL #OpenMPI #UCX

  • NVIDIA DRIVE Software 10.0 ~ 마음만 먹으면 레벨 2 수준의 자율주행을 구현할 수 있는 시대!

    NVIDIA에서 DRIVE 소프트웨어 버전 10.0을 공개했습니다. NVIDIA DRIVE 소프트웨어는 자율주행 구현을 위한 소프트웨어 스택입니다. 이를 이용하면 레벨 2 수준의 자율주행 구현이 가능합니다. 자동차 분야 외에 배송 로봇 등 다양한 응용 분야에서 DRIVE 소프트웨어를 이용하고 있습니다. 교차로에서 객체도 인식하고 신호등도 알아보고, 충돌도 예측하고 ~ NVIDIA DRIVE 소프트웨어 스택을 이용하면 360도 측면에서 사물을 인식하고, 경로를 탐색하는 기능을 구현할 수 있습니다. 이번 10.0 버전에는 몇 가지 개선이 이루어졌는데, 관련해 NVIDIA에서 강조하는 것은 교차로 탐지 기능의 개선입니다. NVIDIA DRIVE 소프트웨어 스택에 포함된 WaitNet 심층신경망(DNN)은 컨텍스트 기반으로 교차로 환경을 인지합니다. 이번 10.0 릴리스에 포함된 WaitNet DNN의 경우 개선이 되어서 복잡한 교차로에서 객체를 인식하고, 신호등 신호도 구분합니다. 교차로보다 더 흥미로운 개선이 있는데요, 바로 충돌을 예상하는 DriveNet DNN입니다. 도로에서 충돌이 예상될 때 충돌 시간을 예측해 사전에 브레이크를 밟는 등의 결정을 할 수 있게 되었습니다. 최근 신차들의 반자율주행 기능 발전을 보면 입이 떡 벌어지죠. 여러 자동차 리뷰 전문가들은 아주 빠른 속도로 반자율주행 기능이 발전하고 있다고 입을 모으고 있는데요, 앞으로 몇 년 뒤면 더 놀랄 일이 벌어질 것 같습니다. NVIDIA DRIVE 소프트웨어 스택 10.0 버전에 포함된 PathNet DNN의 경우 고속도로 진입로 진출로에 대한 인식이 가능합니다. 차선 유지를 지원하는 MapNet DNN과 연계할 경우 반자율주행 수준이 꽤 높아질 것 같습니다. 이외에 재미있는 것도 있는데 AutoHighBeamNet은 자동으로 상황을 인지해 상향들을 킵니다. 이거 뭐 운전자가 할 일이 점점 줄어드는 느낌이네요. ​ 한편 10.0 버전에는 현지화 API를 지원합니다. 자율주행 관련해 현지 지도 적용 등이 용이하게 되었습니다. 네이버에서 자율주행 연구자와 스타트업을 위해 도로 HD맵 데이터를 배포하고 있는데, 이를 NVIDIA DRIVE 소프트웨어와 연계하면 뭔가 빠르고 재미있게 만들어 볼 수 있을 것 같네요. ​ NVIDIA DRIVE 소프트웨어는 완성차 업체만을 위한 스택이 아닙니다. 도로를 서비스 수단으로 삼는 모든 아이디어를 실현하는 데 있어 도움을 받을 수 있는 스택입니다. 관련해 NVIDIA DRIVE 소프트웨어를 사업 또는 신규 서비스에 적용하고 싶다면, 유클릭으로 문의 바랍니다. ​ #유클릭 #NVIDIA #자율주행 #NVIDIA_DRIVE_Software #NVIDIA#레벨2_자율주행 #배송_로봇_자율주행 #네이버_도로_HD맵 #자율주행_스타트업

  • 외출 전 거울 앞에서 이 옷, 저 옷 걸쳐 보지 않아도 '오늘의 패션'을 완벽 제안하는 인공 지능의 POWER

    외출 전 거울 앞에서 옷을 여러 번 갈아입고, 액세서리도 이것저것 해보느라 약속 시간에 늦은 기억 한 번씩 다 있을 것입니다. 나름 오늘은 이 조합으로 옷을 입어야지 생각을 하지만 막상 나가기 전에 거울 앞에 서면 왠지 다른 옷과 가방이 더 잘 어울릴 것 같은 느낌 아닌 느낌이 발길을 잡죠. 인공 지능 시대에는 이런 고민을 할 필요가 없을 듯합니다. 어떤 조합으로 옷을 입을지 일일이 입어보지 않아도 가장 잘 어울리는 패션을 인공 지능이 제안해 주기 때문입니다. 외출할 때 무엇을 입을지 고민을 해결해 주는 딥러닝 모델 'Fashion++' 페이스북 리서치 팀과 UT 오스틴, 코넬 대학, 조지아 테크가 뜻을 모아 Fashion++라는 딥러닝 모델을 만들고 관련 논문을 공개했습니다. 이 모델은 최적의 패션 조합을 제안합니다. 다음 영상을 보시면 아마 흥미를 바로 느낄 것입니다. 모델 개발을 위해 협력팀은 NVIDIA의 Pix2Pix HD 코드를 사용했다고 하네, 그리고 NVIDIA P100, V100이 장착된 시스템 상에서 cuDNN 가속 기반 PyTorch 딥러닝 프레임워크를 적용해 모델을 훈련시켰습니다. Fashion++ 모델은 적용 분야가 다양해 보입니다. 가장 먼저 떠오르는 것은 대형 백화점이네요. 여러 브랜드의 옷 매장에 들려 거울 앞에서 해당 매장에서 판매하는 모든 옷 중 나에게 가장 잘 어울리는 패션 핏을 일일이 옷을 입어 보지 않고 제안받을 수 있는 맞춤형 개인화 서비스를 제공하기 딱 좋아 보입니다. ​ 패션 의류 회사의 디자인 연구실도 Fashion++ 모델을 적용하면 신상 개발을 더 효과적으로 할 수 있을 것 같은 느낌 아닌 느낌이 드네요. ​ Fashion++ 모델 관련해 자세한 연구 내용은 페이스북 리서치에서 공개한 논문 원문을 참고 바랍니다. 패션, 소매 분야에서 Fashion++ 같은 인공 지능 기술을 활용해 새로운 고객 경험을 창조하고 싶다면 유클릭으로 문의 바랍니다. #유클릭 #페이스북_AI #인공지능 #인공지능_패션 #인공지능_패션_제안 #NVIDIA #NVIDIA_GPU #GPU_P100 #GPU_V100 #Pytorch #cuDNN가속

  • 데이터 분석부터 모델 트레이닝과 배포까지 가속하는 조합 'Kinetica + NVIDIA RAPIDS'

    '가속'의 개념이 분석과 머신 러닝, 딥러닝에 접목되면 어떤 일이 일어날까요? 네, 데이터 과학자, AI 서비스/애플리케이션 개발자는 더 적은 시간에 더 많은 일을 할 수 있습니다. 흔히 말하는 생산성이 높아지는 것이죠. 관련해 오늘 소개할 '가속'은 GPU 기반 인메모리 데이터베이스를 토대로 하는 Kinetica Active Analytics Platform과 NVIDIA RAPIDS의 조합입니다. 데이터 준비부터 머신 러닝 모델 트레이닝과 배포까지 GPU 환경에서 가속 ​ 최근 분석과 AI 관련 팀의 공통된 고민은 데이터 준비 작업을 어떻게 더 간소화할 것인가에 대한 것입니다. 흔히 말하는 데이터 전처리를 위한 데이터 파이프라인을 구축하는 것에 관심이 많죠. 이다음 과제로 삼는 것은 분석 또는 모델 트레이닝/배포 관련 워크플로우 최적화입니다. Kinetica와 NVIDIA RAPIDS 조합은 이 두 과제를 한 번에 해결할 수 있는 접근법을 제시합니다. Kinetica의 RAPIDS를 긴밀히 통합하여 데이터 준비, 모델 트레이닝, 배포를 GPU 가속 기반 환경에 일관성 있게 처리할 수 있는 길을 열었습니다. 위 그림에 대한 설명을 기술적 측면에서 해보겠습니다. 데이터 준비 단계에서는 Kinetica Docker Hub가 제공하는 kinetica-rapids-toolkit 도커 이미지를 사용합니다. 네, RAPIDS가 사전에 통합된 이미지를 가져다 쓰는 것이죠. 간결하고 빠른 데이터 준비 작업 참고로 Kinetica에 RAPIDS가 통합된 것은 단순히 RAPIDS 모듈을 연계했다는 것이 아닙니다. Kientica는 올 초 Active Analytics Workbench(AAW)를 공개했습니다. 네, AAW가 제공하는 다양한 개발과 데이터 처리 관련 편의성이 RAPIDS 라이브러리가 제공하는 가속과 결합되었다고 보는 것이 맞습니다. ​ 이에 따라 데이터 과학자나 개발자는 Jupyter 노트북에 포함된 커넥터를 통해 Kinetica 테이블을 cudf로 간편히 변환할 수 있습니다. 도커 이미지를 올린 다음 테이블을 간편히 변환해 데이터 준비 작업을 마칠 수 있다는 것이죠. 모델 트레이닝과 배포 그리고 인퍼런싱까지 GPU 가속 환경에서 처리 모델 트레이닝과 배포 역시 Kinetica ML 플랫폼 상에서 수행합니다. Kinetica에 있는 데이터 세트를 대상으로 Kinetica와 RAPIDS가 통합된 도커 이미지 상에서 트레이닝을 할 수 있습니다. 이렇게 학습을 마친 모델은 AAW와 연동된 쿠버네티스 플랫폼에 올린 도커 컨테이너를 통해 배포할 수 있습니다. 모델 배포가 이루어지면 이에 연동된 Input 테이블에 데이터가 입력되면 자동으로 인퍼런싱이 이루어지고, 결과 값은 Output 테이블에 저장됩니다. 이 모든 작업이 GPU 가속 기반 환경에서 이루어지는 것이 바로 Kinetica와 RAPIDS 통합이 제공하는 혜택입니다. ​ 이상으로 간단히 Kinetica와 RAPIDS 통합이 어떻게 데이터 파이프라인과 머신 러닝 관련 워크플로우를 개선할 수 있는지 살펴보았습니다. 더 자세한 내용은 유클릭으로 문의 바랍니다. ​ #유클릭 #Kinetica #인메모리_데이터베이스 #RAPIDS #GPU #GPU_가속 #GPU_데이터베이스 #도커 #컨테이너 #AI_머신러닝_쿠버네티스 #쿠버네티스 #딥러닝 #Jupyter_노트북 #도커_이미지

  • 5G 시대 소프트웨어 정의 기반 AI, 스마트 시티, IoT 서비스를 위한 NVIDIA의 제안 ~ 통신사의 5G 역량을 레벨업!

    5G 시대가 본격화되면서 스마트 시티, 스마트 공장, AI 기반 서비스, 증강현실 또는 가상현실 서비스 등 통신을 기반으로 한 새로운 세상에 대한 기대가 커지고 있습니다. 초연결 시대로 상징되는 5G 세상에서 비즈니스 우위를 점하기 위해 통신사는 어떤 준비를 하고 있을까요? 이전 세대와 달리 5G 시대는 엣지 장치를 대상으로 다양한 서비스가 이루어져야 하다 보니 그 어떤 때보다 유연한 네트워크 인프라 운영이 필요해졌습니다. 이런 이유로 5G RAN(Radio Access Network)이 갖추어야 할 기본기로 소프트웨어 정의 기반 환경을 꼽습니다. 자원 프로비져닝, 서비스 배포 등을 동적으로 하려면 대역폭, 기능 등 기술 사양이 이미 정해진 네트워크가 아니라 그때그때 필요에 따라 자원을 유연하게 배치해 원활하게 서비스를 제공할 수 있어야 합니다. 관련해 NVIDIA가 최근 통신 사업자를 위한 소프트웨어 정의 스택인 Aerial을 공개해 화제를 모으고 있습니다. 통신사를 위한 환상의 조합 - EGX Platform + Aerial Aerial은 통신사가 5G RAN 인프라 상에서 엣지 컴퓨팅 관련 서비스와 고객의 요구에 따라 네트워크 트래픽 처리를 위한 자원을 더 유연하게 할 수 있도록 돕는 SDK 묶음입니다. 여기서 말하는 엣지 컴퓨팅 관련 서비스는 AI 서비스, 가상현실과 증강현실, 클라우드 기반 게임 스트리밍 서비스 등입니다. Aerial은 NVIDIA가 제공하는 엔터프라이즈급 소프트웨어 스택인 EGX 플랫폼을 위한 SDK입니다. EGX 플랫폼은 통신, 스마트 시티, 스마트 공장, 글로벌 스케일의 리테일 서비스 등을 위해 사전에 인프라와 관련 소프트웨어를 최적화한 형태로 제공합니다. 리눅스, 컨테이너, 쿠버네티스 등 개방형 오픈 소스 기술을 기반으로 하드웨어 자원을 최적화하여 제공하므로 기업은 인프라 설치와 구성에 필요한 시간과 비용을 크게 절약할 수 있습니다. 5G 환경에서 AI, VR, AR, Game Streating 등 초연결 서비스 최적화의 정석 다시 본론으로 돌아와 Aerial은 다음과 같이 구성되어 있습니다. 상단에 위치한 cuBB(CUDA Baseband)와 cuVNF(CUDA Virtual Network Function)이 바로 Aerial의 핵심입니다. 아랫부분의 스택은 CUDA-X 이하 하드웨어 최적화 관련 부분입니다. cuVNF SDK는 패킷 처리 최적화를 위해 쓰입니다. 5G 패킷을 GPU 메모리 상에서 직접 처리하므로 패킷 로스나 지연 걱정 없이 원활한 서비스 프로비져닝과 지원이 가능합니다. cuBB SDK는 5G 신호 처리 가속에 관한 것으로 물리적인 계층에서 GPU의 고성능 메모리를 이용해 쓰루풋을 최적화하기 위해 쓴다고 보면 됩니다. Aerial은 통신사뿐 아니라 통신사의 5G 망을 이용해 AI, 증강현실, 가상현실, 게임 스트리밍 등을 제공하고자 하는 사업자에게도 유용한 SDK라 볼 수 있습니다. 관련해 더 자세한 내용은 다음 페이지에서 등록을 한 다음 확인할 수 있습니다. Aerial을 더 가볍게 개념 파악을 하고자 한다면 다음 영상도 도움이 될 것입니다. #5G #통신사 #텔코 #NVIDIA #Aerial #NVIDIA_Aerial #SDK #5G_플랫폼_SDK #5G_RAN #NVIDIA_가상현실 #AI #NVIDIA_스마트시티 #NVIDIA_스마트공장 #쿠버네티스

  • 초연결 시대 엣지 장치가 연결된 모든 곳에 신속하게 배치할 수 있는 원스톱 원격 서버 'NVIDIA EGX PLATFORM'

    5G 시대의 상징은 '초연결'입니다. 패킷 손실이나 지연 그리고 속도 저하 걱정 없이 모든 것이 연결되는 시대, 우리는 스마트 시티를 말하고, 스마트 공장을 말하고, IoT와 엣지 컴퓨팅을 말합니다. 소매, 제조, 통신, 공공 등 영역을 가리지 않고 초연결이 바꿀 미래 모습에 기대를 하고 있습니다. 5G 환경에서 데이터센터와 엣지 장치, IoT 기기, 각종 센서를 서비스 지향적으로 연결하려면? 여기서 말하는 서비스 지향이란 것은 끝단에 위치한 장치와 센서는 단순히 기계적 역할을 하는 것이 아니라 인공 지능(AI), 가상 현실(VR), 증강 현실(AR), 게임 스트리밍 등 서비스를 제공하는 눈앞의 기기로 역할을 하기 때문입니다. 단순히 네트워크를 연결해 데이터 수집이나 전송을 하는 것이 아니라 '서비스'를 제공하는 초연결 환경은 전통적인 컴퓨팅의 개념을 넘어서는 새로운 접근이 필요합니다. 데이터센터와 엣지를 잇는 가교 'NVIDIA EGX PLATFORM' 초연결 시대 엣지 컴퓨팅을 위해 NVIDIA는 새로운 접근법을 제시하고 있습니다. NVIDIA가 고안한 방식은 데이터센터 또는 클라우드와 엣지 장치와 센서 환경을 잇는 서비스 흐름 중간에 NVIDIA EGX PLATFORM을 엣지 서버에 신속하고 유연하게 배포하는 것입니다. 가령 스마트 시티를 구축하기 위해 빌딩, 가로등, 도로, 매장 등에 AI, VR, AR 등의 서비스를 최고의 고객 경험(CX)을 보장할 수 있는 수준으로 제공하려면? 5G 통신만으로는 안됩니다. 빌딩과 거리 곳곳에 초고속 통신과 초고속 서비스 워크로드 처리를 위한 원격 서버가 필요합니다. NVIDIA EGX PLATFORM은 엣지 서버에 서비스를 신속하게 배포할 수 있도록 돕는 소프트웨어 스택입니다. 쿠버네티스를 기반으로 특정 도메인에 특화된 사전에 트레이닝된 모델, 서드파티 솔루션, Helm 차트 등을 컨테이너에 담아 신속하게 원격지 하드웨어에 배포하여 운영할 수 있습니다. 앞서 잠시 언급한 바와 같이 NVIDIA EGX PLATFORM은 소프트웨어 스택뿐 아니라 NGC Reany 서버 하드웨어도 포괄하는 개념입니다. 예를 들어 자동차와 운전자를 인식하는 스마트 시티용 교통 카메라에는 NVIDIA Jetson Nano를 기반으로 실시간 스마트 교통 제어와 통제를 수행합니다. 그리고 지방 경찰청 영상 모니터링 및 단속실에는 NVIDIA GPU가 장착된 엣지 서버가 배치됩니다. 이 서버에 올라가는 각종 서비스와 AI 워크로드는 컨테이너 기반으로 빠르게 배포되어 운영됩니다. DevOps & MLOps 실현을 위한 강력한 솔루션 NVIDIA EGX PLATFORM의 가치는 AI, VR, AR, 게임 스트리밍 등 강력한 네트워킹, 컴퓨팅 파워를 필요로 하는 5G 시대 서비스 워크로드 처리에 있어 DevOps, MLOps 실현을 돕는다는 것입니다. 서비스 중단 없이 실시간으로 서비스를 제공하는 가운데 빌드, 테스트, 배포 또는 모델 트레이닝과 추론 등이 흘러갈 수 있게 하는 실질적인 길을 열어 주고 있는 것입니다. NVIDIA EGX PLATFORM을 운영할 수 있는 엣지 서버는 주요 하드웨어 제조사에 의해 공급됩니다. 뿐만 아니라 하이브리드 클라우드 구축과 운영을 위한 파트너 생태계도 탄탄하게 구축되어 있습니다. 한편 NVIDIA EGX PLATFORM에 지난 포스팅에 소개한 Aerial SDK를 사용하면 통신사는 소프트웨어 정의 기반으로 5G 관련 AI, VR, AR 등의 첨단 서비스 운영에 필요한 성능과 유연성을 확보할 수 있습니다. ​ NVIDIA EGX PLATFORM에 대한 더 자세한 내용은 유클릭으로 문의 바랍니다. ​ #NVIDIA #유클릭 #엣지 #엣지_서버 #Jetson_Nano #NVIDIA_EGX #EGX_플랫폼 #NVIDIA_Aerial

  • 소매, 물류 업계의 재고 정리와 보충 방식을 송두리째 바꾸는 실시간 데이터 분석

    효율적으로 창고의 재고량을 적정 수준으로 유지하기 위해 소매, 물류 업계는 IT 시스템에 많은 투자를 해왔습니다. 재고 부족 문제가 생기기 전에 재주문이 원활히 이루어지려면 결국 '데이터'에 의지할 수밖에 없기 때문입니다. 실제로 많은 기업이 물류 관리 전반에 걸쳐 생성되는 데이터를 수집하고 분석해 재고 보유량과 위치 그리고 재고 정리 및 보충에 대한 의사결정을 합니다. 이를 수행함에 있어 많은 기업이 아직 배치 기반으로 데이터를 처리합니다. 쉽게 말해 하루 전 데이터를 기준으로 파악을 하고 결정을 하는 것이죠. 재고 관리와 보충도 실시간 데이터 처리를 기반으로 하는 시대 시스템이 잘 갖추어진 경우 몇 시간 단위로 파악이 가능한 곳도 있습니다. 그렇다면 소매, 물류 선도 기업들은 어떤 식으로 재고 정리와 보충을 할까요? 아마존, 월마트 등 1등 기업들은 '실시간'으로 빠르게 넘어가고 있습니다. 배치가 아니라 실시간 데이터 스트림을 처리한다는 것이죠. 사실 얼마 전까지만 해도 실시간 데이터 처리를 기반으로 창고 관리를 하는 것은 충분한 IT 예산, 인력 그리고 공급망 관리와 창고 관리 노하우가 있는 기업만 가능한 일이었습니다. 이런 진입 장벽이 최근에는 많이 낮아졌습니다. 이제 마음만 먹으면 Kinetica Active Analytics 플랫폼 같은 도구를 이용해 실시간 재고 정리와 보충 관련 데이터 수집과 분석을 할 수 있습니다. 재고 관리와 보충을 위한 스트리밍 데이터 분석 요구 사항 그렇다면 실시간 데이터 처리를 기반으로 재고 관리와 보충을 하려면 어떤 기술적 요구 사항을 만족해야 할까요? 크게 스트리밍 데이터 처리, 위기 기반 인텔리전스 확보, 머신 러닝 세 가지로 압축할 수 있습니다. 이를 인하우스 방식이나 전용 솔루션으로 구현하려면 데이터 처리 기반 마련에 많은 시행착오를 겪기 쉽습니다. 이를 최소화하는 방법은 Kinetica Active Analytics 같은 단일 플랫폼 상에서 세 가지 요구 사항을 구현하는 것입니다. 이게 어떻게 가능한지 간단히 살펴보겠습니다. ​ Kinetica Active Analytics 플랫폼은 GPU 기반 인메모리 데이터베이스입니다. 따라서 소매, 물류 업계가 요구하는 대용량 스트리밍 데이터 처리를 위한 성능 확보와 확장이 쉽습니다. 참고로 Kinetica Active Analytics 플랫폼을 도입한 한 소매 기업은 재고 부족 전에 재주문을 하기 위한 의사결정을 지원하기 위해 하루에 2억 5천만 건의 메시지를 안정적으로 처리합니다. ​ 두 번째 요구 조건인 위치 기반 인텔리전스(Location Intelligence)의 경우 전국에 걸쳐 이동 중인 배송 차량 등 운송 수단의 현재 위치, 상점의 위치와 각 상점별 배송과 재고 현황 등 따져봐야 할 것이 많습니다. GIS 정보를 기반으로 물류 관련 현황 데이터를 처리하는 것은 생각보다 쉽지 않은 일이죠. Kinetica Active Analytics 플랫폼은 GPU를 이용해 지형 공간 정보를 실시간으로 처리할 뿐만 아니라 실시간 시각화까지 지원합니다. 최근 가장 뜨거운 관심을 받고 있는 머신 러닝의 경우도 창고 관리에 큰 기여를 할 전망입니다. 머신 러닝 적용 시나리오로 생각해볼 수 있는 것은 예측 기반 보충입니다. 기존 재고 관리와 보충은 현재 상황에 기반한 의사결정이 주를 이루었다면, 머신 러닝을 적용하면 현재가 아니라 미래 시점을 기준으로 최적의 시기에 보충을 할 수 있게 됩니다. 이외에도 다양한 부문에 머신 러닝 적용이 가능합니다. ​ 재고 관리와 보충 관련해 실시간 데이터 처리, 분석, 머신 러닝 적용에 대한 기술적 상세 내용은 유클릭으로 문의 바랍니다. ​ #키네티카 #Kinetica #실시간_데이터_분석 #GPU_데이터베이스 #GPU_인메모리 #창고관리 #재고_정리 #재고_보충 #공급망관리_SCM #유클릭

  • 머신 러닝, 딥러닝 관리 플랫폼 를 쓰면 달라지는 것은 무엇? 몇 주 걸리는 프로젝트 준비 기간을 하루로 단축

    머신 러닝, 딥러닝 프로젝트를 추진할 때 번거로운 수작업, 단순 반복적인 일을 줄이면 어떤 변화가 일어날까요? 데이터 과학자와 AI 개발자는 핵심 코드에 집중할 시간을 벌게 됩니다. 그리고 같은 시간에 더 많은 결과를 거둘 수 있습니다. 그렇다면 실제 어느 정도 프로젝트 효율이 높아질까요? Valohai 같은 머신 러닝, 딥러닝 관리 플랫폼을 쓰면 1주일 이상 걸리던 프로젝트 환경 조성을 몇 시간이면 마치고 바로 개발, 트레이닝, 추론 등 중요한 작업을 시작할 수 있습니다. 데이터 과학자와 AI 개발자가 더 빠른 시간에 결과를 낼 수 있다면? 조직 측면에서 누릴 수 있는 효과는 흔히 말하는 AI 기반 서비스나 상품 출시 속도를 앞당겨 'Time to Market' 경쟁력을 강화할 수 있습니다. 이런 이유로 Valohai 같은 머신 러닝, 딥러닝 관리 플랫폼을 이용하는 것인데요, 이런 유형의 자동화 기반의 관리 환경이 갖추어야 하는 세 가지 핵심 특징을 추려 봤습니다. ​ Machine Orchestration · VM 자동 생성, 설정, 배포 · DevOps에서 수작업이 차지하는 비중 최소화 (Valohai의 경우 DevOps 수작업 비중을 80%에서 20%로 낮춤) ​ Automatic Version Control · 트레이닝 코드, 파라미터, 데이터 변경 사항 추적 (Valohai 사용 시 변경 사항 추적률을 10%에서 100% 수준으로 끌어올릴 수 있음) · 모델 개발과 적용 시 따라야 할 데이터 관련 각종 규제 준수 여부도 추적이 가능해야 함 Pipeline Management · 모델 트레이닝 관련 파이프라인을 자동화하여 필요할 때 자동으로 재트레이닝을 시작 · 지속적 통합(CI) 프로세스 상에서 모델 생성과 트레이닝 관련 수작업을 제거하여 자동화 기반으로 처리 · 피처(Feature) 추출부터 추론 작업까지 매끄럽게 통합 (Valohai의 경우 ML 워크벤치, 주피터 노트북, AWS 서비스 등 현재 프로젝트 팀이 사용 중인 환경과 매끄러운 통합을 지원) 간단히 머신 러닝, 딥러닝 관리 플랫폼을 통해 얻을 수 있는 이점과 이를 실현하기 위해 갖추어야 할 기본 특징을 알아보았습니다. 더 자세한 내용은 uDNA 페이지를 참조 바랍니다. ​ #유클릭 #Valohai #딥러닝_관리_플랫폼 #머신러닝_관리_플랫폼 #주피터_노트북 #ML워크벤치 #AWS

bottom of page