top of page

검색 결과

"" 검색 결과: 157개의 아이템

  • AI 인프라 구축과 운영 관련 하이브리드 클라우드 전략

    최근 아마존에서 GPU 인스턴스를 이용할 수 있는 EKS(Elastic Container Service for Kubernetes)의 이용 가능 지역에 서울이 추가되었다는 소식이 발표되었습니다. EKS는 AWS 상에서 쿠버네티스를 더 편하게 활용할 수 있게 돕는 서비스인데요, 컨네이너 기반 애플리케이션의 배포와 관리 그리고 확장이 매우 간편하다는 장점으로 많은 이들이 사용하고 있습니다. 이번 서울 추가에 따라 이제 한국에서도 NVIDIA Tensor Core V100과 K80 GPU 기반 EC2 P3, P2 인스턴스를 제 성능(?)을 누리며 이용할 수 있게 되었습니다. 관련해 아마존에서는 딥러닝, HPC 등에 적합한 인스턴스라고 홍보를 하고 있습니다. 많은 기업이 GPU 가속 기반 시스템 인프라를 갖추고 딥러닝, 머신 러닝 관련 프로젝트를 하고 있습니다. 더불어 GPU 기반 인스턴스를 클라우드 상에서 쓰는 곳도 많죠. 이 그림을 잘 보면 한 가지 단어가 떠오릅니다. 네, '하이브리드'입니다. 일반적인 업무 시스템의 경우 엔터프라이즈 환경에 적합한 클라우드 도입 모델로 '하이브리드'를 많이 추천하죠. 실제로 사내에서 운영하는 것이 유리한 것과 클라우드에 올리는 것이 더 효율적인 것을 구분하는 것이 요즘 클라우드 도입의 큰 흐름입니다. ​ AI 프로젝트를 위한 시스템 인프라도 비슷한 접근을 취하는 것이 좋습니다. 가령 알고리즘 개발, 트레이닝, 인퍼런싱 과정 중 자원 사용량이 많은 구간이 있다면? 이때 즉시 시스템을 증설하는 것도 방법이지만, 잠시 클라우드 인스턴스를 사용하는 것도 좋습니다. ​ 사내외 클라우드의 GPU 기반 자원을 자유롭게 쓰려면? 애플리케이션 배포, 관리 환경이 같아야 합니다. 이를 위한 기준점으로 컨테이너 활용을 많이 선호합니다. 쿠버네티스를 기본적인 AI 관련 소프트웨어 배포와 운영 환경으로 하면 프로젝트 단위, 연구원 단위로 각각 개별적인 소프트웨어 스택을 구성해 작업하기 좋다는 이점도 따라옵니다. ​ 이상으로 간단히 AI 인프라를 위한 하이브리드 접근에 대해 정리해 봤습니다. 온프레미스 환경에 GPU 가속 기반 클러스터 인프라나 워크스테이션을 운영하면서 하이브리드 방식으로 클라우드를 활용하는 것이 관심이 있다면 유클릭으로 문의 바랍니다. ​ #AWS #아마존 #유클릭 #NVIDIA #EKS #쿠버네티스 #컨테이너 #머신러닝 #딥러닝 #AI #GPU

  • 국가 경쟁력을 높이는 첨병 '수퍼컴퓨터' 시장에 부는 GPU 바람 - 프랑스 정부 산하 연구기관의 GPU 기반 수퍼컴퓨터 도입 소식

    국가 경쟁력과 수퍼컴퓨터 파워, 떼려야 뗄 수 없죠. 국가 주도의 연구 개발을 하여 기초 과학 및 응용 분야 국가 경쟁력을 높이고, 이를 관련 산업의 미래 성장 동력으로 삼는 것은 어느 나라나 마찬가지입니다. 정부 산하 연구 기관을 위해 연구 개발 관련 각종 지원이 이루어지는데요, 그중 큰 몫을 차지하는 것 중 하나가 수퍼컴퓨터입니다. 연구 기관에서 수퍼컴퓨터를 도입하면 그 사실 자체가 중요한 뉴스가 될 정도죠. ​ 관련해 최근 프랑스의 연구 개발 기관인 CNRS(The French National Center for Scientific Research)에서 GPU 가속 기반 수퍼컴퓨터 도입에 대한 소식이 발표되어 화제를 모으고 있습니다. ​ 프랑스 연구 기관이 도입한 GPU 가속 기반 수퍼컴퓨터의 용도는? 네, 인공 지능(AI) 관련 연구를 위해서입니다. 디지털 세상에서 새로운 경험과 국가 경제 성장의 기회가 AI에 있다고 보고 정부 차원에서 연구 개발에 총력을 기울이겠다는 의지를 보인 것이죠. 이 수퍼컴퓨터는 프랑스의 유명 정치인의 이름을 따서 'Jean Zay'로 붙여졌고 물리, 우주, 생물, 에너지 등 기초 과학 전반에 걸쳐 활용될 예정입니다. 이 기관이 도입하는 수퍼컴퓨터의 성능은 14페타플롭스(Petaflops)입니다. 사양을 간단히 보자면 261개의 GPU 노드를 장착하고 있는데, 각 노드에는 4개의 NVIDIA Tesla V100 GPU가 포함됩니다. 총 개수를 따지면 Tesla V100 GPU가 1,044개나 되네요. 4개의 NVIDIA Tesla V100 GPU를 사용하는 개인용 AI 수퍼컴퓨터인 GDX Station 성능도 상당한 걸 생각하면, 실제 AI 워크로드를 돌렸을 때 그 성능이 어마어마할 것으로 보입니다. ​ 참고로 이 수퍼컴퓨터는 HPE의 SGI 8600 시스템을 기초로 구축되며, 2019년 10월부터 운영을 시작할 예정입니다. ​ #AI국가경제성장 #인공지능 #AI #NVIDIA #유클릭 #GPU #Tesla #수퍼컴퓨터 #국가경제발전 #HPE ​

  • 피카소 그림 속 인물이 만화처럼 걸어 나온다! 이미지를 애니메이션으로 만드는 인공 지능

    사진이나 그림은 순간을 담고 있죠. 이미 찍거나 그린 2D 이미지를 3D 애니메이션으로 만들 수 있다? 없다? 인공 지능은 못 하는 것이 없는 것 같습니다.  워싱턴 대학과 페이스북 연구팀이 딥러닝 기반으로 이미지는 애니메이션으로 바꾸어주는 알고리즘을 개발했습니다. 그 이름은 'Photo Wake-Up'입니다. 이름에 내용이 다 들어 있네요. 사용자의 흥미를 돋우기 위해 쓰기 딱 좋은 기능으로 보이네요. 친구들이랑 찍은 셀카에 이 알고리즘을 적용하면, 사진 속 인물들이 막 걸어 나옵니다. 이 정도 재미라면 사용자의 흥미를 끌기 충분해 보이네요. 연구팀이 개발한 알고리즘의 예도 흥미롭습니다. 유명 그라피티, 만화 캐릭터, NBA 스타인 스태판 커리, 피카소의 그림을 사용했네요. 이 알고리즘의 원리는 2D 이미지에서 인물을 따낸 다음 여기에 현실감 넘치는 3D 효과를 주는 것입니다. 이 효과를 실감 나게 보려면 사용자는 AR/VR 장치를 착용해야 합니다. 더 자세히 설명하자면 다음 그림과 같습니다. 입력으로 받은 이미지에서 인물의 몸체를 세분화합니다. 그리고 여기에 3D 메쉬를 적용해 세분화한 몸체 단위로 움직임을 만드는 것이죠. 출력으로 나오는 것은 스틸 이미지 속 인물이 움직이는 것처럼 보이는 3D 애니메이션입니다. 더 자세한 내용은 연구팀이 발표한 논문을 참조 바랍니다. 참고로 본 연구는 NVIDIA TITAN GPU를 장착한 시스템에서 cuDNN 가속 기반 PyTorch 딥러닝 프레임워크 환경에서 이루어졌습니다. 연구팀은 마이크로소프트와 Max Planck가 개발한 SMPL이라는 사전에 트레이닝한 모델을 사용했습니다. #인공지능 #AI #NVIDIA #유클릭 #애니메이션 #마이크로소프트 #PyTorch #딥러닝 #GPU

  • 맥박 리듬 이상 탐지로 심장 질환, 뇌졸중 등의 응급 상황을 막을 수 있는 인공 지능의 힘

    맥박 자주 측정하나요? 대사 증후군을 앓고 있다면 혈압과 맥박 측정은 버릇처럼 해야 합니다. 기술이 좋아져서 가정용 혈압 측정기로 심전도까지 측정해 스마트폰으로 관리할 수 있는 장치 구하기도 쉽죠. 개인적으로 CES 2019에서 위띵스(Withings)가 발표한 BPM 코어 제품이 관심이 갑니다. 오늘 소개할 주제는 인공 지능 기술을 활용해 심장 박동이 불규칙하게 뛰는 부정맥을 탐지해 내는 연구를 한 스탠포드 대학의 한 연구팀 이야기입니다. 이 팀은 딥러닝을 활용해 심전도 측정기(ECG) 데이터를 모아 트레이닝을 하였습니다. 사용된 데이터 세트는 5만 3,549명의 환자가 측정한 ECG 기록입니다. 이 팀이 만든 딥러닝 모델은 부정맥이 발생했을 때 ECG 기록의 특징을 심장 박동 리듬 측면에서 파악해 분류하고, 새로운 ECG 기록을 입력했을 때 어떤 리듬 클래스에 해당하는지 구분해 내는 것을 목표로 삼습니다.  아직은 기초적인 단계이지만 이 팀의 연구를 더 발전시키면 심장 박동이 불규칙하게 뛸 때, 어떤 질환이 원인인지 파악해 심장질환이나 뇌졸중 등 촌각을 다투는 응급 상황이 발생하기 전에 병원을 찾아 귀중한 생명을 건지는 데 큰 역할을 할 수 있다는 점에서 의미가 큽니다. 비즈니스 측면에서도 대사 증후군을 앓고 있는 이들에게 맞춤형 헬스케어 서비스를 제공할 수 있는 기회가 열린다는 점에서 꽤 가치 있는 연구로 보입니다. 스탠포드 대학 연구팀의 연구 결과는 Nature Medicine 저널에 게재되었으니, 관심 있는 분은 원문을 참조 바랍니다. 참고로 연구팀은 NVIDIA TITAN GPU를 장착한 시스템에서 cuDNN 가속 기반 TensorFlow 프레임워크를 적용해 5만 3,549명의 ECG 기록 9만 1,000개의 데이터 세트를 사용해 트레이닝을 했고, 딥러닝 아키텍처는 다음과 같습니다. #NVIDIA #유클릭 #부정맥예방 #뇌졸중예방 #심전도측정기 #딥러닝 #인공지능 #TensorFlow

  • 요리 레시피를 보고 실제 음식 사진 같은 이미지를 만들어 내는 AI

    요리사는 창조적인 사람들이죠. 이런저런 요리 재료를 조합하면 어떤 맛이 날지 머릿속으로 그릴 줄 아는 사람들입니다. 여기에 한 가지지 더하자면 "보기 좋은 떡이 먹기도 좋다"는 말처럼 눈으로 느끼는 맛의 기쁨까지 상상합니다. 이런 능력을 갖춘 타고난 요리사 못지않은 상상력을 이제 컴퓨터도 갖게 생겼습니다.  이스라엘의 텔아비브 대학의 한 연구팀이 글자로 쭉 적힌 요리 레시피를 보면 실제 음식 사진 같은 이미지를 생성해 내는 인공 지능 시스템에 대한 논문을 발표했습니다. 별것을 다 해본다고 하겠지만, 논문을 보면 꽤 흥미롭습니다.  연구팀은 텍스트로 구성된 요리 레시피와 해당 요리의 실제 사진을 가지고 딥러닝 트레이닝을 수행했습니다. 총 사용된 레시피와 사진의 양은 5만 2,000개 정도입니다. 트레이닝을 거듭한 결과 요리 레시피를 보면 비슷하게 실제 요리 사진 같은 이미지를 생성해 냅니다. 텍스트로 묘사한 내용을 이미지로 그리는 것! 컴퓨터 비전(Computer Vision) 분야에서 오래 동안 연구한 주제인데요, 매우 복잡하고 어려운 일입니다. 이 어려운 일을 GPU 기반 컴퓨팅 환경과 딥러닝 기법이 쉽게 해내는군요. 참고로 연구팀은 NVIDIA TITIAN X GPU 기반 시스템상에서 cuDNN 가속 기반 PyTorch 딥러닝 프레임워크를 사용했습니다. 더 자세한 내용은 논문 원문을 참조 바랍니다. #NVIDIA #인공지능 #컴퓨터비전 #GPU #cuDNN #PyTorch #딥러닝 #레시피 #유클릭

  • 일기예보를 척척 맞추는 인공 지능 ~ 기상청도 GPU 좀 활용하면 좋을 텐데...

    날씨 앱 많이 쓰시나요? 스마트폰에서 기본으로 제공하는 날씨 정보를 참조하는 분들이 아마 더 많을 겁니다. 이런 경우 대부분 날씨 정보를 온도 외에는 잘 안 믿게 되죠. 언제부터인가 우리는 기상 예보 기관의 예측을 잘 믿지 않는 성향이 생긴 듯 합니다. 하지만 한 가지 알아두어야 할 것은 기상 예보는 매우 어려운 일입니다. 첨단 슈퍼컴퓨터를 총동원해도 정확히 예측하기 어렵습니다. 다행히 요즘 유행하는 키워드죠. 네, 인공 지능(AI) 기술을 더 쉽고, 더 경제적으로 활용할 수 있게 되면서 기상 예보가 더욱 믿을 만 해지고 있습니다. 관련된 사례를 하나 소개합니다.  IBM의 자회사인 The Weather Company(이하 더웨더컴퍼니)가 최근 기존과 비교해 훨씬 정교하게 기상 예측이 가능해졌다고 발표했습니다. 더웨더컴퍼니는 일반 사용자는 잘 모르는 기업입니다. 이곳에서 하는 일은 전세계 기상 예측 정보를 기업, 기관 등에 제공하는 것입니다. 웨더 언더그라운드 앱(Weather Underground App) 같은 날씨 앱도 여기서 정보를 받습니다. 참고로 더웨더컴퍼니는 웨더 채널 앱(Weather Channel App)을 제공합니다. 웹 페이지로 볼 수도 있는데요, 한글로 대한민국 기상 정보를 자세히 보여 주네요. 스마트폰의기본 날씨 앱보다 더 많은 정보를 보여주는 것 같네요. 더웨더컴퍼니가 기상 예측을 위해 사용하는 컴퓨터는 IBM Power 9 기반의 슈퍼컴퓨터입니다. 이 환경에 GPU를 더했을 뿐인데, 더 정밀하고 빠른 기상 예측이 가능해졌다고 합니다. 더웨더컴퍼니는 최근 열린 CES 2019에서 NVIDIA V100 Tensor Core GPU를 장착한 새로운 시스템에 대한 내용을 소개했습니다. 이 시스템은 수백만 개가 넘는 날씨 관측 정보를 처리하고 분석하는 일을 합니다.  IBM Power 9과 NVIDIA V100 Tensor Core GPU의 조합이 갖는 파워는 어느 정도일까요? 더웨더컴퍼니에 따르면 그 효과가 꽤 큽니다. 날씨 정보를 보는 일반인의 눈으로 보면 <더 정확한 일기예보>를 볼 수 있다는 것으로 요약할 수 있겠네요.  더웨더컴퍼니는 기존에 12~15킬로미터로 지역 단위를 나누어 기상 관측과 예측을 했습니다. 그리 안 넓어 보이지만 기상 예측을 할 때는 너무 넓다고 합니다. 작은 지역 내에서도 변화무쌍한 것이 기상이란 것이죠. 반면에 GPU 기반 시스템을 사용하면 관측 지역을 3킬로미터 단위로 할 수 있다고 합니다. 이 차이를 간단히 말하면 다음과 같이 위성, 항공, 지상 등에서 수집한 정보를 화면에서 볼 때 더 높은 해상도로 지역의 일기 변화를 파악할 수 있다는 것을 뜻합니다. 또 다른 비교 포인트는 기상 모델 업데이트 주기입니다. 보통 기상청 같은 전문 기관에서는 기상 예측 모델을 돌립니다. 사용하는 슈퍼컴퓨터의 성능에 따라 시간이 좀 다른데요, 더웨더컴퍼니의 경우 6~12간 정도 걸렸다고 합니다. 이 주기를 당기면 뭐가 좋냐? 더 짧은 주기로 변화를 반영해 예측을 할 수 있는 것인데요, GPU 기반 시스템 환경에서는 모델을 시간 단위로 돌릴 수 있다고 합니다. 그것도 3킬로미터 단위의 해상도를 기준으로 말이죠.  GPU 기반 시스템이 적용된 기상 예측 서비스는 2019년 하반기부터 가능하다고 합니다. 자세한 내용은 IBM의 발표 내용을 참조 바랍니다. GPU가 추가된 시스템의 서버 다이어그램은 다음과 같습니다. #NVIDIA #IBM #TheWeatherCompany #유클릭 #기상예측 #기상관측 #일기예보 #인공지능 #AI #기상청

  • Kinetica에 RAPIDS를 아주 간단히 연계할 수 있다는 반가운 소식 ~ 며칠 걸리던 트레이닝이 단 몇 시간이면 완료!

    최근 NVIDIA가 RAPIDS를 공개했죠. RAPIDS는 데이터 과학자가 모델 트레이닝을 가속할 수 있도록 돕는 오픈 소스 기반 라이브러리입니다. RAPIDS는 첨단 분석과 데이터 과학 프로젝트에서 데이터 준비와 처리 과정을 간소화하는 데 초점을 두고 있습니다. RAPIDS는 기술적으로 Apache Arrow에 기반을 합니다. 이를 통해 GPU 메모리 상에서 첨단 분석과 데이터 과학 관련 데이터 파이프라인을 처리합니다. 데이터 준비, 트레이닝, 시각화 과정을 모두(end-to-end) 가속한다고 보면 됩니다. 그렇다면 RAPIDS를 적용하면 얼마나 더 작업이 빨라질까요? 며칠 걸리던 트레이닝이 몇 시간이면 충분할 정도입니다. 아례 표를 보시면 더 극적으로 느껴질 것입니다. 이렇게 훌륭한 RAPIDS를 사용하려면? 현재 사용 중인 환경에 배포하고 운영해야 하는 부담이 따릅니다. 이런 고민을 Kinetica가 해결했습니다. Kinetica에 RAPIDS을 UDF를 활용해 간편하게 연계할 수 있어, 복잡하게 데이터를 읽고 쓰는 구조로 파이프라인을 짜지 않아도 됩니다. 모델을 가져와 Kinetica에서 트레이닝하면 됩니다. Kinetica 엔진과 RAPIDS는 NVIDIA GPU Cloud의 카탈로그에서 다운로드할 수 있습니다. 그리고 Kinetic와 RAPIDS 통합 코드는 깃허브에서 찾아볼 수 있습니다. ​ 참고로 NVIDIA RAPIDS 구현과 데모가 필요할 경우 uDNA 팀에 문의를 통해 안내를 받을 수 있습니다. Kinetica 환경에서 RAPIDS를 연계하는 것에 대한 데모, PoC, 구축, 기술 지원 모두에 대한 안내가 가능하오니 참조 부탁드립니다. ​ #kinetica #GPU #NVIDIA #RAPIDS #데이터과학 #첨단분석

  • 슈퍼슬로우 영상 촬영 ~ 플래그십 최신 폰이 아니라도 가능할까?

    슈퍼슬로우 촬영을 하면 평범한 영상도 왠지 멋져 보이죠. 슈퍼슬로우 촬영 기능이 스마트폰 플래그십 모델에 장착되기 시작한 것은 대략 2017년 정도입니다. 이후 주요 제조사의 신형 폰에서 빠지면 안 되는 기능이 되었죠. 스마트폰에서 제공하는 기능이 뭐 어느 정도나 되겠어? 이런 생각도 할 수 있는데 초당 960프레임 촬영이 가능하다는 것을 생각하면 괘 쓸만합니다. 물론 저장 공간과 촬영 시간의 압박이 있긴 합니다. 960프레임이 느낌이 잘 안 온다면 물 풍선이 터지는 것이나 음료에 얼음이 청량감 넘치게 담기는 모습을 촬영한 광고 영상을 떠올리면 됩니다. 이런 영상은 고가의 초고속 카메라로 촬영을 하는데, 이제 개인도 스마트폰으로 비슷하게 흉내 정도는 내볼 수 있습니다.   이야기가 좀 옆길로 샜는데, 슈퍼슬로우 영상 촬영은 스마트폰에서 구현이 되어도 높은 하드웨어 성능과 자원을 요구할 수밖에 없습니다. DSLR로 촬영할 때처럼 메모리 카드 여러 장 가지고 다니면서 찍을 수도 없죠. 재미 정도로 몇 개 찍어야지 무턱대고 아무 때나 찍기 좀 부담스럽죠. 그런데 앞으로는 그냥 막 찍어도 될 것 같습니다.  굳이 슈퍼슬로우 모드로 촬영하지 않아도 됩니다. 인공 지능 기술의 힘을 빌리면 일반 모드로 촬영한 영상을 30, 240, 480프레임으로 돌려 볼 수 있습니다. 대단하죠! 이런 대단한 일을 해낸 주인공은 NVIDIA 연구팀입니다. NVIDIA 연구팀이 딥러닝 기반 시스템을 이용해 일반 모드로 찍은 영상을 슈퍼슬로우 영상으로 재생하는 데 성공했습니다. NVIDIA Tesla V100 GPU와 cuDNN 가속 기반 PyTorch 딥러닝 프레임워크를 사용해 모델을 트레이닝했는데요, 240프레임으로 찍은 스포츠 영상 11,000개를 데이터 세트로 활용했다고 합니다. 딥러닝이 통해 컴퓨터가 다음 모션을 예측할 수 있게 했다고 보면 됩니다.  다음 영상을 보면 일반 영상을 어떻게 저렇게 느리게 재생하는지 입이 떡 벌어질 것입니다. 더 자세한 내용은 NVIDIA 연구팀이 공개한 논문을 참조 바랍니다. #NVIDIA #슈퍼슬로우촬영 #슈퍼슬로우영상 #TeslaV100 #GPU

  • 영국의 제약 회사 글락소스미스클라인의 차세대 의약품 개발에 Kinetica를 쓰는 이유

    제약 업계는 인공 지능에 미래를 걸고 있는 대표적인 업종입니다. 신약 개발은 긴 시간과 막대한 투자가 들어가는 대형 프로젝트입니다. 신약의 성공을 100% 보장하기도 어렵습니다. 그렇다고 신약 개발을 하지 않고 복제약만 생산할 수는 없습니다. 이런 이유로 세계적인 제약사는 인공 지능과 첨단 분석을 앞세워 디지털 트랜스포메이션에 나서고 있습니다. ​ 오늘 소개할 클락소스미스클라인(이하 GSK)의 사례는 첨단 분석을 위한 바른 인프라 활용법으로 유명합니다. GSK는 1830년 설립된 세계적인 영국 제약 회사입니다. 총매출 기준으로 세계 3위 제약사라고 하면 그 규모와 영향력이 더 가깝게 느껴질 것입니다. GSK는 전통적인 신약 개발 방식으로는 지속 가능한 성장이 어렵다고 봤습니다. 신약 하나 개발하는데 평균 16억 달러가 든다고 합니다. 개발 기간은 6~9년 정도 걸리는데, 개발된 신약 중 90% 정도가 제품으로 시장에서 성공하지 못한다고 합니다. GSK는 GPU 기반 컴퓨팅 환경에서 첨단 분석과 머신 러닝을 수행해 전통적인 신약 개발 방식을 바꾸는 여정에 올랐습니다. GSK는 12만 5천 개의 GPU 코어로 구성된 대규모 클러스터를 운영해왔습니다. GPU 인프라는 신약 개발 관련 각종 시뮬레이션 작업을 위한 소프트웨어를 더 효율적으로 쓰기 위해서 구축한 것이었습니다. 문제는 GPU 인프라의 활용도가 생각보다 떨어졌다는 것입니다. 쉽게 말해 시뮬레이션 작업만 돌리기에는 남아도는 성능이 아까웠던 것이죠. ​ "어떻게 하면 GPU 인프라의 활용도를 높일 수 있을까?" 이 고민에 대한 답은 쉽게 찾을 수 있었습니다. GPU 가속 기반 데이터베이스 솔루션인 Kinetica를 사용하면 현재 구축한 GPU 인프라에 다양한 유형의 작업을 돌릴 수 있다는 것을 안 GSK는 바로 도입을 진행합니다. ​ GSK가 Kinetica를 보고 "바로 이것이다!"라고 외친 것은 어렵게 병렬 컴퓨팅 환경에 최적화된 코드를 짜거나 GPU 전용 솔루션을 도입하지 않아도 데이터 과학자와 분석가를 지원할 길이 있기 때문이었습니다. 실제로 Kinetica를 도입한 다음 보니 GSK의 데이터 과학자와 분석가는 관계형 데이터베이스 다루듯이 SQL 문으로 원하는 작업들을 척척해냈습니다. 무엇이나 새로 개발하거나, 새로운 언어를 사용할 필요 없이 GPU 인프라의 막강한 파워를 누릴 수 있게 된 것이죠. ​ GSK는 현재 Kinetica를 활용한 머신 러닝 등 새로운 유형의 알고리즘을 사용할 수 있게 된 것도 반가워하고 있습니다. Kinetica가 제공하는 UDF(User-Defined Functions)를 사용하면 데이터 과학자와 분석가는 자신이 손에 익은 방식을 사용해 모델을 개발해 배포할 수 있습니다. Kinetica 도입 후 데이터 과학자와 분석가는 빨라진 쿼리 처리 속도에 놀랐습니다. 평소 쓰던 쿼리를 수행해 보니 75~100배 가까이 처리 속도가 빨라졌습니다. GSK는 Kinetica를 통해 느린 쿼리 처리 속도에 대한 데이터 과학자와 분석가의 불만을 해결했고, 그다음 과제로 실시간 스트리밍 데이터를 처리할 수 있는 수준의 머신 러닝 수행에 도전할 계획입니다. 이 역시 Kinetica를 믿고 하는 도전입니다. 이를 통해 신약 개발 관련 시간, 비용 절감이라는 궁극의 목표에 한걸음 더 도달한다는 것, 이것이 바로 GSK가 Kinetica를 사용하는 이유입니다. ​ #Kinetica #글락소스미스클라인 #인공지능 #AI #GPU #데이터_과학자 #데이터_분석가

  • AI 기반 자동화 장치 개발 시간과 비용을 크게 줄이는 솔루션 ~ Jetson AGX Xavier 모듈

    스스로 운영이 되는 자동화 기계(Autonomous Machine)를 개발하는 것이 나날이 간편해지고 있습니다. 제조, 물류, 소매, 농업, 헬스케어, 스마트 시티 등 여러 곳에서 쓰이는 각종 설비, 장치, 기계에 인공 지능(AI)의 숨결을 불어 넣는 것이 쉬워진다는 것을 체감하는 개발자들은 누구일까요? 네, NVIDIA의 Jetson AGX Xavier 모듈을 통해 자동화 기계를 만들고 있는 현직 개발자들일 것입니다. ​ 최근 NIVDIA가 Jetson AGX Xavier 모듈을 글로벌 주요 시장에 공개했습니다. 이에 따라 Jetson AGX Xavier 기반으로 AI 기반 첨단 장치 개발을 준비하던 기업들과 개발자들이 분주해졌습니다. Jetson AGX Xavier 모듈이 시장에 던진 메시지는 AI 기반 첨단 자동화 기계를 쉽고 빠르게 개발할 수 있는 시대가 되었다는 것입니다. 가까운 비교로 아두이노 기반으로 다양한 아이디어 제품이 봇물 터지듯 나왔던 것을 떠올려 볼 수 있습니다. 전 세계 메이커(Maker)가 자신의 상상력을 눈앞에서 동작하는 장치로 만드는 데 있어 아두이노가 매우 큰 영향력을 끼쳤다는 것은 부인할 수 없는 사실입니다. AI 기반 자동화 기계 분야에서는 Jetson AGX Xavier 모듈이 비슷한 역할을 하지 않을까요? ​ Jetson AGX Xavier 모듈은 작지만 매우 강력합니다. 100x87mm의 작은 크기 안에 담긴 컴퓨팅 파워는 대단합니다. 최대 32TOPS의 컴퓨터 성능을 제공하며, 최대 750Gbps를 지원하는 I/O 속도를 지원합니다. NVIDIA Jetson TX2와 비교할 때 Jetson AGX Xavier 모듈은 20배 더 강력한 성능과 10배 더 우수한 에너지 효율을 제공합니다. ​ 혹시 Jetson AGX Xavier 모듈의 성능이 궁금하다면 최근 발표된 벤치마크 보고서를 참조 바랍니다. ResNet-18 FCN, ResNet-50, VGG19, GoogleNet, AlexNet 등에서 성능과 에너지 효율을 측정한 결과를 볼 수 있습니다. Jetson AGX Xavier 모듈은 하드웨어적인 측면에서만 제품 개발 시간과 비용 절감 효과를 제공하는 것이 아니라 소프트웨어 개발 역시 개발 기업의 제품 출시 일정을 앞당기는 데 도움을 줍니다. Time to Makret 경쟁력을 높여주는 것인데요, NVIDIA가 제공하는 JetPack, DeepStream 소프트웨어 개발 킷을 통해 자동화 기계 개발을 위해 필요한 것들을 잘 정리된 꾸러미 형태로 이용할 수 있습니다. ​ 참고로 JetPack은 BSP부터 시작해 우분투 리눅스 운영체계, NVIDIA CUDA, cuDNN, TensorRT 등 딥러닝, 컴퓨터 비전, 멀티미디어 처리 등에 필요한 소프트웨어들을 하나로 묶어 제공하는 패키지입니다. 현재 3.3 버전이 나와 있고, 개발자 프리뷰 버전은 4.1.1입니다. ​ DeepStream은 스마트 공장, 스마트 시티, 첨단 의료 서비스 등에서 요구하는 실시간 IoT 데이터 처리에 필요한 도구들의 묶음이라 보면 됩니다. 도시 곳곳에 촘촘하게 깔린 고화질 CCTV 데이터를 실시간으로 수집해 처리를 하고 시각화까지 해내는 데 필요한 소프트웨어들을 사전에 최적화해두었다고 보면 됩니다. Jetson AGX Xavier 모듈로 첨단 AI 기반 자동화 기계 개발에 관심이 있다면 유클릭으로 연락 주시면 도움을 드리겠습니다. #NVIDIA #JetsonAGX #Xnaiver #JetPack #DeepStream #유클릭 #자동화기계 #AI기계 #AI장치 #인공지능

  • 22kg 정도 짐을 배달하는 동네 배달꾼 로봇 'Serve' 택배도 이제는 AI 로봇이?

    전기 에너지로 움직이는 친환경 배달 로봇이 출시되었습니다. 22.6kg 무게의 짐을 싣고 왕복 48km를 배달할 수 있는 로봇으로 이름이 'Serve'입니다. 만화 주인공처럼 생겨 친근해 보입니다. 움직이는 속도는 사람 걷는 속도 정도라고 하는데, 안전사고를 고려해 빠른 속도로 움직이지 않는 듯합니다. 이 로봇을 만든 업체의 이름은 Postmates입니다. 이 회사의 서비스 방식은 배달계의 우버 정도 될 듯합니다. 배송을 원하는 사람과 배송을 할 수 있는 이를 연결해 주는 서비스 정도라 보면 될 듯합니다. 이 업체가 Serve를 만든 것은 배달 옵션을 더 풍성하게 이용자에게 제공하기 위해서입니다. 가령 마땅히 주차할 곳이 없는 배송지라던가, 우유 배달과 같이 정기적으로 특정 물건을 배송받는 경우 우버 방식으로 배송 서비스를 제공하는 것보다 로봇이 더 효율적일 수 있습니다. 참고로 Serve는 도로를 헤집고 다니는 것이 아니라 인도로 통행을 합니다. 교통 혼잡 걱정 없고, 주차장 고민도 없이 근거리 배달을 시간에 맞춰 척척해내기 좋은 조건이죠.  Serve는 겉모습은 장난감 같지만 속은 첨단 기술의 집합체입니다. 레이더 센서를 장착해서 사람이 세상을 보듯이 실시간으로 눈앞의 세상을 봅니다. Serve에 달린 눈이 그냥 멋으로 달아놓은 것이 아니라 실제 세상의 가상의 디지털 방식으로 바라보는 진짜 눈이라 보면 됩니다. 배송을 하는 방식도 단순히 경로를 입력해 정해진 길로만 가는 게 아닙니다. 자동차 자율 주행과 같은 방식으로 인도에 있는 각종 사물을 인식하여 요리조리 잘 피해 가며 갑니다. 이게 가능한 것은 NVIDIA Jetson AGX Xavier를 장착하고 있기 때문입니다. 이 플랫폼이 장착된 로봇이나 장치는 인공 지능(AI) 기반으로 움직인다고 보면 됩니다. Serve는 미국 주요 대도시에서 배송 서비스를 제공할 예정인데요, 그 첫 시험 무대는 LA라고 합니다. 참고로 Serve 같은 컨셉의 로봇을 만들면 쓸 곳이 참 많아 보입니다. 제조, 배송, 소매 등 다양한 업종에서 창고 관리나 물류 관리와 연계해 사용하면 시너지가 상당할 것 같네요. #우버 #AI로봇 #배송로봇 #NVIDIA #Jetson_AGX_Xavier

  • 디지털 네이티브 세대를 위해 태어난! 인공 지능 아바타 ~ Millie

    아바타 좋아하세요? 요즘 인공 지능, 홀로그램, 증강 현실 등 새로운 기술로 중무장한 아바타들이 속속 등장하고 있습니다. 최근 한류 스타 관련 아바타 출시에 대한 이야기도 많이 들리는데요, 그 첫 포문은 올 초 열린 WMC 2018에서 SK텔레콤이 아이돌 가수를 닮은 인공 지능(AI) 기반 아바타와 자연스럽게 대화를 나눌 수 있는 홀로박스를 통해 열었죠. SK텔레콤은 2019년에도 디스플레이가 달린 AI 스피커를 CES 2019에 소개하는데, 이 장치의 킬러 컨텐츠에도 AI 기술이 대거 활용될 전망입니다. 3D로 구현하는 아바타가 2000년대의 큰 흐름이었다면, 2010년대의 화두는 뭐니 해도 AI인 것 같습니다.  AI 아바타는 한국만 열기가 뜨거운 게 아닌가 봅니다. 스타트업들도 이 시장에 막 뛰어들고 있는데요, 오늘 소개할 주인공은 독일과 캐나다에 기반을 둔 AI 스타트업 TwentyBN입니다. 이 기업이 만든 캐릭터 이름은 Millie입니다. 뭔가 독일스럽네요.  Millie는 눈치가 빠릅니다. 상황을 판단해서 행동하죠. 기술적으로는 상황 인지(Context-aware) 아바타라고 표현하는데요, 그냥 분위기 파악할 줄 아는 아바타라 보면 됩니다. 영상을 보면 아직 갈 길이 좀 있어 보이긴 하는데요, 지금까지 우리가 접해온 아바타와는 확실히 세대 차이가 느껴집니다. 시간이 흐를수록, 사용자가 많을수록 더 인간을 닮은 아바타가 나올 것이란 생각을 하니 무섭기까지 하네요. Millie에 적용된 AI 기술은 컴퓨터 비젼 알고리즘과 AI의 조화를 통해 구현한 것입니다. 주요 용도는 엔터테인먼트와 소매(쇼핑) 분야라고 하네요. 엔터테인먼트는 간단히 말해 한류 아바타를 떠올리면 이해가 쉬울 것입니다. 소매 분야의 아바타는 쇼핑 사이트나 쇼핑몰에서 나를 도와주는 친절한 점원 또는 함께 옷을 사러 간 친구 정도 느낌의 서비스 제공에 쓰일 수 있겠네요.  요즘 왜 이리 스타트업들이 AI에 뛰어들까요? 기술 발전으로 진입 장벽이 낮아져서라고 볼 수 있습니다. Millie 역시 NVIDIA Tesla GPU를 장착한 시스템에 cu-DNN 가속 기반 PyTorch 딥러닝 프레임워크를 이용했습니다. 물론 여기에 TwentyBN의 상용 플랫폼을 통해 완성도를 높인 컴퓨터 비젼 알고리즘이 더해져 Millie가 탄생한 것이긴 하지만 AI 접목이 한결 간편해진 것은 사실입니다.  한국에서도 엔터테인먼트와 소매 부분에서 AI 아바타로 데뷔하는 스타트업이 등장하길 기대해 봅니다. #NVIDIA #Tesla_GPU #PyTorch #AI_아바타

bottom of page