top of page

검색 결과

"" 검색 결과: 157개의 아이템

  • 뇌종양 진단의 새로운 장을 연 인공 지능

    인공 지능이 안 쓰이는 곳이 없는 시대입니다. 관련해 사람들이 가장 큰 관심을 갖는 분야로 의료를 꼽을 수 있습니다. 아무래도 건강은 모두의 관심사라 그런가 봅니다. 오늘 전할 소식은 뇌종양 진단에 대한 것입니다. 뇌종양 수술을 할 때 조직 검사는 시간이 걸리던 일이었습니다. 종양 조직을 확보해 병리 실험실에 보내 양성과 음성 여부에 대한 검사 결과를 기다리죠. 인공 지능은 이런 번거로운 과정을 사라지게 합니다. Nature Medicine에 올라온 논문에 따르면 인공 지능 기반의 SRH(Stimulated Rama Histology) 기술을 이용하면 수술실에서 바로 조직 검사를 할 수 있습니다. 최소 30~40분 기다려야 했던 결과 확인이 이 기술을 이용하면 3분이면 충분하다고 합니다. 다음 영상을 보시죠. 수술실에서 양성, 음성 종양 진단이 바로 이루어지는 것을 볼 수 있습니다. 조직이 수술실을 떠나지 않고, 그 자리에서 진단이 이루어지는 것은 환자와 의료진 모두가 반길 일이 아닐까요? SRH 장비를 실제 운영하는 병원도 있다고 합니다. Michigan Medicine이 도입을 했다고 하는데요, 이 병원의 외과 의사들은 이미 500명 이상의 환자를 이 장비로 진단했다고 합니다. 참고로 SRH 기술에 적용된 인공 지능 모델은 NVIDIA RTX GPU 기반의 시스템 상에서 cuDNN 가속 기반 TensorFlow 딥러닝 프레임워크 상에서 트레이닝을 시켰다고 합니다. 이를 위해 사용된 데이터 세트는 415명의 환자를 촬영한 250만 장의 의료 영상 이미지였다고 합니다. 더 자세한 내용은 논문을 참조 바랍니다. #뇌종양 #종양_진단 #뇌종양_진단 #인공지능 #헬스케어 #GPU #TensorFlow #딥러닝

  • CES2020 ~ 인공 지능으로 확실히 뭔가 보여준 델타 항공

    해다마 연초가 되면 CES 행사 소식이 쏟아집니다. 올 행사의 핵심 주제는 인공 지능이죠. 관련해 CES 2020 기조 연설에 소개된 델타 항공의 인공 지능 활용 예를 정리해보았습니다. 인공 지능으로 예측 기반 정비를 해보니 ~ 비행기 결항 시간이 말도 못 하게 줄었다! 델타 항공의 경우 인공 지능을 바탕으로 예측 기반 정비를 합니다. 항공기는 매우 철저한 절차로 정비를 합니다. 숙련된 항공 정비사가 정밀한 도구를 이용해 정비를 하는 것과 인공 지능으로 예측 기반 유지 보수를 하는 것 간의 차이는 무엇일까요? 간단히 말해 사람이 정비를 하는 것은 기계나 부품에 이상이 있을 때, 이를 파악해 유지 보수를 하는 것입니다. 사후 수리의 개념이라 보면 됩니다. 반면에 인공 지능으로 정비를 하면 각종 부품이나 장치에 이상이 생기기 전에 교체나 수리를 항공정비사에게 추천합니다. 네, 후전 유지 보수라 보면 됩니다.  델타 항공의 경우 인공 지능 기술을 이용해 예측 기반 정비를 한 덕에 2010년 5,600 시간 이상이던 항공기 결항 시간이 2018년 55시간으로 줄었다고 합니다. 엄청난 변화가 아닐까요? 딥 데이터와 인공 지능을 활용해 고객 서비스 강화 델타 항공은 데이터를 활용해 고객 편의와 경험을 개선하고 있습니다. 승객의 눈으로 보면 참 바람직한 혁신을 이어가고 있는 것 같네요. 델타 항공 이용객은 Fly Delta라는 앱을 통해 탑승 시간, 기상 정보, 좌석 선택 등의 편의를 누릴 수 있습니다. 이것은 눈에 보이는 편의입니다.  눈에 보이지 않는 것이 하나 더 있습니다. 델타 항공은 딥 데이터(Deep Data)를 바탕으로 인공 지능을 적용해 날씨 패턴을 예측합니다. 하늘을 나는 델타 항공기는 각각의 경로에 대한 날씨 패턴 예측 정보를 실시간으로 받습니다. 이에 따라 승무원은 난기류 발생 등을 사전에 인지하고, 적절한 고객 안내를 할 수 있습니다.  참고로 딥 데이터란 빅 데이터와는 조금 구분되는 개념입니다. 딥 데이터는 그저 양이 많은 데이터를 뜻하지 않습니다. 유용하고, 실행 가능한 그런 깊이 있는 알짜 데이터를 딥 데이터라고 부른다고 보면 됩니다.  이외에도 시범 사업이긴 하지만 애틀랜타 공학에서 안면 인식 기술을 적용한 보안 검색대를 마련하기도 했습니다. 네, 영화에서 보는 그런 것입니다. 보안 검색대를 통과할 때 사람의 얼굴을 기계가 자동으로 인식합니다. 이 역시 인공 지능 기술이 뒤에 깔린 서비스로 늘 길게 줄이 늘어선 보안 검색대의 혼잡함을 한방에 해결하는 기술의 힘을 보여 줍니다.  델타 항공이 펼쳐가는 딥 데이터와 인공 지능 기반 서비스 혁신이 어디까지 날아갈지 궁금하네요. 어서 빨리 다른 항공사도 이런 고객 경험을 제공했으면 좋겠습니다. #CES2020 #AI #인공지능 #빅데이터 #딥데이터 #예측기반정비

  • AI가 디지털 혁신을 주도하려면? AI 프로젝트 진행을 위한 마이크로서비스 아키텍처로의 전환이 필요?

    2020년 AI 관련 기업의 투자 방향은 어느 쪽을 향할까요? 여러 언론사와 시장 조사 기관에서 다양한 전망을 내놓고 있는데요, 모두 입을 모아 하는 말 중 하나가 바로 '생산성과 효율'입니다. AI 프로젝트를 더 다양하게 하고 싶고, 더 빨리 성과를 내고 싶은 조바심 속에서 기업은 더 민첩하게 머신 러닝 모델을 개발, 트레이닝, 배포하고 싶어 합니다. 관련해 주목받는 것이 바로 마이크로서비스 아키텍처입니다. 데이터 과학자와 AI 애플리케이션 개발의 생산성을 높이는 'Modesl as a Service' 도커 컨테이너와 쿠버네티스 기반으로 마이크로서비스 아키텍처 환경을 구축하면 모델 배포를 매우 신속하게 할 수 있습니다. 모노리틱 구조와 달리 모델 배포 환경을 일일이 구축할 필요가 업습니다. 마이크로서비스 환경에서는 머신 러닝 모델 배포를 'Model as a Service' 방식으로 할 수 있습니다. 네, 배포 환경 구축과 운영 관련해 IT 담당자의 손을 빌릴 일이 별로 없습니다. 데이터 과학자와 개발자가 더 편하게 일을 할 수 있게 되는 것이죠. ​ 마이크로서비스 아키텍처를 택하면 AI 프로젝트마다 각각 다른 개발 언어, 프레임워크 등에 대한 요구 사항을 수용하는 것도 간단한 일이 됩니다. 각 프로젝트 환경은 개별적이고 동시에 독립적입니다. 프로젝트마다 최적의 자원 할당이 이루어집니다. 필요할 때 자원을 확장하는 것도 어려운 일이 아닙니다. 그뿐만 아니라 필요에 따라 모델을 클라우드로 배포하는 유연성도 확보할 수 있습니다. ​ 데이터 소스와의 연결도 편리합니다. 하나의 데이터 소스를 여러 모델에서 사용할 수 있으며, API를 통해 클라우드의 데이터 저장소에 있는 데이터를 사용하는 것도 간편합니다. 이외에도 클라우드 사업자가 제공하는 자연어, 이미지 등을 처리하는 다양한 API를 통해 개발 편의성을 높이는 것도 수월합니다. ​ 정리하자면 2020년은 AI, 머신 러닝, 딥러닝 관련해 새로운 효율을 찾는데 기업들이 주목할 것이며 관련해 프로젝트 관리와 관련된 잡 스케줄러, 관리 플랫폼 등에 대한 관심이 커질 것으로 보입니다. 더 자세한 내용은 uDNA 페이지를 참조 바랍니다. ​ ​ #유클릭 #AI #머신러닝_마이크로서비스_아키텍처 #마이크로서비스_아키텍처 #인공지능 #머신러닝 #Model_as_a_Service #잡스케줄러 #관리_플랫폼

  • 하둡의 미래는? HDFS는 가고, Apache Spark는 굳건히 생존하고!? & 클라우드를 정조준한 MariaDB Platform X4

    오늘은 외신에 나온 이야기를 간단히 해보려 합니다. 주제는 "하둡은 죽었다?"입니다. 관련해 이런저런 말들이 많이 나오고 있죠. 관련해 데이터나미에서 2020년 빅 데이터 관련해 업계 전문가의 의견을 물어 정리한 기사를 내보냈습니다. 이 내용을 읽어 보면 고개가 끄덕여집니다. 시대의 변화 앞에서 영원할 것 같던 하둡도 변화의 흐름에 몸을 맡겨야만 한다는 사실을 이 기사는 짚어내고 있습니다. 2020년 우리는 하둡을 어떤 시각에서 바라봐야 하는가? 이 글에 등장하는 전문가들의 의견은 한 쪽으로 결론이 모입니다. 하둡 스토리지는 죽었지만, 하둡 컴퓨트 영역은 여전히 강력하다는 것입니다. 여기에 담긴 뜻은 HDFS는 더 이상 빅 데이터 저장의 선호 대상이 아니지만, 아파치 스파크에 대한 수요는 앞으로도 강력하다는 것입니다. 이런 전망의 이유도 설득력이 꽤 있습니다. 하둡 생태계에서 HDFS가 사라질 것이라 보는 이유는 HDFS 인프라 구성과 관리는 너무나도 복잡하고 어렵기 때문이죠. 반면에 스파크의 밝은 미래는 데이터 관련 기업의 수요가 '실시간' 쪽으로 가고 있다는 것에서 찾을 수 있습니다. HDFS의 빈자리는 무엇이 메울 것인가? 그렇다면 HDFS의 자리는 누가 차지할까요? 클라우드 기반 오브젝트 스토리지라고 보고 있는 듯합니다. 이와 함께 쿠두 역시 HDFS의 부족함을 메우기 위한 구원 투수 역할을 할 전망입니다. 빅 데이터 프로젝트 관련 소식들을 가만히 보면 HDFS는 더 이상 고집하지 않죠. 빅 데이터 처리와 저장에 있어 임팔라와 쿠두 조합을 많이들 보고 있습니다. 하둡의 미래 어떻게 생각하시나요? 아래 원문을 통해 전문가들의 견해를 읽어 보시고, 한번 생각해 봐야 할 주제가 아닐까 싶네요. 또 다른 주제: MariaDB Platform X4 HDFS 이야기만 하기 좀 아쉽네요. 그래서 마리아DB 소식도 간단 정리해 올립니다. 마리아DB는 최근 네이티브 클라우드 플랫폼인 MariaDB Platform X4를 공개했습니다. 마리아DB가 단단히 마음먹고 클라우드 시장에 출사표를 본격적으로 던진 것이라 봐야겠죠. 관련해 마리아DB는 '스마트 트랜잭션(Smart Transaction)'이란 개념도 들고 나왔습니다. ​ 스마트 트랜잭션은 아주 단순한 개념입니다. 돈을 지불하는 트랜잭션, 자금 이체 트랜잭션, 각종 서비스에 대한 예약 및 확인 트랜잭션 등 각종 데이터 처리를 실시간에 가깝게 하는 것입니다. 실시간에 가까운 데이터 처리와 분석을 바탕으로 그동안 우리가 뭔가를 위해 기다려왔던 시간을 없애 더 나은 고객 경험을 제공하는 것이 마리아DB가 말하는 스마트 트랜잭션입니다. ​ 스마트 트랜잭션을 보장하기 위해 클라우드 네이티브 하게 아키텍처를 최적화한 것이 바로 MariaDB Platform X4입니다. 이 플랫폼은 트랜잭션과 분석 엔진을 하나로 통합해 탑재하고 있습니다. 이 플랫폼을 클라우드 네이티브라 부르는 첫 번째 이유죠. 두 번째 이유는 아키텍처입니다. 이 플랫폼이 클라우드에 최적화된 아키텍처를 채용하고 있다는 것이 거창하게 들릴 수 있지만 Amazon EBS, Azure Manged Disk, Google Persistant Disks 등의 블록 스토리지 서비스 환경과 Amazon S3, Azure Blog Storage, Google Cloud Storage 같은 오브젝트 스토리지 환경 모두에서 잘 돌아가게 만들었다 ~ 뭐 이 정도로 이해하면 될 듯합니다. 더 자세한 내용은 데이터 시트를 참조 바랍니다. ​ ​ #유클릭 #빅데이터 #HDFS #아파치_스파크 #하둡 #아파치_쿠두 #아파치_임팔라 #마리아DB #MariaDB #MariaDB_Platform_X4 #클라우드_데이터베이스 #오브젝트_스토리지 #스토리지

  • 모든 기업이 AI 투자 강화하고 있지만! 불필요한 비용을 많을 쓰고 있고, 프로젝트 추진에 너무 오랜 시간이 걸리는 것이 현실!

    인공 지능(AI)는 모든 기업의 최우선 순위 투자 대상입니다. 그렇다면 기업들의 투자는 어떻게 이루어지고 있을까요? 관련해 중요한 통찰력을 얻을 수 있는 설문 조사 보고서를 AI와 머신 러닝 솔루션 전문 기업인 Algorithmia에서 발표했습니다. 보고서 이름은 '2020 state of enterjprise machine learning'입니다. 주요 산업별 AI 관련 의사결정자 750명을 대상으로 설문 조사를 한 내용을 담은 이 보고서의 핵심을 한 줄로 정리하자면 "AI는 기업 규모와 업계 관계없이 투자가 증가하고 있으며, 관련 개발 프로젝트가 늘고 있으나, 프로젝트 진행이 더디게 이루어지고 있다"라는 것입니다. 본 포스팅에서는 주요 핵심 사항만 정리해 보겠습니다. 원문은 Algorithmia 페이지를 참조 바랍니다. ​ Key Finding #1 기업의 데이터 과학자 수는 모든 산업 영역에 걸쳐 빠르게 증가하고 있습니다. 관련 전문 인력 수요가 늘고 있다는 것으로 보면 될 듯합니다. ​ Key Finding #2 머신 러닝 관련 비즈니스 유즈 케이스 사례는 다양하게 나타나고 있습니다. 이를 큰 범주로 묶으면 다음 그림과 같습니다. 주로 고객 관련 부문과 조직 측면에서 비용 절감에 도움이 되는 쪽으로 적용하는 것으로 보입니다. 비용 절감의 경우 아마도 RPA를 통한 자동화가 아닐까 추측해 봅니다. Key Finding #3 머신 러닝 관련 성숙도의 경우 모든 산업 분야에서 고르게 단계가 높아지는 것으로 보입니다. 머신 러닝 성숙도 관련 성숙도를 묻는 질문에 대한 복수 응답 내용을 수치로 좀 보시죠. 유즈 케이스를 평가한다는 응답이 22%, 모델 개발에 착수했다는 응답이 17%, 프로덕션 환경에 배포하기 시작했다는 답이 17%으로 나타났습니다. 모델 배포의 경우 1~2년 내에 프로덕션 환경에 모델을 배포할 계획이라는 응답이 17%, 2~4년 이내라 답이 15%, 5년 후라고 말한 응답자는 8%입니다. ​ Key Finding #4 머신 러닝 관련 현업이 느끼는 어려움으로 너무 긴 배포 시간이 꼽혔습니다. 모델 배포 타임라인에 대한 다음 응답을 보시죠. 신속하게 모델을 배포하는 조직이 생각보다 적은 것으로 나타났습니다. 이는 여러 이유가 있겠지만 인프라, 플랫폼, 도구 사용에 있어 생산성과 효율성이 떨어지기 때문으로 풀이할 수 있습니다. 관리 플랫폼, 잡 스케줄러 등 중앙집중적인 관리 도구를 이용해 인프라와 플랫폼을 사전에 최적화된 형태로 즉시 배포 가능하게 이용할 수 있게 할 경우 다음과 같이 30일 이상 배포에 시간이 걸릴 이유가 없기 때문입니다. NVIDIA가 제시하는 사전 최적화 모델, 퓨어스토리지 등 하드웨어 업체가 제시하는 사전 최적화된 인프라 또는 클라우드 사업자가 제공하는 서비스가 제공하는 개발과 배포 편의성을 잘 살펴보면 너무 긴 배포 시간의 문제를 해결할 실마리를 찾을 수 있습니다. Key Finding #5 현업이 느끼는 고민으로 머신 러닝 모델 트레이닝 관련 확장에 대한 이슈도 있습니다. 이것이 이번 설문 조사의 다섯 번째 발견입니다. 하드웨어, 데이터 등 머신 러닝 프로젝트가 늘다 보면 자연스럽게 직면하는 이슈죠. 이와 함께 모델 버전 관리와 모델 최적화, 경량화 과정을 빠르고 매끄럽게 처리하는 것이 어렵다는 것도 현장의 고충으로 나타났습니다. 흔히 머신 러닝, 딥러닝의 경우 관리 플랫폼의 중요성을 아직 잘 모르죠. 하지만 소프트웨어 개발에서 전체 라이프사이클에 걸쳐 지속적 배포와 지속적 통합을 위한 관리 플랫폼을 운영하는 것처럼 모델 개발과 배포 역시 중앙집중적인 플랫폼이 필요합니다. Key Finding #7 이 보고서의 마지막 부분은 AI 관련 예산에 대한 내용이 쓰여 있습니다. 응답자의 80% 이상이 전년 대비 예산이 늘었다고 답을 하였습니다. 보고서 원문을 보면 산업별 예산 증감에 대한 내용도 나옵니다. 본 포스팅에 소개한 내용의 더 자세한 부분은 보고서 원문을 참조 바랍니다. ​ #유클릭 #인공지능 #머신러닝 #AI_보고서 #Algorithmia #RPA_자동화 #머신러닝_프로젝트 #잡스케줄러 #머신러닝_관리_플랫폼 #딥러닝_관리_플랫폼 #CI_CD #NVIDIA #퓨어스토리지

  • 움직이는 객체를 3D 모션으로 표현하는 딥러닝 모델

    딥러닝의 적용 분야는 상상하는 데까지 인듯합니다. 오늘 소개할 내용은 움직이는 객체를 3D 모션으로 표현하는 딥러닝 프로젝트에 관한 것입니다. 독일 Max Plank 연구소에서 학습 기반의 3D 재구성에 대한 프로젝트를 추진 중입니다. 관련해 OFlow(Occupancy Flow)라는 신경망을 만들었습니다. 간단히 정리하자면 OFlow는 Occupancy Network와 Velocity Network로 구성되는 일련의 흐름입니다. ​ OFlow를 만들게 된 계기는? 단순한 호기심에서 출발하였습니다. 2D 이미지를 3D 그래픽으로 전환하는 것은 손이 많이 가는 작업으로 여겨졌습니다. 그나마 2D 이미지를 3D 이미지로 바꾸는 것은 누군가 해왔습니다. 그런데 누군가 하지 않은 빈틈이 있었습니다. 네, Max Plank 연구소 관계자들은 왜 움직이는 3D 모션에 대해서는 아무도 생각하지 않지? 이런 생각을 하게 된 것이죠. 참고로 2D를 신경망을 통해 3D 메시로 바꾸는 것은 다음과 같습니다. 정적인 상태의 이미지를 뽑아내는 것이죠. OFlow는 좀 다릅니다. 다음과 같이 입력 정보를 딥러닝을 통해 3D 모션으로 뽑아냅니다. 움직이는 객체에 대한 입력 정보를 넣으면 신경망을 거쳐 3D 모션으로 나타납니다. 위 영상과 같이 입력 데이터를 딥러닝을 통해 움직이는 3D 모션으로 나타내는 것이 바로 OFlow입니다. 앞서 OFlow는 Occupancy Network와 Velocity Network로 구성된 흐름이라고 했죠. 네, OFlow의 핵심 아이디어는 객체와 공간을 분리해 딥러닝 모델을 적용하는 것입니다. OFlow 흥미로운 프로젝트인 것 같습니다. Max Plank 연구소는 딥러닝을 이용해 4D 모션까지 구현하는 것이라고 하네요. 앞으로 어떤 연구 결과가 나올지 궁금합니다. 참고로 이 연구소는 NVDIA RTX GPU가 장착된 시스템에서 cuDNN 가속 기반 PyTorch 딥러닝 프레임워크를 이용해 프로젝트를 진행했습니다. OFlow 관련 상세 내용은 프로젝트 페이지를 참조 바랍니다. 소스 코드 다운로드도 가능하다고 하네요. ​ #유클릭 #NVIDIA #GPU #cuDNN #PyTorch #NVIDIA_RTX #Oflow #3D_모션 #딥러닝 #2D_3D_전환

  • 개인정보보호 규제 걱정 없이 의료 기관 간 데이터 세트를 공유해 협력 기반의 딥러닝 프로젝트 추진이 가능해진다! 규제 벽을 넘는 NVIDIA Clara + XNAT 조합!

    의료 분야는 각종 연구 활동에 막대한 양의 데이터 세트를 참조합니다. 환자 개인 정보와 밀접한 관련이 있다 보니 의료 기관은 주요 개인정보보호 규제 대상입니다. 관련해 IT 기술 주도의 혁신으로 새로운 시장을 마련하려면 헬스케어 관련 규제를 완화해야 한다는 업계의 목소리가 한동안 꽤 높았죠. 하지만 모든 것을 규제의 탓으로 돌리는 것은 진정한 해결책은 아닌 듯합니다. 기술적으로 극복할 수 있는 최선의 안도 늘 관심을 갖고 봐야 합니다. 관련해 오늘 전해드릴 소식은 빅 데이터와 인공 지능 이 두 가지를 의료 서비스 혁신에 규제 걱정 없이 적용할 수 있는 기술적 최적의 방안이란 점에서 주목해 볼만합니다. 데이터 관련 규제 걱정 없이 의료 기관 간 딥러닝 협력의 길 열린다! NVIDIA의 Clara에 XNAT이 통합되었습니다. 이 한 줄의 소식이 뜻하는 바가 바로 앞서 소개한 규제를 지키는 가운데 데이터 세트를 서로 공유하며 딥러닝 프로젝트를 추진할 수 있다는 것입니다. 의료 분야의 연구는 한 기관이나 병원이 독자적으로 추진하기 어려운 것들이 많죠. 대외 기관의 협력이 매우 중요한데, 대부분 데이터 관련 규제의 벽에 걸려 제한적인 범위에서만 연구 협력이 진행됩니다. NVIDIA Clara에 XNAT이 통합되면 규제 걱정 없이 딥러닝 관련 연구 협력을 할 수 있는 길이 열립니다. 서로 닮은 꼴인 Clara & XNAT NVIDIA Clara는 많은 분들이 아시는 데로 헬스케어 애플리케이션 개발과 실행을 GPU 가속 기반의 환경에서 수행하기 쉽도록 돕기 위한 툴킷입니다. 의료 관련 연구자, 데이터 과학자, 애플리케이션 개발자는 GPU 가속의 이점을 위해 인프라 설정과 운영을 신경 쓰지 않아도 된다! 이를 위해 탄생한 것이 바로 NVIDIA Clara입니다. XNAT은 이미지 연구 관련 분야에서 매우 광범위하게 사용되는 인포매틱스 플랫폼입니다. NVIDIA Clara가 인프라 관리에 대한 부담을 줄여준다면, XNAT은 이미지 데이터 파이프라인 관리의 부담을 덜어 줍니다. 연구자와 개발자는 이미지 데이터 세트 관련 접근 제어, 데이터 전처리 등에 대해 신경 쓰지 않고 온전히 자신이 할 일에 집중하면 됩니다. GPU 가속 기반 인프라, 플랫폼 그리고 데이터 파이프라인까지 관리 부담 크게 줄어 NVIDIA Clara와 XNAT이 통합되면? 의료 분야 연구자, 데이터 과학자, 방사선 전문의는 인프라와 플랫폼 그리고 이미지 데이터 파이프라인 관리에 대한 부담을 크게 줄일 수 있습니다. 더 중요한 효과는 의료 기관 간의 연구 협력입니다. 연구 프로젝트에 참여한 병원과 연구소는 각자 보유한 의료 영상 이미지 데이터를 외부로 보내지 않고, 내부에 보관한 채로 여러 기관과 데이터 세트를 공유해 딥러닝 프로젝트를 수행할 수 있습니다. 데이터 세트는 각 병원과 연구기관에 위치합니다. 딥러닝 모델 트레이닝과 인퍼런싱에 사용하는 데이터에는 개인을 식별할 수 있는 정보가 담기지 않습니다. ​ 소개한 NVIDIA Clara와 XNAT의 통합은 의료 분야의 AI 혁신 속도를 가속하는 촉매가 되지 않을까요? 더 자세한 내용은 유클릭으로 문의 바랍니다. ​ ​ #NVIDIA #NVIDIA_Clara #GPU #GPU가속 #헬스케어 #헬스케어_개인정보보 #의료_개인정보 #의료_빅데이터 #의료_인공지능 #헬스케어_인공지능 #유클릭 #XNAT

  • 2019년 주목할 100대 AI 스타트업, 그 결과는?

    매년 연말이 되면, 연초에 발표된 전망 관련 글들을 보곤 합니다. 2019년 가장 뜨거운 키워드인 '인공 지능(AI)' 관련해 CB인사이트에서 발표한 2019년 주목할 100대 AI 스타트업 관련 그림을 다시 보니, 2020년에는 얼마나 더 많은 스타트업이 스포트라인트를 받을까 싶은 생각이 들었습니다. 위 그림에 이름을 올린 기업의 수는 100개입니다. CB인사이트가 이들 기업 100개를 뽑는 것은 꽤나 어려운 일이었을 것 같습니다. 100개를 뽑기 위해 3천 개가 넘는 AI 스타트업을 살펴봤다고 하니 말이죠. CB인사이트는 3천 개가 넘는 기업을 놓고 특허, 투자자, 언론 보도 및 기업 분석 관련 글, 시장 잠재력, 파트너십, 경쟁 환경, 팀 역량, 기술의 차별성, Mosaic 스코어 등을 참조했다고 합니다. 스타트업은 어떤 산업 분야에서 사업 기회를 보았을까? AI 스타트업은 어떤 분야에서 시장 기회를 봤을까요? CB인사이트가 뽑은 100개 기업을 산업 분야별로 나누어 보니 자동차, 농업, 헬스케어, 통신, 반도체, 정부, 소매, 금융/보험, 미디어, 부동산, 법률/규제/인사, 엔터프라이즈 관련 기술 등 12개 산업 분야였습니다. 지역별로 보면 북미와 중국이 단연 돋보이네요. 한국도 AI 스타트업이 많은데, 언급이 없어 좀 아쉽네요. CB인사이트 페이지에 가면 2017년, 2018년, 2019년 100대 AI 기업 리스트와 관련 상세 내용을 볼 수 있으니 참조 바랍니다. #인공지능 #AI_스타트업 #스타트업 #인공지능_스타트업 #AI_특허 #AI_투자 #시장_잠재력 #파트너십

  • IoT 데이터 처리의 핵심은? 레이턴시와 위치 정보 처리 걱정이 없는 데이터베이스 ~ 입니다!

    2020년 기업은 데이터를 중심으로 더 역동적인 변화를 맞이할 것입니다. 특히 5G 시대 선포 1년이 지난 만큼 IoT(사물인터넷) 관련 데이터의 가치가 더욱 커질 전망입니다. 관련해 새해 중요 과제가 될 IoT 데이터 처리의 핵심을 간단히 살펴보았습니다. 결국 레이턴시가 관건이 될 듯.... 데이터 처리에 있어 가장 민감한 부분은 레이턴시입니다. 시스템 성능, 네트워크 대역폭 등을 예측할 수 있고, 제어할 수 있는 데이터센터 환경이라면? 레이턴시 관련 이슈 대응 역량 확보는 큰 문제가 아닙니다. 하지만 환경이 IoT로 바뀌면 이야기가 달라집니다. 장치와 센서의 위치는 매우 광범위합니다. 설치 범위는 사내를 넘어섭니다. 그리고 통신은 LAN 환경에 구축한 이더넷을 넘어 5G, 와이파이, 위성 등 다양한 WAN 환경까지 수용해야 합니다. 이런 조건에서 실시간으로 생성되는 데이터를 수집, 처리, 분석하는 구심점이 데이터베이스 플랫폼에서 레이턴시를 최소화하는 것은? 딱 봐도 어려울 일임을 알 수 있습니다. 늘 그렇듯 찾으면 길이 보이죠. GPU 가속 기반 데이터베이스를 이용하면 IoT 환경에서의 레이턴시 문제에 대한 답을 찾을 수 있습니다. ​ GPU 가속 기반 인메모리 데이터베이스를 엔진으로 삼고 있는 Kinetica Active Anayltics Platform을 적용하면 IoT 환경에서 데이터 수집부터 쿼리 수행까지 레이턴시를 최소화할 수 있습니다. IoT 관련 데이터를 수집하고 이를 대상으로 쿼리를 수행하는 데 있어 레이턴시로 인한 불편이 없다는 소리입니다. 스트리밍 데이터 세트를 대상으로 복잡한 수준의 분석을 할 때에도 쿼리 결과를 빠르게 받아 볼 수 있습니다. 위치 기반 정보 처리도 관건 IoT 데이터 처리에 있어 위치 정보를 어떻게 다룰 것인지도 중요합니다. 회사가 관리하는 네트워크 범위 밖에 위치한 다양한 장치와 센서가 보내는 스트리밍 데이터의 속성 중 가장 중요한 것은 위치 정보입니다. IoT 데이터 분석에 있어 기본으로 깔고 가야 하는 위치 정보를 장치와 센서가 만들어 보내는 정보와 한데 잘 묶어 처리하는 것은 사실 복잡한 문제입니다. Kinetica Active Anayltics Platform은 이를 매우 단순화 시켰습니다. 강력한 GPU의 처리 성능을 활용해 대규모 IoT 스트리밍 데이터 세트를 대상으로 다양한 필터를 적용해 원하는 위치에서 보내는 정보를 수집하고 이에 대한 시계열 분석을 하고 여기서 더 나아가 geo-join과 geofence 기반 분석까지 단일 플랫폼에서 지원합니다. 스마트 주차, 스마트 그리드, 실시간 재고 관리 등 다양한 IoT 시나리오에 적합 레이턴시 걱정 없이, 위치 기반 정보 처리에 대한 부담 없이 IoT 스트리밍 데이터를 처리할 수 있다면? 그 응용 범위는 무한대가 됩니다. 가령 정부와 지자체의 주요 관심사인 스마트 도시 구현을 더 구체적으로 실행에 옮길 수 있습니다. 도시의 실시간 교통 흐름, 주차장 현황 등 자동차 이용자를 위한 생활 편의 서비스를 스마트하게 제공할 수 있습니다. 그리고 스마트 그리드 환경을 통해 농촌과 바다를 넘어 도시로 번지고 있는 태양광 발전 등 친환경 에너지 생산과 관리를 기존 전력 체계에 잘 연계하여 도시의 에너지 자급과 관리 효율도 개선할 수 있습니다. 이 외에 산업 환경에서는 산업용 IoT(IIoT) 환경에서 스마트 공장이 쏟아내는 데이터 처리의 새로운 길을 열 수 있고, 물류와 유통 분야에서는 실시간 재고 관리의 새로운 장을 열 수 있습니다. 너무 뜬구름 잡는 소리라고요? 다음 데모를 보시면 아마 IoT 데이터 처리는 마음먹기에 따라 지금 당장 처리할 수 있는 것이란 생각이 들 것입니다. 참고로 다음 영상은 런던 시의 공공 데이터를 이용해 자동차, 대중교통, 자전거 등 개인 이동 수단의 흐름을 실시간으로 분석하는 예입니다. #IoT #사물인터넷 #인더스트리얼_IoT #IIoT #스마트시티 #스마트_도시 #Kinetica #키네티카 #스마트_그리드 #위치_기반_정보 #GPU_데이터베이스 #인메모리_데이터베이스 #런던_교통 ​

  • 국산 보안 솔루션 기업이 두 손들어 반기는 AI 기술 - cyBERT

    보안 업계에서 인공 지능은 이제 반드시 갖추어야 할 역량이 되었습니다. 외산, 국산 할 것 없이 보안 솔루션은 인공 지능을 통해 급변하는 사이버 위협에 대응하는 것을 큰 줄기로 삼고 있습니다. 관련해 가장 처음 시작점으로 많은 기업이 보안 로그와 이벤트 분석에 인공 지능 적용을 고민하고 있습니다. ​ 그 이유는? 간단합니다. 하루에도 수없이 올라오는 얼럿(Alert) 속에서 오탐으로 인한 피로도를 낮추고, 진짜 위협을 가려내는 데 있어 인공 지능의 역할이 매우 중요해질 것이기 때문입니다. 물론 인공 지능이 만능열쇠는 아니지만 말이죠. 관련해 사이버 보안 솔루션이 수집하는 로그에 인공 지능을 더 쉽고 편하게 더할 수 있는 방법을 소개한 글이 RAPIDS 블로그에 올라와 주요 내용을 요약해 보았습니다. 핵심만 말하자면 자연어 처리(Natural Language Processing)를 활용하면 보안 로그 파싱 속도와 효율을 드라마틱 하게 높일 수 있다고 합니다. 홍수처럼 쏟아지는 보안 로그 ~ 어떻게 처리하지? 보통 보안 로그 수집과 처리의 경우 SIEM 등 전용 솔루션을 많이 고려하죠. 이들 솔루션도 충분히 좋지만 나날이 늘어만 가는 로그 홍수 속에서 진짜 위협을 제때 가려내려면 뭔가 더 똑똑한 방식의 로그 분석이 필요합니다. 관련해 인공 지능이 주목받는 것은 어찌 보면 당연합니다. 룰이나 시그니처로 위협을 감지하여 얼럿을 생성하는 방식도 여전히 유용하지만, 봐야 할 대상이 너무 많은 경우 인공 지능을 통해 보안 로그 파싱 속도와 효율을 높이는 것도 좋은 방법이 될 수 있습니다. ​ 관련해 구글 BERT((Bidirectional Encoder Representations from Transformers)를 적용해 보안 로그를 바라보는 것에 대한 업계의 관심이 커지고 있죠. 관련해 시도되고 있는 것이 cyBERT 모델입니다. 네, 이기종 보안 솔루션이 쏟아 내는 사이버 보안 로그 데이터를 매우 유연하고 강력하게 파싱하는 것에 대한 실험이 cyBERT입니다. 다음 두 표를 보면 BERT를 사이버 보안 로그 측면에서 왜 중요하게 보는지, cyBERT 모델에 대한 실험이 왜 이루어지고 있는지 대충 감이 오실 것입니다. cyBERT에 대한 더 자세한 내용은 RAPIDS 블로그 원문을 참조 바랍니다. 보안 솔루션의 경우 과거에는 원천 기술 장벽이 나름 있었는데, 인공 지능 시대로 오면서 뭔가 같은 출발선상에서 경쟁할 수 있는 기회가 주어지는 분위기가 아닌가 싶네요. #보안_로그 #유클릭 #RAPIDS #구글_BERT #cyBERT #보안_로그_인공지능 #SIEM_인공지능 #보안_솔루션

  • NVIDIA PhysX SDK 5.0 릴리즈 - 유한 요소, 유동 해석, 메시 시뮬레이션 모두 GPU 기반 가속으로 처리

    시뮬레이션의 적용 범위가 빠르게 확대되고 있습니다. 우주 항공, 자동차, 조선 등 주로 제조 분야에서 공작 기계나 구조물, 부품 등을 설계하고 기능 테스트를 위해 활용되던 시뮬레이션 기술은 이제 게임, 엔터테인먼트 등으로 응용 측면에서 외연을 넓혀가고 있습니다. 그리고 기능 측면에서 시뮬레이션은 증강 현실, 가상 현실 그리고 인공 지능으로 더욱 사실적인 조건과 환경으로 진화를 거듭하고 있습니다. 이처럼 응용과 기능 모든 부분에서 쓰임이 많아지고 있는 시뮬레이션에 대한 시장의 요구를 수용하기 위한 NVIDIA의 답이 하나 있죠. 네, 바로 오픈 소스 기반 시뮬레이션 프레임워크인 PhysX입니다. GPU 가속 기반 시뮬레이션의 시대가 온다! PhysX는 오픈 소스 기반 시뮬레이션 솔루션입니다. 주요 특징은? 네, NVIDIA가 지원하는 만큼 GPU 가속 기반 시뮬레이션에 강합니다. 인공 지능 기반 로봇, 자율 주행, 컴퓨터 비전 등의 영역에서 GPU 가속의 이점을 실용적으로 누릴 수 있도록 하기 위한 도구이자 환경이 바로 PhysX라고 보면 됩니다. 관련해 최근 PhysX 5.0이 릴리즈 되었습니다. 다음 그림은 PhysX 5.0에서 유한 요소 해석(FEM: Finite Element Modle) 기술로 구현한 장난감 시뮬레이션입니다. 더욱 쓸모가 커진 PhysX 5.0 PhysX 5.0의 주요 특징으로 먼저 FEM 지원을 꼽을 수 있습니다. FEM은 공학 분석에 사용되는 컴퓨터 시뮬레이션 기술입니다. 산업 표준 기술인 FEM은 주로 자동차와 제조 분야에서 부품이나 구조물의 강성 및 연성 테스트를 위해 광범위하게 사용됩니다. 이것이 PhysX 5.0 릴리즈에 포함됩니다. 두 번째로 유동 해석 시뮬레이션이 지원되어 유체의 흐름을 모델링 할 수 있게 되었습니다. DEM(Discrete Element Model)도 지원하여 마찰력, 접착력에 대한 평가도 가능합니다. 이외에도 SPH(Smooth Particle Hydrodyanmcis)도 지원하므로 해양 및 화산 등 특수 환경의 액체 시뮬레이션도 가능합니다. 세 번째로 메시 기반 시뮬레이션 지원입니다. 수치 시뮬레이션뿐만 아니라 메시 시뮬레이션까지 지원해 복잡한 형상과 구조의 대상에 대한 시뮬레이션까지 적용이 가능합니다. 이상으로 PhysX 5.0 릴리즈의 주요 특징을 살펴보았습니다. 더 자세한 내용은 NVIDIA 페이지를 참조 바랍니다. #NVIDIA #유클릭 #시뮬레이션 #PhysX #시뮬레이션_GPU_가속 #GPU_가속 #유한요소해석 #FEM

  • TensorRT 7 소식: 자연어 처리 관련 트레이닝 & 인퍼런싱 속도 모두 끌어올릴 수 있어 ~ 

    자연어 처리 관련 AI 서비스나 애플리케이션을 개발하는 곳에서 반길 소식이 발표되었습니다. 다름 아니라 NVIDIA의 TensorRT 7을 이용하면 자연어 처리 관련 모델 트레이닝과 인퍼런싱 파이프라인을 가속할 수 있습니다. 사람의 말을 알아듣고, 이에 대한 적절한 답이나 서비스를 제공하는 대화형 인공 지능 서비스나 애플리케이션을 사용자에게 제공하는 곳이 늘고 있습니다. 이는 분야를 가리지 않고 사람과 IT 기반 서비스가 상호 작용하는 인터페이스이스에 대화가 차지하는 비중이 점점 커지기 때문입니다. 키보드보다는 터치가, 터치보다는 말로 하는 게 더 편하기 때문이죠. 사용자의 음성을 인식하는 똑똑한 스피커를 거실에 놓고 원하는 음악도 틀어 달라고 하고, 가전 기기를 켜고 끄는 것은 많이들 익숙하실 것입니다. 요즘 신차는 음성으로 창문을 여닫거나, 에어컨을 켜고 끄는 것을 하죠. 지금은 물론 우리가 만족할만한 수준은 아닌 경우가 많지만, 매우 빠른 속도로 대화형 서비스에 대한 만족도가 높아질 전망입니다. 그 배경에는 TensorRT 7 같은 기술의 진보가 자리하고 있죠. 대화형 인공 지능 서비스를 위한 모델 트레이닝과 인퍼런싱 가속 대화형 인공 지능 서비스는 몇몇 요소가 연계되어 동작합니다. 먼저 음성 인식이 있을 것이고, 다음으로 주어진 질문 또는 과제에 대한 답을 제시하는 자연어 처리 요소가 있을 것입니다. 그리고 TTS(Text-to-Speech) 요소가 쓰입니다. 이를 파이프라인으로 그려보면 다음과 같습니다. 대화형 인공 지능 서비스의 파이프라인 가속이 왜 중요할까요? 네, 대화는 쌍방향성과 실시간성이란 특성을 갖기 때문입니다. 이에 따라 대화가 중간에 끊기거나, 답변이 지연되는 것이 민감합니다. 개발자는 관련해 엄격한 기준으로 허용 레이턴시 기준을 두죠. TensorRT 7을 이용해 가속을 하면 사람의 말을 더 잘 알아듣고, 더 똑똑하게 답을 하는 서비스 제공이 더 용이합니다. 10배 이상 빠른 성능으로 더 똑똑한 대화형 서비스 제공이 가능 최신 CUDA-X에 포함된 TensorRT 7을 이용하면 CPU 환경에서 대화형 인공 지능 서비스를 제공할 때보다 10배 빠른 모델 트레이닝과 인퍼런싱 성능을 확보할 수 있습니다. 이게 가능한 것은 TensorRT 7 환경에서 자연어 처리를 할 경우 컴파일 성능이 더 뛰어나고, 음성 관련 각종 모델 최적화가 더 쉽기 때문입니다. 이 외에도 ONNX(Open Neural Network Exchange) 지원이 강화되어, 음성 관련 모델을 다양한 환경에 더 유연하게 임포트할 수 있습니다. 이 밖에도 NVIDIA는 대화형 인공 지능 서비스 개발 생산성을 높이는 NeMo(Neural Modules) 툴킷도 제공합니다. PyTorch에 기반을 둔 이 툴킷은 대화형 인공 지능 모델 개발의 편의성을 높여 줍니다. 이상으로 간단히 대화형 인공 지능 모델 개발, 트레이닝, 인퍼런스 가속에 대해 알아보았습니다. 더 자세한 내용은 NVIDIA 페이지를 참조 바랍니다. #NVIDIA #유클릭 #CUDA_X #TensorRT #TensorRT7 #대화형_AI_서비스 #음성_인식 #자연어_처리 #NVIDIA_CUDA #ONNX

bottom of page