Chang Sun Park2018년 11월 27일1분NVIDIA의 결정! TensorRT Inference Server 오픈 소스로 공개모델을 만들고 나면 트레이닝을 거치면서 모델 최적화를 합니다. 그러고 나서 할 일은 인퍼런스(Inference) 환경을 꾸리는 것이죠. 실제 운영 환경에 모델을 배포할 때 고려해야 할 것 중 하나는 GPU 자원을 알뜰살뜰하게 잘 활용할 수 있는...