ISSUE

자율 주행 자동차와 엔비디아 (DRIVE PX2, DGX-1)

by RAPTER posted Jan 29, 2017
?

단축키

Prev이전 문서

Next다음 문서

ESC닫기

크게 작게 위로 아래로 댓글로 가기 인쇄

최근 IT 시장은 4차 산업혁명이라는 대격변이 진행되고 있다. 이러한 4차 산업혁명의 하위 카테고리로 포함되어 있는 자율 주행 자동차 분야는 자동차 산업과 관련된 모든 기업들이 참여하며 적극적인 개발을 진행하고 있을 만큼 큰 이슈가 되고 있다.  

 

자율 주행 자동차(Self-Driving Car)는 인간의 수동적인 조작이나 개입 없이 컴퓨터가 모든 것을 스스로 처리하여 자동차를 운행하는 "바퀴 달린 컴퓨터"를 의미한다. 따라서 기존까지 인간이 판단하고 조작하던 모든 정보와 제어를 컴퓨터가 처리하기 때문에 인공지능 S/W와 고성능 프로세서, 카메라, 센서, 네트워크, 실시간 클라우드 연동 등 IT 융합 기술이 적용된다. 그 중에서도 자율 주행 자동차 산업의 부상과 함께 최대 수혜 기업중 하나로 급부상하고 있는 엔비디아의 핵심 기술을 소개한다.  

 

PX2.png

 

= NVIDIA DRIVE PX2

 

엔비디아는 누구나 한번쯤 들어봤을 만한 유명 GPU "지포스(Geforce)" 제조 업체로 컨슈머용 지포스 외 프로페셔널 그래픽 타겟의 쿼드로(Quadro), HPC 시장의 테슬라(Teslra), 모바일 타겟의 테그라(Tegra) 등의 GPU를 공급하고 있다. 이러한 GPU 전문 업체인 엔비디아가 자율 주행 자동차 분야에서 급부상하고 있는 이유는 엔비디아가 자율 주행 자동차를 위해 발표한 플랫폼이 자동차 업체들에 다수 채택되고 있기 때문이다.

 

01.jpg

 

= NVIDIA Parker


먼저 엔비디아가 발표한 DRIVE PX2는 자율 주행 자동차에 직접 탑재되는 제품으로 핵심 연산 프로세서는 Tegra X1의 후계 모델인 2개의 파커(Parker) SoC(System on a Chip)가 탑재된다. 파커는 세부적으로 256 쿠다코어로 구성된 파스칼 세대 GPU, 2개의 덴버 코어 + ARM A57 4코어(HMP), 오디오 엔진, 이미지 프로세서, 이더넷, 메모리, 보안 엔진 등의 유닛으로 구성되며 TSMC 16나노 핀펫 프로세스로 제조되고 있다. 


파커에  탑재된 파스칼 GPU는 DX12, OpenGL 4.5, 쿠다 8.0, 불칸 등을 지원하고 메모리는 ECC 대응 128비트 인터페이스의 LPDDR4, 디스플레이는 4K 60프레임에 대응한다. (디코드 - H.265, VP9 up to 4K 60fps / 인코드 - H.265, VP9 up to 4K 60fps)

 

이러한 하드웨어 구성의 DRIVE PX2에 대해 엔비디아는 "초당 24조회의 딥러닝으로 애플 맥북 프로 150대"의 연산 성능이라 어필하고 있다. 자율 주행 자동차는 인공지능 (딥러닝) 알고리즘 기술을 통한 실시간 자율 주행이 핵심이기 때문에 이러한 복잡한 소프트웨어 구동을 위한 하드웨어 플랫폼으로서 DRIVE PX2가 최적의 성능을 제공할 수 있다는 것.

 

DGX.png

= NVIDIA DGX-1

 

DRIVE PX2는 성능이 뛰어나지만 자율 주행 자동차에 직접 탑재할 수 있는 클라이언트 하드웨어로서는 연산 스케일에 한계가 있기 때문에 도로 위를 주행하고 있는 자동차와 실시간으로 연동하면서 크리티컬한 딥러닝 처리를 위한 외부의 중앙 시스템이 필요하다. 그에 따라 엔비디아는 DGX-1이라는 딥러닝 전용 서버도 발표했다.

 

1대의 DGX-1은 2Way 제온 프로세서와 파스칼 아키텍처 기반 테슬라 P100 8대(NV-LINK, HBM2, 16GB 메모리), 7TB SSD, 2x 10GbE, 4x InfiniBand 100Gb 네트워크 인터페이스를 탑재한다. 1대의 연산 성능은 18.7Tflops 반정밀도, 9.3Tflops 단정밀도, 4.7Tflops의 배정밀도 성능을 갖춘다.

 

DGX-1의 소프트웨어 솔루션은 딥 뉴럴 네트워크 (DNN) 설계를 위한 NVIDIA DIGITS GPU 훈련 시스템, CuDNN, NCCL과 같은 NVIDIA 딥러닝 SDK, NVIDIA Docker, GPU 드라이버, NVIDIA CUDA 등 주요 딥러닝 프레임워크를 포함한다. 또한 구글의 TensorFlow, UC 버클리의 Caffe, 몬트리올 대학의 Theano, 뉴욕 대학의 Torch 등 다양한 딥러닝 프레임워크의 최적화된 버전을 포함하며 클라우드 관리 툴과 업데이트 및 컨테이너화된 Application 저장소로 접근 권한도 제공한다.

 

따라서 자율 주행 자동차 업체의 중앙 데이터 센터에 있는 DGX-1 서버를 자동차를 운영하는 규모에 맞춰 복수의 스케일 아웃 또는 클러스터로 구축하고 방대한 데이터(교통 상황, 날씨, 교통 사고, 환경 정보, 경로 설정 등)를 딥러닝하여 인공지능 알고리즘에 따라 도로위를 주행하고 있는 클라이언트(자동차)와 네트워크(클라우드)로 데이터를 연동하여 자율 주행 시스템을 실현할 수 있는 것으로서 인프라적으로 보면 엔비디아가 서버와 클라이언트 솔루션을 모두 공급하는 것이 된다.  

 

dd.png

= NVIDIA Self-Driving Car System 


엔비디아는 하드웨어 뿐만 아니라 자율 주행 자동차 개발자를 위한 드라이브 웍스(DriveWorks) 툴킷도 제공하고 있다. 이 툴킷은 센서 프로세싱, 센서 퓨전, 컴퓨터 비전(CV), 딥 뉴럴 네트워크(DNN), 레퍼런스 애플리케이션을 위한 API/미들웨어와 개발 툴 세트, 개발자 지원 툴 3가지로 구성된다.

 

DriveWorks 기반의 매핑 시스템은 자동차 제조업체, 디지털 지도 제작 업체 및 스타트업에서 빠르게 HD 지도를 제작하고 업데이트를 유지할 수 있도록 서포트하여 주 단위 시간이 소요되던 매핑 작업을 실시간으로 구현할 수 있다.

 

a2a.jpg

= NVIDIA DriveWorks

 

이 기술은 데이터 센터 내의 DGX-1 서버와 DRIVE PX2 클라이언트를 사용하여 자율 주행 시스템용으로 만들어진 세밀한 지도를 제작하고 업데이트하는 작업을 가속한다. 기존 지도 제작 기술은 다량의 센서를 통해 대규모 데이터를 수집하고 처리하기 위해 차내에 다량의 센서를 필요로 했으나 엔비디아 매핑 기술은 프로세싱 데이터를 차내에 탑재하고 클라우드와의 데이터 전송 과정을 최소화하여 효율성을 높이는 기술이다.

 

또한 DriveWorks 기반의 감지 시스템은 자율 주행시 도로위 다수의 자동차를 감지하고 트래킹 능력을 제공하며 위치 추적 시스템은 자율 주행 차량이 정확히 어디에 위치해 있는지를 파악한다. 따라서 감지와 위치 추적을 통한 경로 설정 기능은 수많은 변동 상황(트래픽)이 발생하는 위치에서 정교한 알고리즘을 통해 여유 공간을 계산하고 변화될 환경에 대해서도 예측할 수 있기 때문에 자율 주행 자동차에게 최적의 경로를 설정할 수 있다.

 

= NVIDIA Self-Driving Car DEMO

 

엔비디아는 CES2017에서 자사의 자율 주행 플랫폼이 적용된 자동차가 주행하는 모습을 공개했다. 영상으로도 확인할 수 있듯이 앞서 설명한 엔비디아의 플랫폼이 모두 적용되어 자율 주행이 실현되고 있는 것을 확인할 수 있고 현재 엔비디아의 플랫폼은 테슬라, 아우디, 벤츠 등 글로벌 대표 자동차 브랜드에 채택되면서 자율 주행 플랫폼 시장에서 사실상의 업계 리더로 평가할 수 있다.

 

엔비디아는 기존의 전통적인 PC GPU 시장 외 GPU를 이용한 가속기(GPGPU)로 확대되고 있는 서버/HPC/슈퍼 컴퓨터 시장, 가상현실 시장, 4차 산업혁명의 핵심인 인공지능 분야의 베이스 하드웨어로 각광 받으면서 매우 강력한 비지니스 포트폴리오를 갖추기 시작했다. 이것을 증명하듯 지난해 1월 30달러에 불과했던 엔비디아의 주가는 최근 110달러를 돌파하며 3배 이상 급등하면서 제 2의 전성기가 시작되고 있다.






Articles

1 2