챗GPT(ChatGPT)는 시작에 불과합니다.
NVIDIA의 창립자 겸 CEO 젠슨 황은 컴퓨팅이 ‘빛의 속도’로 발전하는 시대에 맞춰, 모든 산업에 새로운 인공지능(AI), 시뮬레이션, 협업 기능을 제공하기 위해 구글(Google), 마이크로소프트(Microsoft), 오라클(Oracle) 등 다양한 선도기업들과 광범위한 파트너십을 체결했다고 발표했습니다.
젠슨 황은 GTC 키노트에서 “워프 드라이브 엔진은 가속 컴퓨팅이고 에너지원은 AI”라며 “생성형 AI의 놀라운 기능을 본 기업들은 제품과 비즈니스 모델을 재창조해야 한다는 위기감을 느꼈을 것”이라고 말했습니다.
GTC 2023을 종합하는 78분 길이의 키노트에서 젠슨 황은 NVIDIA와 파트너들이 어떻게 최첨단 AI 서비스를 위한 훈련에서 배포에 이르기까지 모든 것을 제공하고 있는지 설명하고, 새로운 혁신을 가능하게 하는 새로운 반도체와 소프트웨어 라이브러리를 발표했습니다. 또한 젠슨 황은 이러한 혁신을 전 세계적으로 적용하기 위해 노력하는 스타트업과 기업들을 위한 시스템과 서비스 세트를 공개했습니다.
젠슨 황은 이 생태계를 잘 보여주는 생생한 사례도 함께 소개했는데요. 바로 NVIDIA와 마이크로소프트가 수억 명의 마이크로소프트 365, 애저(Azure) 사용자를 초현실적인 가상 세계를 구축하고 운영할 수 있는 플랫폼에 연결할 것이라고 발표한 것입니다. 아울러 아마존(Amazon)이 정교한 시뮬레이션 기능을 사용하여 새로운 자율주행 창고 로봇을 훈련하는 방법도 소개하고, 챗GPT와 같은 차세대 생성형 AI 서비스의 선풍적인 인기에 대해서도 언급했습니다.
또한 젠슨 황은 NVIDIA 혁신의 기본 특성을 강조하면서, ASML, TSMC, 시놉시스(Synopsis)와 함께 NVIDIA 컴퓨팅 리소그래피(lithography) 혁신이 어떻게 효율적이고 강력한 차세대 2nm 반도체를 실현시키는지 자세히 설명했습니다.
젠슨 황은 무어의 법칙(Moore’s Law)이 둔화되고 산업이 강력한 변화(지속 가능성, 생성형 AI, 디지털화)를 겪는 시점에서 가속 컴퓨팅과 AI가 때맞춰 출현했다고 말했습니다. 이어 “기업들은 디지털화하고 소프트웨어 중심의 기술 기업으로 재탄생하기 위해 노력하고 있다”고 덧붙였죠.
가속화는 이러한 과제에 대한 해결책이 될 수 있습니다. 젠슨 황은 “가속은 힘을 되찾고 지속 가능성과 탄소제로를 달성하는 가장 좋은 방법”이라고 강조했습니다.
프리미어 AI 컨퍼런스 ‘GTC’
올해로 14년째를 맞는 GTC는 이제 세계에서 가장 중요한 AI 콘퍼런스 중 하나가 됐습니다. 컨퍼런스에서는 딥마인드(DeepMind)의 데미스 하사비스(Demis Hassabis), 아르곤 랩스(Argonne Labs)의 발레리 테일러(Valeri Taylor), 어도비(Adobe)의 스콧 벨스키(Scott Belsky), 넷플릭스(Netflix)의 폴 데베벡(Paul Debevec), 취리히 연방 공과대학(ETH Zurich)의 토마스 슐테스(Thomas Schulthess)와 같은 업계 리더의 650개 강연은 물론, 챗GPT를 개발한 오픈AI(OpenAI)의 공동 창립자 일리야 수츠케버(Ilya Sutskever)와 젠슨 황이 나누는 특별 노변담화가 진행됐죠.
250,000명 이상의 사전 등록 참석자는 2,000년 전 잃어버린 로마 모자이크 복원부터 미래의 공장 건설, 거대한 차세대 망원경으로 우주 탐험, 신약 개발 가속화를 위한 분자 재배열, 생성형 AI에 대한 70개 이상의 강연에 이르기까지 모든 것을 총망라한 세션들을 탐구했습니다.
AI의 아이폰 모먼트
NVIDIA의 기술은 AI의 근간입니다. 젠슨 황은 생성형 AI 혁명의 초기에 NVIDIA가 한 역할에 대해 설명했죠. 2016년에 그는 최초의 NVIDIA DGX AI 슈퍼컴퓨터를 오픈AI에 직접 전달했고, 이는 챗GPT를 가능하게 한 대규모 언어 모델(LLM) 혁신의 엔진이라고 할 수 있습니다.
작년 말에 출시된 챗GPT는 1억 명 이상의 사용자를 끌어들이며 거의 순식간에 주류가 됐고, 역사상 가장 빠르게 성장한 애플리케이션이 됐습니다. 젠슨 황은 “우리는 AI가 아이폰과 같은 혁신을 선사하는 순간에 있는 것”이라고 표현했습니다.
젠슨 황에 따르면, 원래 AI 연구에 사용됐던 NVIDIA DGX 슈퍼컴퓨터는 이제 데이터를 정제하고 AI를 프로세싱하기 위해 전 세계 기업에서 24시간 실행되고 있습니다. 포춘(Fortune) 100대 기업 중 절반이 DGX AI 슈퍼컴퓨터를 설치했죠.
젠슨 황은 “DGX 슈퍼컴퓨터는 최신 AI 공장”이라고 말했습니다.
데이터센터용 NVIDIA H100, Grace Hopper, Grace
젠슨 황은 챗GPT와 같은 LLM 배포는 중대한 새로운 추론 워크로드라고 밝혔습니다. 챗GPT와 같은 LLM 추론을 위해 NVIDIA는 듀얼 GPU NVLink를 탑재한 H100 NVL이라는 새로운 GPU를 발표했죠.
NVIDIA Hopper 아키텍처를 기반으로 하는 H100은 챗GPT를 지원하는 GPT 모델과 같은 모델을 프로세싱하도록 설계된 트랜스포머 엔진(Transformer Engine)을 갖추고 있습니다. GPT-3 프로세싱을 위한 HGX A100과 비교할 때, 듀얼 GPU NVLink를 가진 4쌍의 H100으로 구성된 표준 서버는 최대 10배 더 빠릅니다.
젠슨 황은 “H100을 사용하면 LLM 프로세싱 비용을 대폭 줄일 수 있습니다”고 말했죠.
한편, 젠슨 황은 지난 10년 동안 클라우드 컴퓨팅이 연간 20%씩 성장하여 1조 달러 규모의 산업이 되었다고 말했습니다. NVIDIA는 AI 워크로드가 GPU로 가속화되는 AI와 클라우드 퍼스트 세계를 위해 Grace CPU를 설계했는데요. Grace는 현재 샘플링 중입니다.
NVIDIA의 새로운 슈퍼칩인 Grace Hopper는 Grace CPU와 Hopper GPU를 초당 고속 900GB의 일관된 칩 간 인터페이스를 통해 연결합니다. 젠슨 황은 Grace Hopper가 추천 시스템과 LLM을 위한 AI 데이터베이스와 같은 거대한 데이터세트를 프로세싱하는 데 이상적이라고 설명했습니다.
젠슨 황은 “고객은 수십 배 더 큰 AI 데이터베이스를 구축하기를 원한다”며 “Grace Hopper가 이상적인 엔진”이라고 말했습니다.
AI 인프라를 위한 청사진 ‘DGX’
최신 버전 DGX는 8개의 NVIDIA H100 GPU가 함께 연결되어 하나의 거대한 GPU로 작동합니다. 젠슨 황은 “NVIDIA DGX H100은 전 세계적으로 AI 인프라를 구축하는 고객을 위한 청사진”이라고 말했죠.
H100 AI 슈퍼컴퓨터는 이미 가동되고 있습니다. 오라클 클라우드 인프라(Oracle Cloud Infrastructure)는 H100 GPU를 탑재한 새로운 OCI 컴퓨트 베어메탈 GPU 인스턴스를 제한적으로 제공한다고 발표했죠.
또한 아마존웹서비스(AWS)는 최대 20,000개의 상호 연결된 H100 GPU까지 크기를 확장할 수 있는 P5 인스턴스의 EC2 울트라클러스터(UltraClusters)를 발표했습니다.
이는 지난 주 마이크로소프트 애저의 H100 가상 머신인 ND H100 v5의 비공개 프리뷰 발표에 이은 것입니다.
메타(Meta)는 최근 AI 프로덕션과 연구 팀을 위해 내부적으로 H100 기반 그랜드 테톤(Grand Teton) AI 슈퍼컴퓨터를 배포했습니다.
오픈AI는 지속적인 AI 연구를 지원하기 위해 애저의 슈퍼컴퓨터에서 H100을 사용할 예정입니다. 시라스케일(Cirrascale)과 코어위브(CoreWeave)가 H100을 제공할 파트너로 공개됐으며, 이외에 H100을 제공할 예정인 파트너로 구글 클라우드, 람다(Lambda), 페이퍼스페이스(Paperspace), 벌처(Vultr)가 있습니다.
NVIDIA H100 GPU를 탑재한 서버와 시스템은 아토스(Atos), 시스코(Cisco), 델 테크놀로지스(Dell Technologies), 기가바이트(GIGABYTE), 휴렛 팩커드 엔터프라이즈(HPE), 레노버(Lenovo), 슈퍼마이크로(Supermicro) 등 주요 서버 제조업체에서 구입할 수 있습니다.
AI를 모든 기업에 즉각적으로 제공하는 ‘DGX Cloud’
신제품 구축과 AI 전략 개발에 매진하는 스타트업과 기업들의 DGX 기능을 가속화하기 위해, 젠슨 황은 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라와의 파트너십을 통해 NVIDIA DGX Cloud를 발표했습니다. 이로써 NVIDIA DGX AI 슈퍼컴퓨터를 “브라우저를 통해 모든 회사에” 제공할 수 있게 됐죠.
DGX Cloud는 엔드 투 엔드 AI 개발, 배포를 위한 세계 최고의 가속 소프트웨어 제품군인 NVIDIA AI Enterprise 실행에 최적화되어 있습니다. 젠슨 황은 “DGX Cloud를 통해 고객은 최고의 NVIDIA AI와 세계 최고의 클라우드 서비스 제공업체를 이용할 수 있다”고 말했습니다.
NVIDIA는 오라클 클라우드 인프라를 시작으로 DGX Cloud 인프라를 호스팅하기 위해 선도적인 클라우드 서비스 제공업체와 협력하고 있는데요. 마이크로소프트 애저는 다음 분기에 DGX Cloud 호스팅을 시작할 예정이며, 서비스는 곧 구글 클라우드 등으로 확장될 예정입니다.
젠슨 황은 이 파트너십이 NVIDIA의 생태계를 클라우드 서비스 제공업체에 제공하는 동시에 NVIDIA의 규모와 범위를 확대할 것이라고 말했습니다. 기업은 DGX Cloud 클러스터를 월 단위로 임대할 수 있으므로, 대규모 멀티 노드 훈련 워크로드의 개발을 빠르고 쉽게 확장할 수 있습니다.
생성형 AI 가속화
생성형 AI 활용을 가속화하기 위해, 젠슨 황은 자체 데이터와 도메인 별 작업을 위해 훈련된 생성형 AI와 맞춤형 LLM을 구축, 개선, 운영해야 하는 고객을 위한 클라우드 서비스 제품군인 NVIDIA AI Foundations을 발표했습니다.
AI Foundations 서비스에는 텍스트 투 텍스트 맞춤형 언어 생성 모델 구축을 위한 NVIDIA NeMo, 라이선스 또는 자체 콘텐츠로 훈련된 맞춤 모델을 구축하려는 고객을 위한 시각적 언어 모델 구축 서비스인 Picasso, 2조 달러 규모의 신약개발 산업의 연구를 지원하는 BioNeMo가 포함됩니다.
어도비(Adobe)는 창의성의 미래를 위한 차세대 AI 기능 세트를 구축하기 위해 NVIDIA와 협력하고 있습니다.
게티이미지(Getty Images)는 텍스트에서 이미지(TTI), 텍스트에서 비디오(TTV)를 생성하는 책임 있는 기초 모델을 훈련하기 위해 NVIDIA와 협력하고 있죠.
또한 셔터스톡(Shutterstock)은 NVIDIA와의 협업을 통해 텍스트를 3D로 생성하는 기초 모델을 훈련하여 상세한 3D 자산 생성을 단순화합니다.
의료 발전 가속화
NVIDIA는 또한 암젠(Amgen)이 BioNeMo를 사용해 신약 개발 서비스를 가속화한다고 발표했습니다. 알키맵 테라퓨틱스(Alchemab Therapeutics), 아스트라제네카(AstraZeneca), 에보자인(Evozyne), 이노포어(Innophore), 인실리코(Insilico)도 모두 BioNeMo의 얼리 액세스를 사용하는 기업입니다.
젠슨 황의 설명에 따르면, BioNeMo는 연구원들이 자체 데이터로 맞춤형 모델을 구축하고 미세 조정, 서비스하는 데 도움이 됩니다.
젠슨 황은 또한 NVIDIA와 세계 최대의 의료 기술 업체인 메드트로닉(Medtronic)이 소프트웨어 정의 의료기기용 AI 플랫폼을 구축하기 위해 협력하고 있다고 발표했습니다. 이 파트너십을 통해 수술 내비게이션에서 로봇 보조 수술에 이르는 메드트로닉 시스템을 위한 공통 플랫폼을 구축할 계획이죠.
그리고 메드트로닉은 결장암 조기 발견을 위한 AI를 포함한 자사의 GI 지니어스(GI Genius) 시스템을 실시간 센서 프로세싱 시스템을 위한 소프트웨어 라이브러리인 NVIDIA Holoscan을 기반으로 구축했으며, 이는 올해 말쯤 출하될 것이라고 발표했습니다.
젠슨 황은 “2,500억 달러 규모의 세계 의료기기 시장이 변화하고 있다”고 말했습니다.
생성형 AI 애플리케이션의 신속한 배포
기업들이 빠르게 떠오르는 생성형 AI 모델을 배포할 수 있도록, NVIDIA는 AI 비디오, 이미지 생성, LLM 배포 및 추천자 추론을 위한 추론 플랫폼을 발표했습니다. 이를 통해 NVIDIA의 전체 추론 소프트웨어 스택을 최신 NVIDIA NVIDIA Ada, Hopper, Grace Hopper 프로세서(오늘 출시된 NVIDIA L4 Tensor Core GPU 및 NVIDIA H100 NVL GPU 포함)와 결합합니다.
- AI 비디오용 NVIDIA L4는 CPU보다 120배 더 높은 AI 기반 비디오 성능과 99% 향상된 에너지 효율성을 제공합니다.
- 이미지 생성용 NVIDIA L40은 그래픽, AI 기반 2D, 비디오 및 3D 이미지 생성에 최적화되어 있습니다.
- LLM 배포를 위한 NVIDIA H100 NVL은 챗GPT와 같은 대규모 LLM을 대규모로 배포하는 데 이상적입니다.
- 추천 모델용 NVIDIA Grace Hopper는 그래프 추천 모델, 벡터 데이터베이스, 그래프 신경망에 이상적입니다.
구글 클라우드는 비공개 프리뷰로 제공되는 새로운 G2 가상 머신을 출시하여 클라우드 서비스 제공업체 중 처음으로 고객에게 L4를 제공합니다. 구글은 또한 L4를 버텍스 AI(Vertex AI) 모델 저장소에 통합하고 있죠.
NVIDIA와 마이크로소프트, Omniverse를 ‘수억 명’에게 제공하다
기업에 전례 없는 시뮬레이션 및 협업 기능을 제공하는 두 번째 클라우드 서비스를 공개하는 자리에서, 젠슨 황은 NVIDIA가 마이크로소프트와 협력하여 완전 관리형 클라우드 서비스인 NVIDIA Omniverse Cloud를 전 세계 산업에 제공한다고 발표했습니다.
젠슨 황은 “마이크로소프트와 NVIDIA는 Omniverse를 수억 명의 마이크로소프트 365와 애저 사용자에게 제공할 것”이라고 말하며, NVIDIA Omniverse에 최적화된 NVIDIA RTX Ada Generation GPU 및 최신 인텔(Intel) CPU로 구동되는 새로운 NVIDIA OVX 서버와 차세대 워크스테이션을 공개했습니다.
젠슨 황은 Omniverse의 뛰어난 기능을 보여주기 위해, Omniverse에 구축된 NVIDIA의 로봇 시뮬레이션 및 합성 생성 플랫폼인 NVIDIA Isaac Sim으로 아마존이 어떻게 고충실도 디지털 트윈을 통해 시간과 비용을 절약할 수 있는지 보여주는 영상을 공유했는데요. NVIDIA Omniverse는 3D 설계 협업 및 디지털 트윈 시뮬레이션을 위해 구축된 NVIDIA의 개방형 플랫폼입니다.
이 영상은 아마존 최초의 완전 자율주행 창고 로봇인 프로테우스(Proteus)가 인간과 다른 로봇과 함께 아마존의 대형 창고에서 제품 카트를 한 구역에서 다른 구역으로 운반하는 작업을 어떻게 수행하고 있는지 보여줍니다.
3조 달러 규모의 자동차 산업 디지털화
Omniverse의 범위와 기능의 규모를 설명하면서, 젠슨 황은 3조 달러 규모의 자동차 산업의 디지털화에서 Omniverse의 역할을 설명했습니다. 젠슨 황은 2030년까지 자동차 제조업계는 2억 대의 전기차를 만들기 위해 300개의 공장을 건설할 것이며, 배터리 제조업계는 100개의 메가팩토리를 추가로 건설할 것이라고 예측했죠. 이어 “디지털화는 업계의 효율성, 생산성, 속도를 향상시킬 것”이라고 덧붙였습니다.
젠슨 황은 업계 전반에 걸친 Omniverse 도입을 언급하면서, 로터스(Lotus)가 용접 스테이션을 가상으로 조립하기 위해 Omniverse를 사용하고 있다고 말했습니다. 메르세데스-벤츠(Mercedes-Benz)는 Omniverse를 사용하여 새 모델의 조립 라인을 구축, 최적화, 계획한다. 리막(Rimac)과 루시드 모터스(Lucid Motors)는 Omniverse를 사용하여 자동차를 충실히 나타내는 실제 디자인 데이터로 디지털 스토어를 구축합니다.
BMW는 아이디얼웍스(Idealworks)와 함께 Omniverse의 Isaac Sim을 사용해 합성 데이터와 시나리오를 생성하여 공장 로봇을 훈련합니다. 젠슨 황은 또한 BMW가 Omniverse를 사용하여 전 세계 공장 운영을 계획하고, 2년 후 준공될 새로운 전기 자동차 공장을 Omniverse에 완전히 구현하고 있다고 말했습니다.
이와 별도로, NVIDIA는 세계 최대의 신에너지 자동차(NEV) 제조업체인 BYD가 NVIDIA DRIVE Orin 중앙 집중식 컴퓨팅 플랫폼의 사용을 NEV의 더 넓은 범위로 확장할 것이라고 발표했습니다.
반도체 혁신 가속화
생산 프로세스가 물리학의 한계에 근접한 지금, NVIDIA는 가속 컴퓨팅을 컴퓨팅 리소그래피 분야로 가져오는 혁신인 NVIDIA cuLitho를 발표했습니다. ASML, TSMC, 시놉시스 등의 반도체 선도기업들이 차세대 칩의 설계와 제조를 가속화할 수 있도록 돕기 위해서인데요.
세계 최고의 파운드리 업체인 TSMC와 전자설계자동화 선도업체인 시놉시스가 컴퓨팅 리소그래피를 위한 새로운 NVIDIA cuLitho 소프트웨어 라이브러리를 최신 NVIDIA Hopper 아키텍처 GPU용 소프트웨어, 제조 프로세스, 시스템에 통합하고 있습니다.
반도체 장비업체 ASML은 GPU와 cuLitho에 대해 NVIDIA와 긴밀하게 협력하고 있으며, GPU에 대한 지원을 모든 컴퓨터 리소그래피 소프트웨어 제품에 통합할 계획이니다. 젠슨 황은 리소그래피가 물리학의 한계에 도달한 상황에서, NVIDIA의 cuLitho 도입은 반도체 업계가 2nm 이상으로 나아갈 수 있게 할 것이라고 말했습니다.
젠슨 황은 “반도체 산업은 거의 모든 산업의 기초”라고 강조했습니다.
세계 최대 기업 지원
전 세계 기업들이 젠슨 황의 비전에 동참하고 있습니다.
통신 대기업 AT&T는 NVIDIA AI를 사용하여 데이터를 보다 효율적으로 처리하고 Omniverse ACE와 Tokkio AI 아바타 워크플로우를 테스트하여 고객 서비스와 직원 헬프 데스크를 위한 가상 비서를 구축, 맞춤화하며 배포합니다.
아메리칸 익스프레스(American Express), 미국우정공사(US Postal Service), 마이크로소프트 오피스(Office)와 팀즈(Teams), 아마존은 고성능 NVIDIA TensorRT 추론 옵티마이저와 런타임, 멀티 프레임워크 데이터센터 추론 제공 소프트웨어인 NVIDIA Triton을 사용하는 40,000명의 고객 중 일부입니다.
우버(Uber)는 트리톤을 사용하여 초당 수십만 개의 도착예정시간(ETA) 예측을 제공합니다.
그리고 일일 사용자가 6천만 명이 넘는 로블록스(Roblox)는 트리톤을 사용하여 게임 추천을 위한 모델을 제공하고, 아바타를 제작하며 콘텐츠와 마켓플레이스 광고를 중개합니다.
마이크로소프트, 텐센트(Tencent), 바이두(Baidu)는 모두 AI 컴퓨터 비전을 위해 NVIDIA CV-CUDA를 사용하고 있습니다. 현재 공개 베타 버전의 이 기술은 전처리, 후처리를 최적화하여 비용과 에너지를 4배 절약합니다.
불가능을 가능으로
젠슨 황은 발표를 마무리하며, NVIDIA의 시스템, 클라우드, 소프트웨어 파트너들과 연구원, 과학자, 직원들에게 감사를 표했습니다.
젠슨 황은 NVIDIA가 cuQuantum과 양자 컴퓨팅을 위한 새로운 오픈소스 CUDA Quantum, 조합 최적화를 위한 cuOpt, 컴퓨팅 리소그래피를 위한 cuLitho를 포함하여 100개의 가속 라이브러리를 업데이트했다고 발표했습니다.
젠슨 황은 NVIDIA의 글로벌 생태계가 현재 400만 명의 개발자, 40,000개의 기업 및 NVIDIA 인셉션(Inception) 회원인 14,000개의 스타트업에 이른다며, “우리는 함께 불가능을 가능으로 만드는 세상을 만들고 있다”고 말했습니다.
출처 - 엔비디아