https://www.youtube.com/live/pKXDVsWZmUU
주요 내용
- NVIDIA의 최신 기술 발표
- 블랙웰 아키텍처 및 제품 라인업 소개
- 제너러티브 AI와 로보틱스의 혁신
- 디지털 트윈 및 AI 공장 기술
상세 내용
블랙웰 아키텍처 및 제품 라인업
블랙웰 아키텍처
- 세계 최대 칩: TSMC에서 제조된 최대 크기의 칩 두 개를 연결.
- 10테라바이트/초 링크: 두 칩을 연결하는 세계에서 가장 진보된 연결 기술.
블랙웰 컴퓨터
- 100배 성능 증가: 100배 속도 향상, 전력 소비는 3배 증가.
- DGX 블랙웰 시스템: 8개의 GPU 탑재, 완전 공랭식 시스템.
- MGX 모듈러 시스템: 4개의 블랙웰 칩을 탑재한 액체 냉각 시스템.
제너러티브 AI 혁신
제너러티브 AI 시대
- AI 팩토리: 새로운 산업 혁명을 이끌 AI 생성 공장.
- 토큰 생성: AI가 텍스트, 이미지, 비디오, 데이터 등을 생성하는 능력.
AI 모델의 물리 기반 학습
- 강화 학습: 시뮬레이션을 통한 로봇의 학습 환경 제공.
- 시뮬레이션 데이터: Omniverse를 통해 생성된 물리 기반 데이터 사용.
AI 성능 최적화
- 연산 비용 절감: 100배 성능 증가로 연산 비용 96% 절감.
- 에너지 효율성: 블랙웰을 통해 에너지 사용량 350배 감소.
로보틱스 기술
로보틱 팩토리 플랫폼
- Omniverse 학습: 가상 환경에서 로봇 학습.
- 로보틱 팔 및 AMR: Isaac Sim과 Isaac Perceptor를 통한 통합 학습.
파트너십
- Foxconn: AI와 Omniverse를 이용한 로봇 공장 설계.
- Siemens: 세계적인 산업 자동화 소프트웨어와의 통합.
디지털 트윈 및 AI 공장
Foxconn 디지털 트윈
- Omniverse와 AI: 가상 통합을 통한 최적의 설비 배치와 카메라 위치 설정.
- 로봇 짐: 가상 환경에서의 로봇 학습 및 테스트.
타이완 기업의 디지털 트윈
- 델타: 디지털 트윈 기술을 사용한 공장 설계.
- 페가트론: Omniverse를 통한 공장 시뮬레이션.
- 위스트론: 로봇 공장 설계에 디지털 트윈 기술 적용.
미래 계획
물리 기반 AI
- 로보틱스 통합: 물리 법칙을 이해하는 AI의 개발.
- 로봇 공장: AI가 실제 환경에서 작업할 수 있도록 훈련.
AI 확산
- 고성능 AI 팩토리: 전 세계적으로 AI 공장과 데이터 센터 확산.
- 산업 혁명: 다양한 산업에 걸쳐 AI 적용.
특별 이벤트
젠슨 황의 발표
- 컴퓨텍스 키노트: NVIDIA CEO 젠슨 황의 발표.
- 디지털 인간과 로봇 시연: 차세대 인터랙티브 기술 소개.
- 특별 비디오: 새로운 기술과 비전을 담은 비디오 상영.
로보틱스 시연
- 로봇 등장: AI와 통합된 로봇의 실제 시연.
- 타이완의 역할: 타이완 기업들의 첨단 기술 적용 사례.
블랙웰 울트라
기술 사양
프로세서 아키텍처
- 칩 크기: 최대 크기의 TSMC 제조 칩 2개 연결.
- 연결 속도: 10테라바이트/초 링크.
GPU 사양
- 코어 수: 18,000개 이상의 CUDA 코어.
- 텐서 코어: 2,304개의 텐서 코어.
- RT 코어: 576개의 RT 코어.
메모리
- 메모리 용량: 최대 128GB HBM3 메모리.
- 메모리 대역폭: 4TB/초 이상.
데이터 처리 및 압축
- 데이터 압축/해제 엔진: 20배 빠른 데이터 처리 속도.
- 보안 기능: AI 모델 보호를 위한 강화된 보안 기능.
에너지 효율성
- 전력 소비: 15kW (공랭식 시스템 기준).
- 성능 대비 전력 효율성: 기존 대비 3배 향상된 전력 효율성.
네트워킹
- NVLink 5세대: 72개의 GPU를 연결하는 NVLink 스위치.
- 스위치 대역폭: 7.2테라바이트/초.
컴퓨팅 성능
- AI 연산 성능: 1,000 테라플롭스 이상.
- FP64 성능: 125 테라플롭스 이상.
활용 분야
- 대규모 AI 모델 훈련 및 추론
- 과학적 연구 및 고성능 컴퓨팅
- 클라우드 컴퓨팅 인프라
루빈 플랫폼
기술 사양
프로세서 아키텍처
- 최신 반도체 기술: TSMC 3nm 공정 사용.
- 코어 수: 20,000개 이상의 CUDA 코어.
- 텐서 코어: 3,000개의 텐서 코어.
멀티모달 AI 지원
- AI 모델 학습 및 추론 최적화: 음성, 이미지, 텍스트 등 다양한 데이터 처리 지원.
메모리
- 메모리 용량: 최대 160GB HBM4 메모리.
- 메모리 대역폭: 5TB/초 이상.
데이터 처리 및 압축
- 데이터 압축/해제 엔진: 30배 빠른 데이터 처리 속도.
- 보안 기능: AI 모델 보호를 위한 강화된 보안 기능.
에너지 효율성
- 전력 소비: 10kW (공랭식 시스템 기준).
- 성능 대비 전력 효율성: 기존 대비 4배 향상된 전력 효율성.
네트워킹
- NVLink 6세대: 144개의 GPU를 연결하는 NVLink 스위치.
- 스위치 대역폭: 14.4테라바이트/초.
컴퓨팅 성능
- AI 연산 성능: 2,000 테라플롭스 이상.
- FP64 성능: 250 테라플롭스 이상.
활용 분야
- AI 연구: 고급 AI 모델의 개발과 훈련을 위한 최적의 환경 제공.
- 산업 자동화: 로보틱스, 자율 주행, 제조업 등에서의 활용.
- 헬스케어: 의료 영상 분석, 유전자 데이터 처리 등 의료 분야에서의 혁신 지원.
결론
- NVIDIA는 AI와 로보틱스 분야에서 혁신을 주도하고 있으며, 최신 기술을 통해 다양한 산업에 큰 변화를 예고하고 있음.
- 제너러티브 AI와 디지털 트윈 기술은 산업 전반에 걸쳐 새로운 가능성을 열어가고 있음.
- 블랙웰 울트라와 루빈 플랫폼은 NVIDIA의 최첨단 기술을 집약한 제품으로, 각각의 뛰어난 성능과 확장성을 통해 다양한 산업 분야에서 혁신적인 변화를 이끌어낼것임.
- 이러한 고성능 컴퓨팅 플랫폼은 대규모 데이터 처리와 AI 모델 학습 및 추론에서 중요한 역할을 할 것으로 기대되며, NVIDIA의 지속적인 기술 발전은 AI와 데이터 처리의 새로운 가능성을 열어갈 것으로 기대됨.