ENG

HOME | login

인몰드 3D 라벨 PET용기 블로우 성형기
Injection Stretch Blow Machine

인증/수상내역

인증내역

인증내역

엔비디아, 차세대 AI 칩 ‘루빈’ 공개···“2026년 출시”

페이지 정보

작성자 행복한 작성일24-06-05 10:20 조회138회 댓글0건

본문

엔비디아가 차세대 인공지능 그래픽처리장치(GPU) ‘루빈’을 최초 공개했다.
젠슨 황 엔비디아 최고경영자(CEO)는 2일(현지시간) 국립대만대학교 체육관에서 AI와 산업 혁명에 대한 연설을 하면서 오는 2026년부터 ‘루빈’을 양산할 예정이라고 밝혔다.
루빈은 최근 인공지능(AI) 업계에서 가장 각광받는 엔비디아 ‘호퍼’ 아키텍처와 현재 양산 중인 ‘블랙웰’ 아키텍처에 이은 후속 아키텍처다. GPU는 데이터를 한 번에 대량으로 처리하는 병렬 방식의 반도체다. 원래는 게임 그래픽 구현에 쓰이다가 현재는 막대한 연산이 필요한 AI 분야에서 주로 쓰인다.
루빈은 우주 암흑물질과 은하 회전속도를 연구한 미국 천문학자 베라 루빈의 이름을 따 왔다. 엔비디아는 곧 자체 중앙처리장치(CPU)인 ‘베라’도 출시할 예정이다.
황 CEO는 이날 우리는 계산(컴퓨팅) 인플레이션을 목격하고 있다며 처리해야 하는 데이터의 양이 기하급수적으로 증가하면서 기존 컴퓨팅 방식으로는 따라잡을 수 없다. 엔비디아의 가속화된 컴퓨팅 스타일을 통해서만 비용을 절감할 수 있다고 말했다. 그는 엔비디아의 기술로 98%의 비용 절감과 97%의 에너지 절감을 할 수 있다고 했다.
GPU 아키텍처는 계산 단위와 메모리 등을 효율적으로 배치한 일종의 설계도다. 지금까지 엔비디아는 2년 주기로 새로운 아키텍처를 도입해왔다. 2020년에는 ‘암페어’ 기반의 A100을, 2022년에는 호퍼 기반의 H100을 출시했다. H100은 AI 인프라를 투자하는 글로벌 빅테크들이 AI 가속기 용도로 가장 애용하는 GPU다. 지난 3월에는 블랙웰 기반 B100이 공개됐다. B100은 2080억개의 트랜지스터로 구성돼 기존 H100(800억개)보다 데이터 연산 속도가 2.5배 빨라졌다. B100는 오는 3분기 양산에 들어가 연말 출하가 시작될 예정이다.
이대로라면 엔비디아는 전작이 양산에 들어가기도 전에 신모델을 출시한 셈이다. 황 CEO는 신제품 출시 주기를 기존의 2년에서 1년으로 단축한다고 밝혔다.
황 CEO는 루빈 아키텍처의 상세 제원에 대해서는 말을 아꼈다. 다만 루빈 GPU와 함께 탑재되는 메모리는 6세대 고대역폭메모리(HBM)인 ‘HBM4’를 사용할 것이라고 설명했다.
HBM은 D램 여러 개를 쌓아 데이터 전송속도를 끌어올린 제품이다. AI 반도체는 엄청나게 빠른 연산을 담당하는 GPU와 대용량·초고속 데이터 저장·전송을 담당하는 HBM을 한 세트로 묶은 제품을 가리킨다.
현재 엔비디아 B100에는 5세대 HBM3E 메모리가, H100에는 4세대 HBM3가 탑재된다. 메모리 업계에서는 SK하이닉스가 거의 독점적으로 HBM을 엔비디아에 공급하고 있다.
엔비디아가 이날 루빈 플랫폼 양산 일정을 제시하면서, 반도체 업계의 HBM4 납품 경쟁도 본격화될 것으로 보인다. SK하이닉스는 HBM4 12단 양산을 당초 2026년을 목표로 했으나 이를 내년 하반기로 앞당겼다. 인스타 팔로워 주요 고객사인 엔비디아의 루빈 출시 계획을 반영해 수정한 것으로 보인다.
삼성전자도 내년 고객사(엔비디아)에 샘플 제공, 2026년 양산을 목표로 HBM4를 개발하고 있다. 특히 삼성전자는 아직도 엔비디아와 HBM3와 HBM3E 납품 계약을 맺지 못한 상태다. 차세대 모델인 HBM4에서 주도권을 가져오겠다는 목표다.
엔비디아는 2027년에는 ‘루빈 울트라’를 선보일 계획이다. 칩당 8개의 HBM4를 싣는 루빈과 달리 루빈 울트라는 HBM4 12개를 탑재한다. 이는 HBM 수요 증가로 이어질 가능성이 크다. 4나노미터 공정에서 양산하는 블랙웰과 달리 루빈은 3나노 공정을 사용한다.