현재 위치:홈페이지 > 초점

"'괴물 AI칩' 들고 돌아온 엔비디아에"…삼성·SK, HBM 수혜 기대감 '껑충'

새로운 아키텍처 '블랙웰' GPU 기반 'B100' 공개…'H100' 대비 연산 속도 2.5배 ↑
삼성, '12단 HBM3E' 실물 공개·SK, 세계 최초 대량 양산 성공 발표…"신경전 격화"
전 세계 인공지능(AI) 칩 시장을 주도하고 있는 엔비디아가 차세대 그래픽처리장치(GPU) 신제품을 대거 공개한 가운데 업계에선 고대역폭메모리(HBM) 분야에서 기술 경쟁력을 확보한 국내 반도체 업체들이 수혜를 볼 것이라는 기대감이 커지고 있다.

특히 AI 열풍으로 올해 HBM 생산량이 2배 이상 늘어날 것이라는 전망도 제기되고 있어 이를 둘러싼 메모리업체간 경쟁도 치열해질 것으로 예측된다.

젠슨 황 엔비디아 최고경영책임자자(CEO)가 18일(현지시각) 미국 캘리포니아 새너제이에서 개막한 엔비디아 개발자 콘퍼런스에서 기조연설을 하는 모습. [사진=뉴시스]


19일 업계에 따르면 미국 반도체 기업 엔비디아는 18일(현지시간) 미국 캘리포니아 주 새너제이에서 열린 'GTC 2024'에서 새로운 GPU '블랙웰'을 기반으로 한 차세대 AI 칩 'B100'을 공개했다.

'블랙웰'은 엔비디아가 2년 전 출시한 호퍼 아키텍처의 후속 기술로, 'B100'은 현존하는 최신 AI 칩으로 평가받는 엔비디아 H100의 성능을 뛰어넘는 차세대 AI 칩이다. 아울러 '블랙웰'이란 이름은 게임 이론과 통계학을 전공한 수학자이자 흑인으로는 최초로 미국국립과학원에 입회한 데이비드 헤롤드 블랙웰을 기리기 위해 붙인 이름이다.

젠슨 황 CEO는 "호퍼는 매우 환상적이었지만, 우리는 더 큰 GPU를 원한다"며 "AI가 경제의 근본적인 변화를 이끄는 원동력이고, 블랙웰 칩은 새로운 산업 혁명의 원동력이 될 엔진"이라고 강조했다.

'블랙웰'은 역대 GPU 중 최대 크기로 2080억개의 트랜지스터로 구성됐다. 현존하는 기술로는 이 정도 규모의 트랜지스터를 넣을 수 없는데 엔비디아는 이를 실현하기 위해 2개의 GPU를 하나로 연결했다.

기존 H100과 비교하면 트랜지스터 수가 2.6배 늘어났다. 이를 통해 B100의 연산 처리 속도는 기존 H100보다 2.5배 더 빠르다. 예컨대 H100을 사용할 경우 GPT 훈련을 위해 90일 동안 8000개의 GPU가 필요했지만, 블랙웰은 같은 기간 2000개의 GPU만 사용하면 된다.

엔비디아는 블랙웰 GPU 72개와 자체 중앙처리장치(CPU)인 그레이스를 36개 결합한 'GB200 NVL72'라는 컴퓨팅 유닛으로 제공할 예정이다. 이 경우 'GB200'은 거대언어모델(LLM)에서 H100 대비 최대 30배의 성능 향상을 제공한다. 비용과 에너지 소비는 최대 25분의 1 수준이다.

성능이 대폭 향상된 만큼 탑재되는 메모리 반도체 역시 많아졌다. 'B200'에는 5세대 HBM인 HBM3E가 8개 탑재된다. 전작인 H100과 H200에는 HBM이 각각 4개, 6개가 탑재됐는데 이보다 더 많은 것이다. HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 반도체로, GPU 등 AI용 반도체에 필수적으로 사용된다.

엔비디아의 새로운 칩은 올해 말 본격 출시될 예정이다. 다만 이번 행사에서 'B100'의 가격은 아직 공개되지 않았다. 이에 업계에선 전작인 'H100'이 개당 최대 4만달러(약 5300만원)에 거래되는 것을 감안하면 'B100'은 5만달러(약 6700만원) 수준이 될 것으로 예상하고 있다.

SK하이닉스 'HBM3E' 제품 이미지. [사진=SK하이닉스]


엔비디아가 차세대 AI 칩의 출시를 알리면서 국내 반도체 기업들에게도 본격적인 수혜가 기대된다. 시장조사업체 트렌드포스에 따르면 지난해 삼성전자와 SK하이닉스의 HBM 시장 점유율은 각각 38%, 53%로 사실상 두 기업이 시장을 주도하고 있다. 이에 두 기업의 신경전도 점차 확대되고 있는 모양새다.

엔비디아의 신제품이 공개된 같은날 SK하이닉스는 세계 최초로 5세대 HBM 제품인 'HBM3E' 대량 양산에 성공해 이달 말부터 엔비디아 등 고객사에 공급하겠다고 밝혔다. 이는 지난해 8월 HBM3E 개발을 알린 지 7개월 만에 이룬 성과다. 앞서 SK하이닉스는 전작인 'H100' 칩에도 HBM을 독점으로 공급한 바 있다. 특히 HBM3E에 이어 오는 2026년에는 6세대 제품인 'HBM4'를 양산해 업계 선두주자로서 입지를 확고히 지킨다는 것이 SK하이닉스의 목표다.

류성수 SK하이닉스 HBM 비즈니스 담당 부사장은 "세계 최초 HBM3E 양산을 통해 AI 메모리 업계를 선도하는 제품 라인업을 한층 강화했다"며 "그동안 축적해온 성공적인 HBM 비즈니스 경험을 토대로 고객 관계를 탄탄히 하면서 '토털 AI 메모리 프로바이더'로서의 위상을 굳혀 나가겠다"고 말했다.

삼성전자 HBM3E 12H D램 제품. [사진=삼성전자]


삼성전자 역시 엔비디아 제품 공급을 노리고 있다. 앞서 삼성전자는 지난달 세계 최초로 HBM3E 12단 제품 개발에 성공했다며 상반기 내 양산을 시작할 것이라고 밝혔다. 12단 HBM3E는 현존 최대 용량인 36GB로, 기존 8단 HBM3과 비교해 성능과 용량이 크게 향상된 제품이다. 특히 이번 엔비디아 GTC에서 삼성전자는 외부에 처음으로 신제품을 전시 및 공개했다.

AI 시장 확대로 HBM 시장은 올해 더욱 확대될 전망이다. 트렌드포스는 전 세계 D램 시장에서 HBM이 차지하는 점유율이 지난해 8.4%에서 올해 말 20.1%까지 늘어날 것으로 내다봤다. 연간 비트그로스는 260%에 달할 것으로 보인다.

삼성전자와 SK하이닉스는 기술 개발뿐만 아니라 생산능력(캐파) 확대에도 공을 들이고 있다. 업계에 따르면 삼성전자는 올해 연말까지 월 13만장 규모의 HBM용 TSV 생산능력을 갖출 계획이다. 이는 지난해 말 월 6만장에서 두 배 이상 증가한 수치다. SK하이닉스 역시 올해 HBM 생산 능력을 지난해 4만5000장 대비 2.7배 많은 12만~12만5000장으로 끌어올린다는 방침이다.

한편 후발업체인 미국 반도체 기업 마이크론도 최근 HBM 경쟁력을 과시하고 있다. 앞서 마이크론은 지난달 말 업계에서 가장 먼저 HBM3E 양산 소식을 알리며 "H200에 쓰일 것"이라고 깜짝 발표한 바 있다. 다만 업계 일각에선 마이크론의 HBM 생산능력은 월 3000장에 불과해 경쟁사 대비 유의미한 성과를 내기 어렵다는 분석도 제기된다.

다음으로 공유: