반도체

SK하이닉스 HBM4 AI 칩에서 가장 비싼 필수품

Mr.Nuup 2025. 1. 27. 23:34

차세대 HBM4의 공급 상황은 주로 삼성의 개발 진행 상황을 둘러싼 불확실성에 달려 있습니다. 특히 SK 하이닉스는 HBM4가 MR-MUF 스태킹 방식을 계속 활용할 것이라고 공개적으로 발표했습니다. HBM4와 이전 버전의 HBM 간의 가장 큰 차이점은 베이스 다이 프로세스에 있습니다. DRAM 제조업체에서 전통적으로 생산한 DRAM 프로세스 대신 베이스 다이는 파운드리의 FinFET 기술을 채택할 것입니다.

베이스 다이는 AI 칩 GPU와 DRAM을 연결하는 중요한 구성 요소로, HBM 하단에 위치하며 GPU와 메모리 사이의 컨트롤러 역할을 합니다. SK하이닉스가 TSMC와 협력하여 HBM4 베이스 다이를 개발하고 있다고 합니다. 다양한 고객 요구에 부응하기 위해 진행 중인 개발에는 TSMC의 12FFC+(N12) 및 N5 공정 기술을 기반으로 하는 버전이 포함됩니다.

 

HBM은 매우 비싸며 기존 DRAM보다 2~3배 더 비쌉니다. 또한 AI 칩에서 가장 중요한 비용 요소로, TSMC의 웨이퍼 제조 서비스보다 더 높습니다.

온라인 정보에 따르면, NVIDIA H100 GPU를 분해한 결과 생산 비용이 약 3,000달러인 것으로 나타났습니다. 구성 요소 중에서 가장 큰 비용은 SK Hynix의 HBM 메모리에서 발생하며, 약 1,500달러를 차지합니다. 이는 칩 제조 및 패키징 비용을 훨씬 초과하여 HBM 메모리가 GPU 생산 비용에 가장 큰 영향을 미칩니다.

하지만 H100은 무려 35,000달러라는 가격에 매출 총이익률이 90%가 넘기 때문에 고급차 수준의 수익성을 갖춘 제품입니다.

 

현재 글로벌 DRAM 제조업체 중에서 HBM을 생산할 수 있는 역량을 보유한 회사는 SK하이닉스, 삼성, 마이크론 등 3개 회사뿐입니다. HBM은 첨단 패키징과 인터포저를 필요로 하는데, 이를 제공할 수 있는 회사가 거의 없기 때문입니다. 기본적으로 TSMC는 CoWoS 기술을 통해 HBM과 인터포저 패키징에서 지배적인 위치를 차지하고 있습니다. 이것이 SK하이닉스가 TSMC와 협력을 모색하는 주요 이유입니다.

320x100