HBM이 AI 시대의 핵심 부품이 됐다는 건 많이 들어보셨을 텐데, 왜 일반 DRAM이 아닌 HBM이어야 하는지 궁금하신 분들이 있을 거예요. 둘 다 결국 메모리 아니냐고 할 수 있는데, 구조를 뜯어보면 완전히 다릅니다.
가장 큰 차이는 데이터가 이동하는 통로의 폭이에요. 전문 용어로 ‘버스 폭’이라고 하는데, 일반 DRAM의 버스 폭이 4-32비트인 반면에 HBM은 1,024비트입니다. 최대 128배 차이가 나는 거예요. 이걸 도로에 비유하면 일반 DRAM은 왕복 2차선 도로이고, HBM은 왕복 128차선 고속도로인 셈이에요.
이게 가능한 이유는 구조가 다르기 때문입니다. 일반 DRAM은 칩 하나가 기판 위에 평면으로 놓여 있는데, HBM은 여러 개의 DRAM 칩을 수직으로 쌓아올려요. 그리고 각 층을 TSV라는 실리콘 관통 전극으로 연결합니다. 비유하자면 일반 DRAM이 계단으로 연결된 건물이라면, HBM은 엘리베이터가 설치된 건물인 거죠. 데이터가 이동하는 경로 자체가 짧고 효율적이에요.
대역폭 수치로 보면 감이 더 올 텐데요, 현재 HBM3 기준으로 대역폭이 1TB/s 이상입니다. GDDR6가 최대 500GB/s 정도니까 두 배 이상 빠른 거예요. 최신 HBM3E는 여기서 더 올라가고, HBM4는 또 한 단계 뛰어넘는 수준이고요.
그러면 왜 전부 HBM으로 안 바꾸냐, 여기에는 이유가 있어요. 일단 가격이 비쌉니다. TSV 공정이나 적층 패키징 자체가 고난도 기술이라 일반 DRAM보다 생산 비용이 몇 배는 높거든요. 그래서 모든 기기에 HBM을 넣는 건 현실적으로 불가능하고, AI 학습이나 고성능 컴퓨팅처럼 대역폭이 생명인 분야에서 주로 쓰이는 겁니다.
확장성 면에서도 HBM이 유리해요. DRAM은 단층 구조라 개선에 한계가 있는 반면, HBM은 메모리 다이를 더 많이 쌓으면 용량과 대역폭이 비례해서 올라갑니다. 현재 12단까지 상용화됐고, 앞으로 더 높이 쌓는 기술이 계속 개발되고 있어요.
핀 수도 압도적인데, HBM은 TSV 배선을 통해 1,000개 이상의 핀을 탑재해서 데이터 이동 병목 현상을 해소합니다. 일반 DRAM으로는 물리적으로 불가능한 수준이에요. AI 시대에 HBM이 필수가 된 건 이런 구조적 차이 때문입니다.