본문 바로가기
주식공부방/주식시황 및 경제이슈들

AI시대와 HBM반도체 (ft. HBM수혜주?)

by 주부너구리 2023. 12. 21.
반응형

2023년 주식시장의 가장 큰 테마 중 하나는 역시 'AI'였습니다. AI란 단어를 뉴스나 영화에서만 보셨던 분들도 올해 'ChatGPT'를 직접 써보면서 어렴풋이 AI가 정말 세상을 바꿀 수 있을지도 모른다는 가능성을 보셨을 겁니다. 

또한, 올해 AI 최대 수혜주는 역시 '엔비디아'였습니다. 이것도 잘 모르겠지만 AI를 개발하려면 엔비디아에서 설계한 반도체 칩을 사용해야 한다는 정도는 한 번쯤 들어보셨을 것 같습니다. 엔비디아는 올해에만 주가가 236% 상승했으며, 내년에도 꽤 긍정적인 전망치들이 나오고 있습니다. 

서두가 길었는데 진짜 본론은 'HBM'입니다. AI시대가 오면서 HBM이란 반도체 수요가 급증했다 하고, 엔비디아가 설계한 칩에도 HBM반도체가 들어간다고 하는데 SK하이닉스가 시장 점유율 1위이고, 내년부턴 관련 장비주들도 수혜주가 될 거란 정보 정도로 주식투자를 하는 건 너무 운에 내 돈을 맡기는 거라 생각되는데요.

우선은 HBM이 무엇인지, 그리고 내년에도 AI반도체가 계속 성장세가 나올 것인지, 관련 장비주들은 어떤 것들이 있는지 등, 기본적인 정보를 알고 계시는 게 좋을 것 같습니다. 아래 내용은 개인적인 견해를 포함하며, 특정 종목에 대한 매수/매도 추천이 아님을 참고해 주시기 바랍니다. 

엔비디아가 팔고 있는 AI용 GPU 이해하기

주력제품은 A100과 H100

엔비디아가 GPU를 판다는 것 정도는 아실 것 같은데요. 엔비디아가 팔고 있는 AI용 주력 GPU는 A100과 H100 2개 제품 시리즈입니다. (A100과 H100이 각각 하나의 제품이 아니라, 하위로 여러 개의 제품군을 가지고 있어서 제품 시리즈라고 표현했습니다.)

A100보다 H100이 더 최근에 출시된 고성능 제품입니다. H100 제품군은 2022년 3월에 처음 출시된 것으로 알고 있는데요. H100제품 이미지는 아래와 같이 생겼습니다. 

엔비디아의 주력 AI칩인 H100제품의 실제모습
엔비디아의 주력 AI칩인 H100제품의 실제모습

조립식 컴퓨터(데스크톱)을 써 보신 분들은 왼쪽과 같은 카드형 제품을 보신 적이 있을 텐데요. 오른쪽 이미지는 왼쪽 카드에서 H100 GPU만 따로 보기 좋게 표시한 것입니다. A100과 H100은 서버용 제품입니다만, 결국 위와 같은 데스크톱에 장착되는 그래픽 카드 같은 제품입니다. 

AI 전용서버에는 서버 한 대당 A100 혹은 H100제품이 8개 장착됩니다. 그런데 제가 노란색 박스로 표시한 영역이 GPU의 핵심구성인데요. 가운데 알록달록한 부분이 연산작업을 하는 GPU이고, 그 주위를 둘러싼 6개의 작은 검정색 블록이 HBM입니다. 구조를 좀 더 단순화하면 아래와 같이 생겼습니다. 

H100제품의 구성도
H100제품의 구성도

CPU나 GPU는 중앙연산장치로 사람으로 치면, 기억력은 없지만 계산은 기깔나게 하는 놈입니다. 그럼 이 계산잘하는 CPU 혹은 GPU에게 계산할 정보를 전달하고, 계산결과를 받아서 저장하는 곳이 어디냐면 바로 주변에 있는 HBM입니다. 우리가 HBM을 메모리 반도체라고 부르는 건, 데이터를 저장하고 전달할 수 있는 능력을 가지고 있기 때문입니다. 상대적으로 CPU나 GPU는 시스템 반도체라고 부르죠.

HBM은 어떻게 생겼을까?

위에서 말씀드린 것처럼 HBM은 메모리 반도체의 일종입니다. 즉, 우리가 알고 있는 CPU나 GPU처럼 데이터를 연산하는 능력은 없지만, 대량의 정보를 저장하고 시스템 반도체(CPU나 GPU)가 연산할 수 있도록 정보를 읽고 전달하는데 특화된 반도체를 말하는데요. 

메모리 반도체는 크게 SRAM과 DRAM으로 나뉩니다만, 특수한 목적으로 사용되는 SRAM을 제외하면 시장에선 대부분 DRAM이 사용됩니다. HBM도 DRAM의 일종인데요. 

AI는 막대한 정보를 분석해서 다양한 형태의 결과를 내는 형태이므로 기존 DRAM보다 아래와 같은 요구사항들이 커지게 되었습니다. 주로 3가지로 요약할 수 있는데요.1. 높은 대역폭: 대역폭은 메모리에서 한번에 빼낼 수 있는 데이터 양을 말하는데요. 높은 대역폭이란 기존보다 한 번에 훨씬 많은 데이터를 빼낼 수 있다는 의미입니다. 
2. 빠른 반응속도: CPU나 GPU가 데이터를 요청한 후 얼마나 빠르게 반응하는지에 대한 기준입니다. 
3. 큰 용량: 기존보다 훨씬 많은 데이터를 메모리 반도체가 저장하고 전송해주는 것을 원하게 되었습니다. 
위 3가지 요구사항을 만족시킨 것이 HBM(High Broadwidth Memory)이며, 우리말로 풀이하면 고대역폭 초고속 메모리라고 하는데요. HBM이 이렇게 기존 DRAM보다 월등하게 성능이 좋아질 수 있었던 것은, 기존 DRAM을 샌드위치처럼 겹겹이 쌓아 올렸기 때문입니다. 

SK하이닉스 HBM3의 개요

현재까지 가장 성능이 좋다는 HBM3는 2GB DRAM 12장을 하나의 DRAM으로 샌드위치처럼 포개서 만들었습니다. 12개의 DRAM을 위에서 뜨거운 다리미 같은 걸로 열을 가하면서 눌러서 압착시킨 건데요. 여기에 1024개의 구멍을 뚫고, 거기다 구리배선을 넣어서 그 구리배선으로 데이터를 CPU나 GPU로 전송하는 방식입니다. 

현존하는 최고성능 GDDR6와 HBM3의 성능비교
현존하는 최고성능 GDDR6와 HBM3의 성능비교

HBM이전에 가장 성능이 좋았다는 GDDR6 메모리와 HBM3의 성능을 비교한 표입니다. 대역폭은 한번에 전송할 수 있는 데이터의 양이라 말씀드렸는데요. GDDR6보다 HBM3의 대역폭이 12.8배나 큽니다. 이렇게 대역폭이 커질 수 있었던 건 아래 있는 핀 수 때문인데요. 

기존엔 32개의 톨게이트가 있는 도로였다면, HBM3는 1024개의 톨게이트를 가진 초거대 도로입니다. 때문에 한 번에 많은 차량(데이터) 이동이 가능해졌죠. 이게 끝이 아닙니다. 일반적인 AI칩에는 이런 HBM이 4~6개가 들어가니까 실제론 엄청난 차이가 발생하게 됩니다. 

위 내용을 가장 쉽게 설명한 유튜브 영상이 있어서 아래 링크를 해 두었습니다. HBM에 관심있는 분이라면 꼭 한번 보시기 바랍니다.

HBM 관련 수혜주들은 뭘까?

장비는 TSMC와 한미반도체

일단 엔비디아는 반도체를 설계하는 회사인지 직접 생산하지 않습니다. 생산은 대부분 우리가 잘 아는 TSMC란 곳에서 하게 되는데요. AI용 칩 그림을 찾아보시면 대부분 이렇게 생겼습니다. 

TSMC의 CoWoS 패키징 구성
TSMC의 CoWoS 패키징 구성

왼쪽 위는 HBM인데 나머지는 뭘까요? 엔비디아 H100제품 그림에서도 눈치채셨을 수 있지만, 요즘은 GPU와 DRAM(HBM)을 하나의 기판에다 붙입니다. 이 작업을 가장 잘하는 곳이 TSMC이며, 위 그림은 TSMC가 GPU와 HBM을 하나로 조립하는 공정인 CoWoS (웨이퍼온 서브스테레이트) 패키징이라고 합니다. 

TSMC를 장비주라 말하긴 좀 분류가 맞지 않지만, 엔비디아의 AI반도체 제품생산량은 TSMC의 CoWoS 공정의 생산능력과 비례한다고 해도 과언이 아닙니다. 때문에 TSMC도 넓은 의미로 HBM 및 AI관련주로 보시는 게 맞을 것 같습니다. 

또 하나는 본질적으로 HBM을 만드는 과정인 12개 DRAM을 압착하고 1024개의 구멍을 뚫어 구리회선을 연결하는 작업과 관련된 장비들입니다. 우리가 그냥 종이 12장에 풀을 붙여서 포개는 것도 정확하게 하기 어려운데, 반도체처럼 작고 조금만 오차가 나도 다 불량품이 되는 압착과 구멍 뚫고 노선을 연결하는 과정은 굉장히 정밀한 장비가 필요하게 되는데요. 

이 압착과정에는 우리나라 한미반도체 장비가 잘 한다고 알려져 있고, 그 외에도 다양한 업체들이 과정에서 포함되어 있습니다. 다만 이 부분은 저도 개인적인 학습이 모자란 상태이고, 정확한 지식이 없으므로 추후에 다시 한번 정리하도록 하겠습니다. 

제조과정 및 관련 수혜주에 대해서는 아래 기사내용을 한번 참고하시면 도움이 될 것 같습니다.

 

SK하이닉스가 HBM에 진심인 이유 <2> [강해령의 하이엔드 테크]

산업 > 기업 뉴스: 정보기술(IT) 시장에 관심 많으신 독자 여러분, 안녕하세요. 지난주 하이엔드 테크 기사에서는 SK하이닉스(000660)가 고대역폭메...

www.sedaily.com

HBM 시장점유율 1위는 현재까진 SK하이닉스

2022년 기준 HBM시장 점유율과 각 기업의 개발과정
2022년 기준 HBM시장 점유율과 각 기업의 개발과정

2022년까지 HBM 시장점유율 1위는 SK하이닉스이며, 전체 시장의 50%를 차지하고 있습니다. 현재까지 AI칩에 사용되는 최신 HBM3 제품을 대량 생산할 수 있는 곳은 SK하이닉스 밖에 없습니다. 하지만, 내년부터는 상황이 달라집니다.

HBM시장점유율 향후 예상추이
HBM시장점유율 향후 예상추이

2023년과 24년으로 갈수록 삼성전자의 시장비중이 높아지고 있습니다. 삼성전자가 HBM에 막대한 투자를 하고 있는 것은 공공연한 사실인데요. 그렇다고 해도 HBM효과가 더 많이 반영될 수 있는 곳은 SK하이닉스라고 생각합니다. 

SK하이닉스와 삼성전자 주가변화 비교
SK하이닉스와 삼성전자 주가변화 비교

보시는 것처럼 2023년 SK하이닉스는 삼성전자 대비로 2배 이상 주가가 올랐습니다. 그도 그럴 것이 SK하이닉스는 반도체 매출이 대부분이지만, 삼성전자는 반도체 외에도 여러가지 제품군이 있고 시가총액도 SK하이닉스의 5배나 되기 때문입니다. 

사실상 HBM 생산량은 마이크론의 비중이 큰 영향이 없으므로, 삼성전자와 SK하이닉스만 고려해도 되는데요. DRAM시장 자체가 삼성전자-SK하이닉스-마이크론 3개 업체가 거의 80~90%를 차지하는 구조라, DRAM시장은 성장기엔 투자업체를 고르기가 상대적으로 쉬운 편입니다. 

그런데 HBM시장은 계속 성장할까?

다양한 AI칩 경쟁제품 출시는 HBM시장에 좋은 징조

최근 AMD와 인텔에서 엔비디아의 AI시장 독주를 견제하기 위해 AI칩 제품을 공개했는데요. 아직까진 엔비디아 AI칩 제품 자체 성능 뿐 아니라 관련 개발자 도구 및 소프트웨어 생태계를 고려하면, AMD나 인텔이 엔비디아를 따라잡는 데는 수년이 걸릴 것 같습니다. 

엔비디아 AI칩 견제용으로 출시되는 인텔과 AMD제품
엔비디아 AI칩 견제용으로 출시되는 인텔과 AMD제품

하지만 HBM반도체 입장에서는 AMD와 인텔의 경쟁제품 출시가 호재입니다. 이 2개 업체의 제품에도 HBM은 어차피 들어가기 때문입니다. 더구나 후발주자들이 엔비디아 제품 성능을 따라잡기 위해서 차별화할 수 있는 것은 HBM밖에 없는데요. 

실제로 AMD의 AI칩인 MI300에는 엔비디아 AI칩보다 훨씬 많은 8개의 HBM이 탑재됩니다. HBM은 기존 DRAM보다 최소 5배 이상 비싸기 때문에 SK하이닉스나 삼성전자에게는 시장이 커질 수 있는 좋은 소식으로 보입니다. 

HBM시장 성장전망도 현재로선 좋은 편

HBN시장 규모전망
HBN시장 규모전망

AI시장이 이제 막 열리는 시점이라 2024년과 2025년 HBM시장 성장전망도 매우 긍정적인 편입니다. 위 그림과 같이 2025년까진 꽤 큰 규모로 성장하는 것으로 전망되는데 이건 어디까지나 전망치이므로 그냥 참고만 하시는 편이 좋겠습니다. 대부분 시장전망은 꽤나 러프하고 생각보다 정확지 않기 때문입니다. 

내년 중에 AI서버 시장성장에 정체가 올 가능성도 있음

2023년 AI시장을 이끈 것은 ChatGPT와 같은 GenerateAI 형태였는데요. 이 형태는 자연어 처리 및 언어학습모델과 같은 대규모 서버투자가 필요한 영역이라 주로 빅테크 업체들이 AI칩 시장규모를 키웠습니다. 

하지만, 내년에도 이 수요가 계속 유지될거라 보지 않는 의견들도 있습니다. 빅테크 업체는 한정되어 있고 어느 정도 초기투자가 끝난 이후에는 AI관련 투자가 정체되는 시기가 올 수 있기 때문이죠. 개인적으론 이 가능성도 꽤 있다고 보여서 내년 하반기에는 HBM시장 성장추이도 면밀히 관찰할 필요가 있습니다. (아마도 주요 업체들의 2분기 실적으로 알 수 있겠죠)

더불어 내년에 글로벌한 경기침체가 온다면, 가장 먼저 예산을 삭감하는 IT분야의 최첨단 기술인 AI분야는 성장성이 더디게 나타날 수 있습니다. 이런 가능성들도 염두에 두고 투자여부를 검토하시는 게 좋겠습니다. 

반응형

댓글