지난 수십 년 동안 소프트웨어가 하이테크 산업의 주역이었으며, 그 이유는 명확합니다.
PC와 스마트폰 기반 시대에 혁신적인 기술들은 소프트웨어 발전을 통해 이루어졌습니다.
이러한 환경에서, 반도체 회사들은 설계와 제조 혁신이 차세대 AI를 가능하게 했음에도 불구하고, 산업에서 발생된 수입의 약 20~30% 정도만 수혜를 입었습니다.
하지만 인공지능(AI)의 성장으로 반도체 회사들의 이야기는 달라질 수 있습니다.
AI는 일반적으로 인간의 마음과 관련된 인지 기능, 예를 들어 인지, 추론, 학습을 수행할 수 있는 기계의 능력으로 정의됩니다. 이러한 다양한 솔루션들과 기타 신흥 AI 애플리케이션들은 하나의 공통 특징을 공유합니다: 혁신의 핵심 추진력으로 하드웨어에 대한 의존, 특히 로직과 메모리 기능에서 말이죠.
AI는 반도체 회사들이 기술 스택에서 발생하는 총 가치의 40~50퍼센트를 차지할 수 있게 하여, 수십 년 만에 최고의 기회를 제공할 수 있습니다.
CPU vs GPU
NVidia로 대표되는 GPU 칩은 AI 시대의 도래에 가장 큰 수혜를 반도체입니다.
CPU (Central Processing Unit):
- 컴퓨터의 전통적인 핵심 부품.
- 일반적인 목적의 컴퓨팅을 위해 설계됨.
- 다양한 작업을 위한 복잡한 명령어를 실행함.
- 높은 클록 속도로 작동하며, 작업을 순차적으로 수행하여 단일 스레드 작업에 효율적임.
GPU (Graphics Processing Unit):
- 원래 게임 및 응용 프로그램에서 그래픽을 렌더링하기 위해 설계됨.
- 고도로 병렬적인 구조로, 작업을 더 작은 동시 작업으로 나눌 수 있을 때 효율적임.
- 동시에 대량의 데이터를 처리하는 데 뛰어나며, 비디오 렌더링, 3D 모델링, 복잡한 과학 계산에 이상적임.
투자의 관점에서 보면 AI 반도체에 대한 변화는 아래와 같습니다.
- GPU에 대한 수요 증가:
- AI와 머신러닝의 폭발적인 성장으로 인해 GPU에 대한 수요가 급증함.
- 이 수요는 게임 부문뿐만 아니라 건강 관리, 자동차(자율 주행), 금융 등 AI를 채택하는 산업에서도 크게 증가함.
- NVIDIA, AMD 및 기타 GPU 제조업체들은 이러한 추세로 인해 투자자들의 관심을 끌고 있음.
- CPU 제조업체들의 적응:
- 인텔과 같은 회사들은 AI 전용 CPU를 개발하고 AI 스타트업 및 기술에 투자함으로써 적응하고 있음.
- 목표는 기존 CPU보다 효율적이고 AI 작업을 더 효과적으로 처리할 수 있는 AI 최적화 CPU를 만드는 것임.
- AI 인프라에 대한 투자:
- CPU와 GPU를 넘어서, AI 인프라를 제공하는 회사들(예: AWS, Google Cloud, Azure와 같은 클라우드 컴퓨팅 업체)
- AI를 위한 Custom(맞춤) 하드웨어:
- Google TPU와 같이 AI 프로세싱 및 서비스 제공 업체에 특화된
메모리 반도체에서의 기회
반도체 선도 기업들은 AI 시대 대응을 위해 고대역폭 메모리(HBM), 메모리 내 처리(PIM), 컴퓨트 익스프레스 링크(CXL) 등을 포함한 차세대 메모리 솔루션을 개발 중입니다.
특히, 생성적 인공지능(AI)의 성장으로 인해 AI용 HBM3에 대한 수요가 예상보다 빠르게 증가함에 따라 정체되었던 메모리 반도체 시장이 활성화되고 있습니다.
산업 소식통에 따르면, 삼성전자는 올해 Memcon과 Flash Memory Summit과 같은 국제 메모리 반도체 행사에서 HBM, HBM-PIM, CXL DRAM, CXL 처리 근접 메모리(PNM)를 포함한 고성능 및 대용량 메모리 솔루션 기술을 공개했습니다.
삼성전자는 HBM 2~3세대를 주도했지만, AI 시장의 급성장을 예측하지 못하고 SK하이닉스에게 세계 최초로 HBM3(4세대)를 대량 생산하는 기회를 잃었습니다.
이에 대응하여 삼성전자는 AI 반도체 분야에서의 리더십을 되찾기 위해 차세대 DRAM 개발 및 대량 생산 경쟁에 적극적으로 참여했습니다.
삼성전자는 2023년 5월에 업계 최초로 CXL 2.0을 지원하는 128기가바이트(GB) DRAM을 개발했으며, 2024년 내에 출시할 예정입니다.
이는 회사가 2022년 5월에 세계 최초로 CXL 1.1 기반 DRAM을 개발한 지 1년 만에 이루어진 것입니다. CXL은 중앙 처리 장치(CPU)당 사용 가능한 DRAM의 양을 제한하는 기존 방식과 달리 여러 인터페이스를 하나로 통합하여 각 장치 간의 직접적인 통신을 가능하게 합니다.
이를 통해 DRAM이 처리할 수 있는 서버 메모리의 양을 수십 테라바이트(TB)로 확장할 수 있습니다.
2022년 10월에는 SK하이닉스가 CXL 메모리에 계산 기능을 통합한 업계 최초의 Computational Memory Solution(CMS)을 개발하는 데 성공했습니다.
PIM 경쟁도 뜨거워지고 있습니다. 현재 메모리는 저장 역할을 하고 중앙 처리 장치(CPU) 및 그래픽 처리 장치(GPU)와 같은 시스템 반도체가 계산을 수행하지만, PIM 기술은 메모리 내에서 데이터 계산을 가능하게 합니다.
HBM-PIM 기술을 사용하면, 기존 HBM을 사용하는 GPU 가속기보다 AI 모델 생성 성능이 3.4배 향상됩니다.
삼성의 HBM-PIM은 2022년 10월 AMD의 GPU MI-100에 탑재되었습니다.
CXL 기반 PNM은 시스템 반도체의 계산 기능을 메모리 옆에 배치함으로써 데이터 병목 현상을 줄입니다.
기존 GPU 가속기에 비해 DRAM 용량을 4배 증가시키고 AI 모델의 로딩 속도를 두 배로 높입니다.
아직 개발 초기 단계에 있지만, 대용량 AI 모델 처리에 대한 수요가 확대됨에 따라 메모리 산업은 CXL 기반 PNM 기술의 널리 사용될 것으로 기대하고 있습니다.
한 업계 관계자는 “Generative AI의 급성장이 메모리 개발 패러다임을 크게 변화시켰다”며 “마이크론은 차세대 메모리 기술에서 한 걸음 뒤처져 있어 삼성-SK하이닉스 경쟁은 앞으로도 계속될 것”이라고 말했습니다.
반도체 투자 전략
전반적인 산업 성장은 이미 예견된 사실로, 우리는 가장 큰 상승을 가져올 주도주를 찾아내는 작업을 지속적으로 해야할 것입니다.
HBM, 온디바이스 AI, CXL, PIM, FPGA 등 AI가 주도하는 반도체 기술 테마주 정보를 지속적으로 제공 드리도록 하겠습니다.
이 글은 투자 권유 글이 아니며,
투자의 선택과 책임은 본인에게 있습니다.