AI 시스템 고도화 따라 필요한 메모리 증가...공급 제한으로 제조사 수익성 '쑥'

"AI(인공지능) 산업 관점에서 가장 큰 도전 과제는 메모리(반도체)다."
립부 탄 인텔 최고경영자(CEO)는 3일(현지시간) 미국 샌프란시스코에서 시스코 시스템즈 주최한 'AI 서밋'에서 AI 산업의 제약 요인을 묻는 말에 주저 없이 '메모리 반도체'(이하 메모리)를 꼽았다. 연산 칩의 성능 한계나 전력 공급, 냉각 문제보다 메모리 부족이 AI 산업 확장의 최대 병목이라는 진단이다.
AI라는 새로운 시장이 열렸지만 삼성전자와 SK하이닉스, 마이크론 등 글로벌 메모리 3사의 공급량은 이를 따라가지 못하고 있다. 메모리 가격이 급등하면서 제조사의 수익성 개선과 함께 실적 전망도 잇따라 상향 조정되고 있다.
모간스탠리는 최근 보고서에서 삼성전자의 올해 영업이익 전망치를 기존 184조8460억원에서 245조6860억원으로 높였고, SK하이닉스 역시 148조2870억원에서 179조4280억원으로 올려 잡았다. 내년에는 삼성전자와 SK하이닉스의 영업이익이 각각 317조3790억원, 225조3540억원에 이를 것으로 내다봤다. 두 회사의 영업이익만 540조원을 웃도는 규모다. 국내외 증권가 전망 중 가장 높다.
AI 시스템 고도화로 필요 메모리 급증
AI 시스템이 고도화될수록 필요한 메모리 규모도 크게 늘고 있다. 탄 CEO는 "엔비디아의 루빈(Rubin)과 같은 차세대 제품을 위해서는 막대한 메모리가 필요하다"고 강조했다. 실제로 엔비디아의 루빈 GPU(그래픽처리장치) 1개에는 32GB(기가바이트) 용량의 6세대 고대역폭메모리(HBM4) 8개가 탑재된다. 이전 세대보다 필요한 용량이 50% 늘었다.
엔비디아가 올해 하반기 출시할 차세대 AI 수퍼칩·랙 시스템인 '베라 루빈 NVL72'에는 루빈 GPU 72개와 베라 CPU(중앙처리장치) 36개가 들어간다. GPU용 HBM4만 총 576개가 필요하다. 여기에 CPU를 위한 메모리로 약 54TB(테라바이트) 규모의 LPDDR(저전력D램)5X가 탑재된다. 128GB 용량 기준으로 환산하면 432개에 달하는 물량이다.
필요한 메모리가 급증한 엔비디아는 삼성전자와 SK하이닉스에 HBM4의 조기·안정적 공급을 요구하고 있다. 삼성전자는 이달부터 HBM4를 엔비디아에 공급할 예정이고, SK하이닉스도 양산에 들어간 상태다. 업계에서는 SK하이닉스가 전체 HBM4 공급 물량의 60% 이상을 담당할 것으로 보고 있다.
문제는 이같은 수요를 감당하기 어려운 공급 구조다. AI 서버와 데이터센터 시장에서 전례 없는 규모의 D램이 필요해지고 있지만 생산 능력은 이를 충분히 뒷받침하지 못하고 있다. 메모리 부족으로 AI 서버를 제때 완성하지 못하는 사례까지 거론된다. 여기에 인텔까지 소프트뱅크와 손잡고 고성능 D램 시장 진출을 준비 중이다.
올해 D램 수요는 전년 대비 약 27% 증가가 예상되지만, 출하량 증가는 19% 수준에 그칠 것이라는 전망이 나온다. 특히 D램을 12개를 수직으로 쌓는 구조(12단 기준)인 HBM 제품의 특성상 HBM 생산 비중이 늘어날수록 범용 D램 생산 능력은 줄 수밖에 없다.
-생략
https://n.news.naver.com/mnews/article/008/0005314127