SK하이닉스 전성비갑 ‘소캠2’ 출격… AI 메모리 새판짜기

이범수 기자
수정 2026-04-21 00:57
입력 2026-04-21 00:57
AI 서버용 메모리 모듈 본격 양산
적은 전기로 데이터 처리 속도 2배엔비디아 슈퍼칩 ‘베라 루빈’ 최적화
HBM과 투트랙으로 효율성 높여
차세대 기술서도 주도권 확보 총력
“메모리 성능의 새로운 기준 될 것”
SK하이닉스가 차세대 인공지능(AI) 서버용 메모리 모듈인 ‘소캠2(SOCAMM2) 192GB’를 본격 양산한다고 20일 밝혔다. 스마트폰 등에 쓰이던 저전력 D램(LPDDR5X)을 AI 서버에서 빠른 속도로 구동하면서도 전력 소비는 낮도록 개량한 제품이다. AI의 추론기능이 중요해지면서 전력 소비 대비 높은 성능이 요구되는 가운데 SK하이닉스가 고대역폭메모리(HBM)에 이어 차세대 영역에서도 주도권을 잡겠다고 선언한 셈이다.
SK하이닉스는 “소캠2는 (DDR5를 활용한) 기존 서버용 메모리 모듈(RDIMM) 대비 데이터 처리 속도(대역폭)가 2배 이상 빠르고, 전력 효율은 75% 이상 개선된 고성능 AI 연산 최적화 솔루션”이라고 이날 밝혔다. 더 적은 전기로 더 많은 데이터를 처리할 수 있다는 의미다. 특히 이 제품은 엔비디아의 차세대 AI 플랫폼 ‘베라 루빈’에 맞춰 설계돼 향후 AI 서버에 본격 적용될 가능성이 크다.
이번 발표가 주목받는 이유는 AI 메모리 시장의 구조 변화와 맞물려 있어서다. 그간 AI 서버는 그래픽처리장치(GPU)가 연산을 수행하고, 이를 초고속으로 지원하는 HBM과 데이터를 저장·공급하는 RDIMM 중심으로 구성돼 왔다. GPU가 요리사라면 HBM은 바로 사용할 재료를 올려두는 도마, RDIMM은 재료를 보관하다 필요할 때 꺼내 쓰는 냉장고 역할을 했던 셈이다.
다만 AI 연산 속도가 급격히 빨라지면서 RDIMM의 데이터 공급 속도와 전력 효율이 병목 요인으로 지적돼 왔다. HBM 중심 구조를 유지하면서도, 보다 빠르고 효율적인 메모리에 대한 수요가 확대된 이유다. SK하이닉스는 소캠2를 통해 이런한 문제를 줄여, AI 처리 속도를 높이겠다는 전략이다.
업계에서는 소캠2에 대해 HBM의 완전한 대체품보다 역할을 나눌 것으로 보고 있다. HBM이 최고 성능을 담당한다면, 소캠2는 전력과 비용을 줄이면서 데이터를 효율적으로 공급하는 역할을 맡는 식이다. 이를 통해 AI 서버는 더 많은 작업을 보다 효율적으로 처리할 수 있게 된다.
이 같은 흐름은 AI 시장이 ‘학습’ 중심에서 ‘추론’ 중심으로 이동하는 변화와도 맞닿아 있다. 학습은 데이터를 이용해 AI 모델을 훈련시키는 과정이고, 추론은 학습된 AI를 실제 서비스에 활용하는 단계다. 최근에는 많은 기업들이 AI를 실제 서비스에 적용하면서 전력 효율이 높은 메모리 수요가 빠르게 늘고 있다.
SK하이닉스 김주선 AI 인프라 사장은 “소캠2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며 “글로벌 AI 고객과의 긴밀한 협력을 바탕으로 최적의 성능을 제공하고, 신뢰받는 AI 메모리 솔루션 기업으로 자리매김하겠다”고 밝혔다.
이범수 기자
2026-04-21 B1면
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
