소캠2는 주로 스마트폰 등 모바일 제품에 사용되던 저전력 메모리를 서버 환경에 맞게 변형한 모듈로 차세대 AI 서버 등에 주력으로 활용되는 제품이다. 제2의 고대역폭메모리(HBM)로 불린다. 기존 서버용 메모리 모듈보다는 더 작은 폼팩터를 가지면서 전력 효율은 높은 저전력 D램 기반의 AI 서버에 특화한 메모리 모듈이다.
|
특히 이번 소캠2 제품은 엔비디아의 베라 루빈에 최적화돼 설계됐다고 회사는 설명했다. 최근 AI 시장은 학습에서 추론으로 무게 추가 옮겨가면서 메모리 병목현상이 발생하고 있다. SK하이닉스는 수천 억 개의 파라미터를 보유한 초거대 AI 모델의 메모리 병목 현상을 근본적으로 해소함으로써 전체 시스템의 처리 속도를 비약적으로 높이는 데 기여할 것으로 기대했다.
AI 고도화로 데이터 센터 메모리 수요가 급증하면서 기존 HBM과 일반 D램 DDR5 RDIMM만으로는 성능과 전력, 폼팩터 요구를 모두 충족하기 어려운 상황이 나타나고 있다. 그래픽처리장치(GPU) 패키지에 붙는 HBM은 초고대역폭을 제공하지만 용량·비용·발열 측면에서 한계가 있고, DDR5 RDIMM은 용량은 크지만 대역폭·전력 효율이 상대적으로 떨어지는 구조적 제약을 갖고 있다.
이에 소캠은 저전력 D램인 LPDDR을 서버용 모듈로 재구성해, DDR5 RDIMM 수준의 모듈 서비스성과 LPDDR 수준의 전력 효율을 동시에 노리는 개념이다. 이 때문에 소캠2는 HBM과 DDR5 사이에서 ‘저전력·고대역폭·모듈 교체 가능’을 모두 충족시키는 중간계층 메모리 제품이다.
소캠2는 AI 메모리 슈퍼사이클의 폭을 넓혀주는 역할을 할 것이라는 평가다. 소캠2는 HBM보다 가격과 공정 난이도 부담이 상대적으로 낮아, 향후 AI 확산 과정에서 시장 전체 물량을 크게 늘릴 수 있을 것으로 주목받는다.
SK하이닉스 김주선 AI 인프라 사장(CMO)은 “소캠2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며 “글로벌 AI 고객과 긴밀한 협력을 바탕으로 고객이 가장 신뢰하는 AI 메모리 설루션 기업으로 자리매김하겠다”고 말했다.


![복지관 안 다니면 알 수 없어…'그들만의 리그'된 노인 일자리 [only 이데일리]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/04/PS26042800083t.jpg)

![기름값 올라도 남는게 없다…영세 주유소 줄줄이 경매행[only 이데일리]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/04/PS26042800131t.jpg)
