
**번역본뉴스입니다. 오역이 있을수 있습니다.
퀄컴(Qualcomm)과 AMD가 메모리 용량 및 속도를 높이기 위해 자사의 AI 제품군에 SOCAMM2 메모리를 통합하는 방안을 고려 중인 것으로 알려졌습니다. 이는 SOCAMM 폼팩터에 LPDDR5X 메모리를 탑재하여 1.2 TB/s의 대역폭과 최대 1.5 TB의 메모리 용량을 제공하는 엔비디아(NVIDIA)의 'Vera(베라)' CPU 전략을 뒤따르는 것입니다. 퀄컴과 AMD는 이와 유사한 전략을 통해 고속·대용량 AI 시스템을 구축하는 것을 목표로 하고 있습니다.
이러한 시스템은 AI 가속기 근처에 위치한 빠른 메모리를 필요로 하며, SOCAMM은 가속기에 탑재된 방대한 HBM(고대역폭 메모리)을 보완하는 역할을 수행할 수 있습니다. SOCAMM은 전체 AI 모델을 메모리에 상주시키기에 충분한 용량을 갖춘 고속 메모리 풀 역할을 하여, SSD 플래시 스토리지로의 데이터 전송 필요성을 줄여줍니다.
엔비디아의 SOCAMM 방식은 CPU 주변을 여러 개의 SOCAMM 모듈로 둘러싸는 형태이며, 퀄컴과 AMD 역시 자사의 AI 솔루션에 이와 같은 설계를 도입할 것으로 예상됩니다. AMD의 경우 EPYC(에픽) CPU와 결합된 Instinct MI 가속기 시리즈가 다음 통합 대상이 될 가능성이 높으며, 혹은 완전히 새로운 시스템을 개발할 수도 있습니다.
퀄컴은 이미 카드당 최대 768 GB의 LPDDR5를 포함하는 AI200 및 AI250 추론 가속기와 같은 AI 솔루션을 제공하고 있습니다. 조만간 이러한 제품들에 SOCAMM이 보완되면, 개별 메모리 모듈을 기판에 직접 납땜(Soldering)하는 대신 SOCAMM 표준을 기반으로 한 표준화된 메모리 확장이 가능해집니다. 이 방식을 통해 제조업체들은 복잡한 PCB 납땜 작업 없이 SOCAMM 모듈을 추가하거나 제거하는 것만으로도 다양한 사양의 시스템 버전과 솔루션을 고객에게 제공할 수 있게 됩니다.
--------------------------------------------------------------------------------------광고(Advertising)--------------------------------------------------------------------------------------------------------