
**번역본뉴스입니다. 오역이 있을수 있습니다.
MSI는 오늘 대규모 언어 모델(LLM), 생성형 AI 및 고급 데이터 과학 워크플로우의 가속화되는 수요를 지원하기 위해 구축된 차세대 데스크사이드 AI 슈퍼컴퓨터인 NVIDIA DGX 스테이션 아키텍처 기반의 XpertStation WS300 출시를 발표했습니다. NVIDIA GB300 Grace Blackwell 울트라 데스크톱 슈퍼칩으로 구동되며 최대 748GB의 대용량 일관성 메모리(coherent memory)와 듀얼 400GbE 네트워킹을 지원하는 이 플랫폼은 고급 AI 인프라 기능을 콤팩트한 데스크사이드 배포 모델로 확장하며, 오늘부터 주문이 가능합니다.
MSI의 엔터프라이즈 플랫폼 솔루션 총괄 매니저인 대니 쉬(Danny Hsu)는 "MSI는 AI 우선 컴퓨팅을 발전시키기 위한 전략적 비전을 가지고 있습니다"라고 말했습니다. "우리는 NVIDIA와 함께 차세대 AI 인프라 시대를 정의하고, 중앙 집중식 성능과 분산형 혁신을 연결하며, 조직이 더 빠른 속도, 규모 및 확신을 가지고 실험 단계에서 생산 단계로 나아갈 수 있도록 지원하고 있습니다."

데이터 센터 AI를 데스크톱으로 도입 XpertStation WS300은 최대 748GB의 대용량 일관성 메모리를 통합하여 고대역폭 HBM3e GPU 메모리와 LPDDR5X CPU 메모리를 통합된 도메인으로 결합함으로써, 대규모 모델 훈련 및 미세 조정을 위한 효율적인 CPU-GPU 데이터 공유를 가능하게 합니다.
NVIDIA ConnectX-8 SuperNIC로 구동되는 듀얼 400GbE 연결을 통해, 이 플랫폼은 분산형 AI 워크로드 및 멀티 노드 확장성을 지원하기 위해 최대 800Gb/s의 총 네트워킹 대역폭을 제공합니다. 고속 PCIe 5세대 및 6세대 NVMe 스토리지는 데이터 세트 수집 및 AI 데이터 파이프라인을 가속화하여, 집약적인 훈련 및 추론 작업 중에도 지속적인 컴퓨팅 활용을 보장합니다. 이 플랫폼은 NVIDIA AI 소프트웨어 스택에 대한 완벽한 지원과 결합되어, 데스크톱에서 데이터 센터에 이르기까지 원활한 AI 개발 및 배포를 위한 통합 하드웨어-소프트웨어 기반을 제공합니다.

개발에서 배포까지 AI 워크플로우 확장 XpertStation WS300은 대규모 모델 훈련 및 데이터 집약적 분석부터 실시간 추론과 새롭게 떠오르는 물리적 AI 및 로보틱스 워크로드에 이르기까지 전체 AI 수명 주기를 지원합니다. 이 플랫폼을 통해 조직은 딥 러닝 모델을 가속화하고, 방대한 데이터 세트를 효율적으로 처리하며, 높은 처리량 성능으로 복잡한 AI 워크로드를 로컬에서 실행할 수 있습니다.
또한 이 시스템은 협업을 통한 미세 조정 및 온디맨드 배포를 위한 중앙 집중식 AI 컴퓨팅 노드로 작동하여, 독점 데이터 및 지적 재산에 대한 통제력을 유지하는 동시에 팀에게 더 큰 운영 유연성을 제공할 수 있습니다.
XpertStation WS300은 데이터 센터급 성능을 데스크사이드로 확장함으로써, 조직이 인프라 수준의 일관성과 신뢰성을 바탕으로 AI 이니셔티브를 실험 단계에서 생산 단계로 전환할 수 있도록 합니다.
자율 AI 에이전트 지원 NVIDIA NemoClaw는 자율 AI 에이전트가 보다 안전하게 지속적으로 작동할 수 있도록 정책 제어 샌드박스와 함께 OpenShell 런타임을 설치하는 오픈 소스 스택입니다. 개발자는 XpertStation WS300에서 OpenShell을 실행하여 최대 20 페타플롭스의 AI 컴퓨팅과 748GB의 메모리를 통해 1조 개 매개변수 모델(trillion-parameter models)을 로컬에서 실행할 수 있으며, 이를 통해 클라우드 인프라에 의존하지 않고도 데스크사이드에서 상시 작동하는 AI 에이전트를 활성화할 수 있습니다.
제품페이지 : https://www.msi.com/Landing/NVIDIA-DGX-STATION
--------------------------------------------------------------------------------------광고(Advertising)--------------------------------------------------------------------------------------------------------