인공지능 딥러닝 특화 HPE Apollo 6500 Gen10 System 발매
HPE는 딥 러닝 처리에 최적화 된 x86 서버 신제품으로 HPE Apollo 6500 Gen10 System을 발매했다.
신제품은 4U/1노드 구성에 NVIDIA Tesla V100 등의 GPU를 최대 8개 탑재하여 300GB/s 고속의 CPU-GPU BUS NVLink 2.0(SXM-2)에도 대응한다. 기업들의 인공지능 도입과 데이터 분석을 지원하는 컨설팅 및 훈련, 엔터프라이즈 수준의 지원 서비스 등도 제공하여 기업의 AI 비지니스 도입을 촉진한다.
Apollo 6500 Gen10은 엔비디아의 Teslta V100/P100/P40 또는 AMD의 Radeon Insitinct MI25를 최대 8기 탑재할 수 있다. CPU-GPU 간의 버스 접속은 NVLink와 PCIe x8 2종류를 지원하고 PCIe 접속의 경우 1CPU에 대한 4개(4:1) 또는 8개(8:1) GPU를 접속할 수 있다. NVLink를 이용함으로써 기존 모델(PCIe)보다 약 3배의 산출량을 실현했고, PCIe 접속의 4:1/8:1의 접속 토폴로지 전환을 물리적 변경 필요없이 BIOS 설정으로만 가능한 점도 특징이다.
또 Apollo 6500 Gen10의 메인보드는 ProLiant DL380 Gen10 서버와 동일한 사양으로 CPU는 최대 28코어/3.0GHz/165W의 Xeon Scalable Processors(Xeon-SP), 메모리는 2666MT/s DDR4 × 24(최대 3TB), 스토리지는 최대 SAS/SATASSD × 16 또는 NVMeSSD × 4, 100Gbps 인터 커넥트 어댑터(Mellanox Infiniband EDR 또는 Intel Omnipath)를 최대 4기 탑재할 수 있다.
이러한 성능 강화로 Gen10 모델과 TensorFlow, Caffe2 프레임 워크를 사용한 HPE 연구실 테스트에서 Gen9 보다 평균 3.12배 고속화가 실증됐다고 밝혔다. 또한 Apollo 6500 Gen10은 하드웨어 관리 기능 iLO 5, Ubuntu / CentOS 뿐만 아니라 Red Hat Enterprise Linux, SUSE Enterprise Linux 등을 지원한다.
HPE는 서버 신제품과 더불어 기업의 딥 러닝/AI 전략적 데이터 분석 도입을 지원하는 컨설팅 서비스로 HPE Artificial Intelligence Transformation Workshop 제공도 발표했다. 이 서비스는 HPE의 기술 서비스인 HPE Pointnext의 전문가가 기획 단계부터 시스템 아키텍처 수립, 실장, 운용까지 전체적으로 지원한다는 것으로써, 지난해 딥 러닝 처리에 최적의 기능/구성을 권장하는 툴 그룹 Deep Learning Cookbook을 발표하고 있는데 이번에 새롭게 Deep Learning Performance Guide가 추가됐다. 이는 HP Labs가 수집한 방대한 수의 도입 환경 벤치마크 측정치를 분석하여 실제 측정치를 해석, 워크 로드의 퍼포먼스를 평가하는 최적의 하드웨어/소프트웨어 스택을 권장하는 동시에 기존 하드웨어로 딥 러닝 처리를 진행할 경우 병목 검출에도 사용할 수 있다.
이들 새로운 도구/서비스와 함께 엔터프라이즈 수준의 각종 지원 서비스, 온 프레미스 환경을 종량제 과금 모델에서 이용할 수 있게 하는 HPE GreenLake 플렉스 캐퍼시티 등도 제공함으로써 높아지는 AI/딥 러닝 활용 요구를 지원한다.
'랩터 애널리시스' 카테고리의 다른 글
2018년 2분기 애플 실적, '모든 시장 환경을 무시한다' (0) | 2018.08.01 |
---|---|
HPE Aruba, WAN/LAN 일원 관리 솔루션 SD-Branch 발표 (0) | 2018.07.01 |
마이크로소프트 애저 기능 확장, 스피어/디도스 보호/보안 센터 등 (0) | 2018.05.06 |
퓨어 스토리지, 인공지능 딥 러닝 통합 인프라 AIRI 발표 (0) | 2018.04.11 |
마이크로소프트, 애저 PaaS 기반 Service Fabric 오픈 소스화 (0) | 2018.03.17 |