HPE(NYSE: HPE)는 최신 AI 시스템 제조 시설 중 한 곳에서 열린 AI 데이(AI Day) 행사에서, 대규모 AI 배포 시 에너지 및 비용 효율성을 극대화할 수 있는 업계 최초의 100% 팬리스 직접 수냉 방식(Fanless Direct Liquid Cooling, Fanless DLC) 시스템 아키텍처를 발표했다. 이번 행사를 통해 기업, 정부, 서비스 제공업체, 모델 제작자 등 다양한 분야에서 HPE만의 AI 전문성과 리더십을 선보였다.
비록 차세대 가속기의 효율성이 향상되고 있지만, AI 채택의 증가로 전력 소비는 계속해서 늘어나 기존의 냉각 기술의 한계를 초과하고 있다. 이에 따라, 대규모 AI 워크로드를 운영하는 조직들은 더 효율적인 냉각 기술을 필요로 하고 있다. 차세대 AI 시스템을 냉각하는 최적의 방법은 HPE의 업계 선도적인 DLC를 활용하는 것이다. 이 중요한 냉각 기술 덕분에 HPE의 시스템은 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 Green500 리스트의 상위 10대 슈퍼컴퓨터 중 7대를 제공했다.
시스템 아키텍처는 아래 네가지 핵심 요소를 기반으로 설계되었다:
GPU, CPU, 풀 서버 블레이드, 로컬 스토리지, 네트워크 패브릭, 랙/캐비닛, 팟/클러스터, 냉각분배장치(Coolant Distribution Unit, CDU)을 포함하는 8가지 요소 냉각 설계
복잡한 컴퓨팅 및 냉각 시스템의 성공적인 배포를 지원하기 위한 철저한 테스트, 모니터링 소프트웨어, 현장 서비스를 포함한 고집적도 및 고성능 시스템 설계
저비용 및 저전력 연결을 통합하여 대규모 확장을 지원하는 통합 네트워크 패브릭 설계
가속기 선택의 유연성을 제공하는 개방형 시스템 설계
100% 팬리스 직접 수냉 방식(Fanless DLC) 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감하는 특별한 이점을 제공한다. 이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며, 해당 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여, 바닥 면적을 절반으로 줄일 수 있다.
이러한 HPE만의 노하우를 바탕으로 설계된 HPE의 100% 팬리스 DLC 아키텍처는 이미 대규모 생성형 AI를 구축하는 조직들이 누리고 있는 비용 및 에너지 효율성의 이점을 더 많은 조직들이 누릴 수 있도록 한다.