HPE가 생성형 AI를 위한 슈퍼컴퓨팅 솔루션을 발표했다. 이 솔루션은 대기업, 연구기관 및 정부 기관을 대상으로 한 생성형 AI에 최적화되었으며, 이를 통해 프라이빗 데이터 세트를 활용하여 인공지능(AI) 모델의 훈련과 조정을 효율적으로 가속화할 수 있다.

HPE의 슈퍼컴퓨팅 솔루션은 소프트웨어 제품군을 통해 고객이 AI 모델을 훈련하고 조정하며 AI 애플리케이션을 개발하는 데 도움이 되는 기능을 한다. 더불어, 수냉식 슈퍼컴퓨터, 가속 연산, 네트워킹, 스토리지, 서비스를 포함하여 기업이 AI의 가치를 신속하게 실현할 수 있도록 종합적인 지원을 제공한다.
생성형 AI용 슈퍼컴퓨팅 솔루션의 핵심 구성요소는 AI 애플리케이션을 개발하고, 사전 구성된 모델을 맞춤화하며, 코드를 개발하고 수정하는 데 필요한 소프트웨어 도구이다. 이 소프트웨어는 HPE 크레이 슈퍼컴퓨팅 기술을 기반으로 하고 있다. HPE 크레이 슈퍼컴퓨팅 기술은 전 세계에서 가장 빠른 슈퍼컴퓨팅에도 사용되는 강력한 아키텍처를 기반으로 하고 있으며 엔비디아 그레이스 호퍼 GH200 슈퍼칩(NVIDIA Grace Hopper GH200 Superchips)으로 구동된다.
이러한 기술이 적용된 솔루션을 바탕으로 기업 및 기관들은 LLM(대규모 언어 모델, Large Language Model) 및 DLRM(딥러닝 추천 모델, Deep Learning Recommendation Model) 훈련과 같이 거대한 AI 워크로드에 필요한 전례 없는 규모와 성능을 구축할 수 있다. 또한 해당 시스템에 포함된 HPE 머신러닝 개발환경(Machine Learning Development Environment, MLDE)을 사용함으로써 오픈소스이자 700억개 매개 변수를 가진 라마(Llama) 2 모델을 3분 이내에 미세 조정할 수 있어 고객이 가치 창출에 이르는 시간을 바로 단축시켜준다. 이로써 엔비디아 기술과 함께 더욱 향상된 HPE 슈퍼컴퓨팅은 2-3배 더욱 향상된 성능을 제공한다.
생성형 AI를 위한 슈퍼컴퓨팅 솔루션은 목적에 맞게 구축된 통합형 AI 네이티브 제품으로 다음과 같은 엔드 투 엔드 기술 및 서비스를 제공한다:
AI/ML 가속화 소프트웨어 – 3개의 소프트웨어 툴이 포함된 제품군을 활용해 고객은 인공지능 모델을 훈련하고, 조정하며, 맞춤화된 AI 애플리케이션을 만들 수 있다.
HPE 머신 러닝 개발 환경(HPE Machine Learning Development Environment)은 머신 러닝 소프트웨어 플랫폼으로, 인기있는 머신 러닝 프레임워크와 통합하고 데이터 준비를 간소화해 AI 모델을 보다 빠르게 개발하고 배치할 수 있다.
엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)는 보안, 안정성, 관리 및 지원 기능을 기반으로 기업과 기관이 최첨단 AI 기술을 더 적극적으로 사용할 수 있도록 돕는다. 또한, 생산용 AI의 개발 및 배치를 간소화하는 광범위한 프레임워크, 사전 훈련된 모델과 도구를 제공한다.
HPE 크레이 프로그래밍 환경(HPE Cray Programming Environment) 세트를 통해 프로그래머들은 코드를 개발, 포팅, 디버깅, 정제할 수 있다.
확장에 적합한 설계 – 엑사스케일 수준의 시스템인 HPE 크레이 EX2500(HPE Cray EX2500)을 기반으로 업계 최고의 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 탑재한 해당 솔루션은 가치 실현 시간을 더욱 단축할 수 있도록 단일 AI 워크로드에 노드 전체 용량을 배치할 수 있으며, 최대 수천 개의 GPU까지 확장할 수 있다. 또한, 해당 시스템은 최초로 네 개의 GH200 수퍼칩 노드로 구성되어 제공된다.
실시간 AI를 위한 네트워크 – HPE 슬링샷 인터커넥트(HPE Slingshot Interconnect)는 엑사스케일 수준의 워크로드를 지원하도록 설계된 개방형 이더넷 기반 고성능 네트워크를 제공한다. HPE 크레이 기술을 기반으로 한 이 조정 가능한 상호연결은 매우 빠른 속도의 네트워킹을 가능하게 해 전체 시스템의 성능을 극대화한다.
간편한 턴키 방식 – 생성형 AI용 슈퍼컴퓨팅 솔루션에는 더욱 간편하게 AI를 도입할 수 있도록 설정, 설치에서 라이프사이클 전반을 지원하는 글로벌 전문가를 제공하는 ‘HPE 컴플리트 케어 서비스(HPE Complete Care Services)’도 포함된다.
한 연구에 따르면, AI워크로드의 성장에 따라 2028년에는 데이터센터 내에서 약 20기가 와트의 전력이 필요할 것으로 추정된다 . 이로 인해 고객은 탄소발자국의 영향을 최소화할 수 있도록 새로운 수준의 에너지 효율을 제공하는 솔루션을 필요로 할 것이다.
에너지 효율성은 HPE 컴퓨팅 이니셔티브의 핵심 요소로, HPE는 공랭식 솔루션에 비해 킬로와트 당 최대 20%까지 성능을 향상시켜줄 수 있고 전력 소비는 15% 감소시키는 수냉식 솔루션을 제공한다 .
현재 HPE는 세계에서 가장 효율적인 10대 슈퍼컴퓨터 중 다수의 시스템에 직접 액체 냉각 (Direct Liquid Cooling, DLC)기술을 지원한다. 직접 액체 냉각 기술은 생성형 AI용 슈퍼컴퓨팅 솔루션에 포함되어 연산 집약적인 애플리케이션의 에너지 소비를 줄이면서 효율적으로 시스템을 냉각한다.