엔비디아가 오라클(Oracle)과 함께 기업을 위한 AI와 데이터 처리 가속화를 지원한다고 밝혔다.
기업들은 AI 워크로드를 지원하고 데이터 처리를 가속화하기 위해 점점 더 강력한 컴퓨팅을 찾고 있다. 이를 통해 얻은 효율성은 AI 훈련과 미세 조정에 대한 투자 대비 더 나은 수익과 AI 추론을 위한 향상된 사용자 경험으로 이어질 수 있다.
지난 9일(현지시간) 미국 라스베이거스에서 열린 오라클 클라우드월드(Oracle CloudWorld) 콘퍼런스에서 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrasturcutre, OCI)는 엔비디아 블랙웰(Blackwell) 플랫폼으로 가속화된 최초의 제타스케일 OCI 슈퍼클러스터(Supercluster)를 발표했다. 이는 기업이 10만 개 이상의 엔비디아 최신 GPU를 사용해 차세대 AI 모델을 훈련하고 배포할 수 있도록 지원한다.
OCI 슈퍼클러스터를 통해 고객은 다양한 엔비디아 GPU 중에서 필요에 따라 선택할 수 있으며, 온프레미스, 퍼블릭 클라우드, 소버린 클라우드(sovereign cloud) 등 어디에나 배포할 수 있다. 내년 상반기에 출시될 예정인 블랙웰 기반 시스템은 최대 131,072개의 블랙웰 GPU를 RoCEv2 또는 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹용 엔비디아 커넥트X-7 NIC(ConnectX-7 NIC)으로 확장해 클라우드에 2.4제타플롭의 놀라운 AI 컴퓨팅을 제공할 수 있다.
오라클은 이번 행사에서 생성형 AI 애플리케이션을 지원하는 엔비디아 GB200 NVL72 수냉식 베어메탈 인스턴스도 미리 선보였다. 이 인스턴스는 퀀텀-2 인피니밴드를 통해 대규모 훈련이 가능하며, 확장된 72-GPU 엔비디아 NV링크(NVLink) 도메인 내에서 수조 개의 매개변수 모델을 실시간으로 추론할 수 있다. 이 도메인은 단일 대형 GPU처럼 작동할 수 있다.
올해 OCI는 NV링크와 NV링크 스위치(NVLink Switch)를 통해 엔비디아 HGX H200을 제공할 예정이다. 이는 단일 베어메탈 인스턴스에 8개의 엔비디아 H200 텐서 코어(Tensor Core) GPU를 연결하고, RoCEv2 클러스터 네트워킹을 통해 엔비디아 커넥트X-7 NIC로 65,536개의 H200 GPU까지 확장될 수 있다. 이 인스턴스는 대규모 실시간 추론을 제공하고 훈련 워크로드를 가속화하려는 고객에게 제공된다.
또한 OCI는 중급 AI 워크로드, 엔비디아 옴니버스(Omniverse)와 시각화를 위한 엔비디아 L40S GPU 가속 인스턴스의 정식 출시에 대한 소식도 발표했다.
단일 노드부터 멀티 랙 솔루션까지, 오라클의 엣지 오퍼링(edge offering)은 연결되지 않은 원거리에서도 엔비디아 GPU로 가속화된 엣지에서 확장 가능한 AI를 제공한다. 예를 들어, 오라클의 로빙 엣지 디바이스(Roving Edge Device) v2를 사용한 소규모 배포는 이제 최대 3개의 엔비디아 L4 텐서 코어 GPU를 지원한다.
기업들은 엔비디아 기반 OCI 슈퍼클러스터를 사용해 AI 혁신을 추진하고 있다. 예를 들어, 파운데이션 모델 스타트업인 레카(Reka)는 엔터프라이즈 에이전트 개발을 위한 고급 멀티모달 AI 모델을 개발하는 데 클러스터를 사용하고 있다.
오라클 자율운영 데이터베이스(Oracle Autonomous Database)는 고객이 오라클 자율운영 데이터베이스에서 데이터 처리 워크로드를 가속화할 수 있도록 오라클 머신 러닝 노트북에 대한 엔비디아 GPU 지원을 확보하고 있다.
양사는 오라클 클라우드월드에서 현재와 미래에 어떻게 엔비디아 가속 컴퓨팅 플랫폼을 사용해 성성형 AI 검색의 핵심 구성 요소인 검색 증강 생성(retrieval-augmented generation, RAG) 파이프라인을 가속화할 수 있는지 보여주는 3가지 기능을 시연했다.
첫 번째 데모에서는 오라클 자율운영 데이터베이스 서버리스 내에서 직접 대량 벡터 임베딩을 가속화해 엔터프라이즈 데이터를 AI에 효율적으로 가져오는 데 엔비디아 GPU를 사용하는 방법을 소개했다. 이러한 벡터는 오라클 데이터베이스 23ai의 AI 벡터 검색(AI Vector Serarch)을 사용해 검색할 수 있다.
두 번째 데모에서는 엔비디아 GPU, 엔비디아 래피즈 cuVS(RAPIDS cuVS), 오라클이 개발한 오프로드 프레임워크를 사용해 벡터 그래프 인덱스 생성을 가속화하는 기술실증(proof-of-concept) 프로토타입을 선보였다. 이는 효율적인 벡터 검색을 위한 인덱스를 구축하는 데 필요한 시간을 크게 단축한다.
세 번째 데모에서는 사용이 간편한 추론 마이크로서비스 세트인 엔비디아 NIM이 다양한 모델 크기와 동시성 수준에서 텍스트 생성과 번역 사용 사례에 대한 생성형 AI 성능을 어떻게 향상시킬 수 있는지를 설명했다.
이러한 새로운 오라클 데이터베이스 기능과 데모는 기업이 오라클 데이터베이스에 저장되거나 관리되는 정형, 비정형 데이터에 생성형 AI를 도입하는 데 엔비디아 GPU를 어떻게 사용할 수 있는지 보여준다.
엔비디아와 오라클은 협력을 통해 전 세계에 소버린 AI 인프라를 제공함으로써 정부와 기업의 데이터 레지던시 요구 사항을 해결하고 있다.
브라질에 위치한 스타트업 와이드랩스(Wide Labs)는 브라질 포르투갈어를 위한 최초의 거대 언어 모델(large language model, LLM) 중 하나인 아마조니아 IA(Amazônia IA)를 개발했다. 이들은 데이터 주권을 보장하기 위해 OCI의 브라질 데이터센터에서 엔비디아 H100 텐서 코어 GPU와 엔비디아 네모(NeMo) 프레임워크를 사용해 아마조니아 IA의 훈련과 배포를 진행했다.
컨설팅 서비스와 시스템 솔루션을 제공하는 일본의 글로벌 선도 기관 노무라종합연구소(Nomura Research Institute)는 엔비디아 GPU가 탑재된 OCI의 알로이(Alloy) 인프라를 사용하고 있다. 이를 통해 금융 규제와 데이터 주권 요건에 따라 운영되는 LLM을 통해 금융 AI 플랫폼을 강화하고 있다.
커뮤니케이션과 협업 서비스를 제공하는 기업인 줌(Zoom)은 현지 데이터 요건 준수를 지원하기 위해 OCI의 사우디아라비아 데이터센터에 엔비디아 GPU를 사용할 예정이다.
또한 지리공간 모델링 회사인 RSS-하이드로(RSS-Hydro)는 자사의 홍수 매핑 플랫폼에서 디지털 트윈을 사용해 일본 구마모토 지역의 홍수 영향을 시뮬레이션해 기후 변화의 영향을 완화하는 방법을 시연하고 있다. 해당 플랫폼은 엔비디아 옴니버스 플랫폼을 기반으로 하고, OCI의 L40S GPU로 구동된다.
이들 외에도 수많은 국가와 조직이 엔비디아와 OCI를 기반으로 자국 AI 애플리케이션을 구축하고 배포해 소버린 AI 인프라를 바탕으로 경제 회복력을 높이고 있다.
기업은 OCI의 확장 가능한 클라우드 솔루션과 함께 NIM 마이크로서비스와 엔비디아 cuOpt 등의 엔비디아 소프트웨어를 배포해 OCI에서 작업 자동화를 가속화할 수 있다. 이러한 솔루션을 통해 기업은 코드 생성과 경로 최적화와 같은 복잡한 작업을 수행하는 생성형 AI를 빠르게 도입하고 에이전트 워크플로우를 구축할 수 있다.
오라클 클라우드 마켓플레이스에서 제공되는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼에는 엔비디아 cuOpt, NIM, 래피즈 등이 포함된다.
엔비디아는 오라클 클라우드월드 2024(CloudWorld 2024)에서 오라클과의 협업을 통해 전 세계 조직에 AI와 가속화된 데이터 처리를 제공하는 방법을 소개했다.
이번 행사에서는 ‘엔비디아의 가속 컴퓨팅 플랫폼으로 AI 성능 활용하기’라는 주제의 솔루션 기조연설을 비롯해 기술 데모 등도 함께 진행했다.