AMD 는 10월 10일(미국 서부 현지 시각) 미국 캘리포니아주 샌프란시스코에서 어드밴싱 AI 2024(Advancing AI 2024)를 개최하고, 5세대 AMD에픽(AMD EPYC) 서버용 CPU, AMD 인스팅트 MI325X(AMD Instinct MI325X) 가속기, AMD 펜산도 살리나 DPU(AMD Pensando Salina DPU), AMD 펜산도 폴라라 400 NIC(AMD Pensando Pollara 400 NIC) 및 엔터프라이즈 AI PC용 프로세서인 AMD 라이젠 AI 프로 300(AMD Ryzen AI PRO 300) 시리즈를 발표했다.
본 행사에서 AMD와 주요 파트너사는 AMD AI 솔루션을 대규모로 배포하는 방안과 AMD ROCm 개방형 AI 소프트웨어의 지속적인 생태계 성장에 대해 논의했으며, AMD 인스팅트 가속기와 에픽 CPU 및 라이젠 프로 CPU를 기반으로 하는 광범위한 새로운 솔루션 포트폴리오도 선보였다.
AMD의 리사 수(Lisa Su) CEO는, "데이터 센터와 AI는 AMD에 큰 성장 기회를 제공하고 있다. 고객군이 증가하는 가운데 에픽 및 AMD 인스팅트 프로세서에 대한 강력한 모멘텀이 형성되고 있다"라고 설명했다. 또한, "새로운 에픽 CPU, AMD 인스팅트 GPU 및 펜산도 DPU를 통해 고객의 중요하고 까다로운 워크로드를 구동하는 선도적인 컴퓨팅을 제공하고 있다. 앞으로 데이터 센터 AI 가속기 시장은 2028년까지 5,000억 달러 규모로 성장할 전망이다. 우리는 확장된 반도체 제품군, 소프트웨어, 네트워크 및 클러스터 수준 솔루션을 통해 대규모의 개방형 기술 혁신을 제공하고자 최선을 다하고 있다"라고 덧붙였다.
AMD는 AI, 엔터프라이즈, 클라우드 및 혼합 워크로드를 위한 광범위한 데이터 센터 솔루션 포트폴리오를 발표했다.
새로운 AMD 에픽 9005 시리즈 프로세서는 다양한 데이터 센터 요구 사항에 최적화된 컴퓨팅 솔루션을 구현하는 압도적인 성능을 제공한다. 최신 "젠 5(Zen 5)" 아키텍처를 기반으로 하는 본 제품군은 최대 192개의 코어를 탑재하며, 오늘부터 주요 OEM 및 ODM의 다양한 플랫폼에 탑재 및 공급된다.
AMD는 매년 새로운 AI 가속기를 공개하는 연간 제품 발표 주기에 따라 새로운 AMD 인스팅트 MI325X를 출시한다. 이 제품은 가장 까다로운 AI 워크로드를 지원하는 업계 최고 수준의 성능과 메모리 용량을 제공한다. AMD는 2025년 하반기에 출시될 예정인 차세대 AMD 인스팅트 MI350 시리즈 가속기에 대한 새로운 세부 정보도 공유했다. 차세대 제품은 더욱 용량의 메모리를 탑재하며 한층 확장된 생성형 AI 성능을 제공할 예정이다. 또한, AMD는 2026년 출시 예정인 AMD CDNA 넥스트(AMD CDNA Next) 아키텍처 기반의 AMD 인스팅트 MI400 시리즈 가속기 개발이 순조롭게 진행되고 있다고 발표했다.
AMD는 AMD ROCm 소프트웨어 스택을 지속적으로 개선해 다양한 인기 AI 모델에서 AMD 인스팅트 MI300X 가속기의 추론 및 학습 성능을 두 배로 높였다. 현재 100만 개가 넘는 모델이 AMD 인스팅트에서 바로 원활하게 실행 가능하며, MI300X 출시 당시 지원했던 수의 세 배에 달하는 주요 모델에 대한 데이제로 지원이 제공된다.
AMD는 AI 인프라와 관련해, 진화하는 시스템 네트워킹 요구 사항을 충족하고자 고성능 네트워킹 포트폴리오를 확장했다. CPU 및 GPU의 성능 극대화를 통해 전체 시스템에서 더욱 높은 성능과 확장성 및 효율성을 제공한다. AMD 펜산도 살리나 DPU는 AI 시스템용 고성능 프런트엔드 네트워크를 제공하며, 최초로 울트라 이더넷 컨소시엄(Ultra Ethernet Consortium, 이하 UEC)의 기술 표준을 지원 네트워크 인터페이스 컨트롤러(Network Interface Controller, 이하 NIC)인 AMD 펜산도 폴라라 400은 보다 손쉬운 성능 튜닝과 생산 시간 단축을 지원한다.
한편, 이번 행사에 참여한 다양한 AMD 파트너사는 AMD의 데이터 센터 솔루션을 활용해 최고 수준의 생성형 AI 기능을 구현하고, 수백만 명의 사람들이 매일 사용하는 클라우드 인프라를 제공하며, 선도 기업을 위한 온프레미스 및 하이브리드 데이터 센터를 구동하는 방법에 대해 설명했다.
AMD 인스팅트 MI300X 가속기는 2023년 12월 출시 이후 주요 클라우드 선도기업, OEM 및 ODM 파트너를 통해 대규모 배포되었으며, 오픈AI(OpenAI)의 챗GPT(ChatGPT), 메타 라마(Meta Llama) 및 허깅 페이스(Hugging Face) 플랫폼의 100만 개 이상의 오픈 소스 모델을 포함, 다양한 주요 AI 모델에서 매일 수백만 명의 사용자에게 서비스를 제공하고 있다.
구글(Google)은 AI ROI를 극대화하도록 설계된 슈퍼컴퓨팅 아키텍처인 AI 하이퍼컴퓨터(AI Hypercomputer) 사례를 포함해, AMD 에픽 프로세서가 AI, 고성능, 범용 및 기밀 컴퓨팅을 위한 다양한 인스턴스를 어떻게 지원하고 있는지 설명했다. 또한, 에픽 9005 시리즈 기반 가상머신(VM)이 2025년 초에 출시될 예정이라고 발표했다.
오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, 이하 OCI)는 AMD 에픽 CPU, AMD 인스팅트 가속기 및 펜산도 DPU를 활용하여 우버(Uber), 레드불 파워트레인(Red Bull Powertrains), 페이팔(PayPal) 및 파이어웍스 AI(Fireworks AI)와 같은 고객에게 빠르고 에너지 효율적인 컴퓨팅 및 네트워킹 인프라를 제공하는 방법을 공유했다. OCI는 에픽 9005 프로세서로 구동되는 새로운 E6 컴퓨팅 플랫폼도 공개했다.
데이터브릭스(Databricks)는 모델과 워크플로우가 AMD 인스팅트 및 ROCm에서 원활하게 실행되는 방식을 강조했으며, 자체 테스트 결과 AMD 인스팅트 MI300X GPU의 대용량 메모리와 컴퓨팅 기능이 라마와 데이터브릭스 독점 모델에서 성능을 50% 이상 개선하는 데 도움이 된다고 밝혔다.
마이크로소프트(Microsoft)의 사티야 나델라(Satya Nadella) CEO는 제품 공급 및 인프라 전반에 걸쳐 AMD와 오랫동안 협력하고 함께 혁신을 이루어 왔으며, MI300X는 마이크로소프트 애저(Microsoft Azure) 및 GPT 워크로드에서 강력한 성능을 제공한다고 강조했다. 양사의 CEO는 AMD 인스팅트 로드맵과 관련해, 긴밀한 파트너십에 대해 언급하고 마이크로소프트가 MI350 시리즈 등 차세대 AMD 인스팅트 가속기를 활용해 AI 애플리케이션에 대한 높은 가격대비, 전력대비 성능을 제공할 예정이라고 밝혔다.
메타(Meta)는 AMD 에픽 CPU와 AMD 인스팅트 가속기가 AI 배포 및 서비스 전반에 걸친 컴퓨팅 인프라를 구동하는 방법을 자세히 설명했으며, MI300X가 라마 405B에서 모든 라이브 트래픽을 제공한다고 언급했다. 또한, 반도체와 시스템 및 네트워킹에서 소프트웨어 및 애플리케이션에 이르기까지 AI 성능을 최적화하고자 AMD와 협력하고 있다고 강조했다.
OEM 부문의 선도 기업인 델(Dell), HPE, 레노버(Lenovo) 및 슈퍼마이크로(Supermicro)는 AI 시대의 데이터 센터 현대화를 목표로 설계된 새로운 플랫폼에 높은 성능과 에너지 효율성을 갖춘 AMD 에픽 프로세서 기반 라인업을 확장 도입하고 있다고 밝혔다.
AMD는 개방형 AI 생태계에 지속 투자하는 한편, 새로운 기능과 도구, 최적화 및 지원을 제공하는 등 AMD ROCm 개방형 소프트웨어 스택을 확장해 개발자가 AMD 인스팅트 가속기의 성능을 최대로 활용하는 한편, 최신 AI 모델에 대한 빠르고 손쉬운 지원을 제공할 수 있도록 한다. 에센셜 AI(Essential AI), 파이어웍스 AI(Fireworks AI), 루마 AI(Luma AI), 레카(Reka AI)의 담당자들은 AMD 하드웨어 및 소프트웨어에서 각 모델을 최적화하는 방안에 대해 설명했다.
아울러, AMD는 마이크로소프트, 오픈AI, 메타, 코히어(Cohere), xAI 등 AI 개발자 생태계 전반의 기술 리더가 참석한 개발자 이벤트도 개최했다. 트라이톤(Triton), 텐서플로우(TensorFlow), vLLM 및 페이지드 어텐션(Paged Attention), 패스트챗(FastChat) 등 AI 혁신을 주도하는 주요 AI 프로그래밍 언어, 모델 및 프레임워크의 개발자가 주최한 다수의 전문가 프레젠테이션이 진행되었다. 이를 통해, 개발자가 독립적인 프로그래밍 언어를 활용해 AI 성능 최적화하고 AMD 인스팅트 가속기에서 모델을 가속화하는 방법, ROCm 소프트웨어로 손쉽게 이식하는 방법에 대해 공유하고, 생태계가 개방형 소스 접근 방식을 통해 얻는 이점과 혜택에 대해서도 설명 및 강조했다.
AMD는 기업 환경에서 사용할 수 있는 최초의 머이크로소프트 코파일럿+(Microsoft Copilot+) 노트북 프로세서인 AMD 라이젠 AI 프로 300 시리즈를 발표했다. 라이젠 AI 프로 300 시리즈 프로세서 제품군은 기업 사용자를 위한 엔터프라이즈급 보안 및 관리 기능을 추가로 제공해 높은 성능과 배터리 수명 등 AMD의 업계 선도력을 한층 강화한다.
새로운 AMD "젠 5" 및 AMD XDNA 2 아키텍처를 탑재한 라이젠 AI 프로 300 시리즈 프로세서는 세계에서 가장 진보된 기업용 프로세서로, 탁월한 생산성과 동급 최고의 성능을 제공한다. 해당 제품군 중 라이젠 AI 9 HX 프로 375 프로세서는 업계 최고인 55 NPU TOPS의 AI 성능을 제공해 로컬 AI 작업 처리가 가능한다.
마이크로소프트는 윈도우 11 코파일럿+(Windows 11 Copilot+)과 라이젠 AI 프로 300 시리즈가 새로운 생산성 및 보안 기능, 차세대 AI 경험을 제공한다고 강조했다.
HP와 레노버를 비롯한 OEM 파트너는 라이젠 AI 프로 300시리즈 프로세서로 구동되는 새로운 PC를 통해 기업용 제품 포트폴리오를 확대하고 있으며, 2025년까지 100개 이상의 플랫폼을 출시할 예정이다.