구글 클라우드는 LG AI연구원이 구글 클라우드의 AI 최적화(AI-optimized) 인프라 및 솔루션을 기반으로 자사의 생성형 AI 모델 EXAONE의 최신 버전인 EXAONE 3.0과 엔터프라이즈 AI 에이전트 ChatEXAONE을 구축했다고 밝혔다.
LG AI연구원은 지난 7일 차별적 성능과 경제성을 갖춘 EXAONE 3.0 모델을 새롭게 선보였다. EXAONE 3.0은 온디바이스 AI에 들어갈 초경량 모델부터 범용 목적의 경량 모델, 전문 분야에 특화되거나 깊이 있는 연구를 위한 고성능 모델까지, 활용 목적에 맞춰 다양한 사이즈의 모델 라인업으로 구성된다. 이와 함께 기업 구성원의 생산성을 향상하고 전문가 수준의 인사이트를 제공하는 ChatEXAONE도 공개했다.
LG AI연구원은 EXAONE 개발 초창기부터 구글 클라우드와 긴밀한 협력을 지속해 왔다. 2021년에는 EXAONE 1.0 모델의 개발 및 학습 고도화를 위해 업계에서 탁월한 수준의 속도와 확장성을 제공하는 구글 클라우드 TPU를 도입하고, AI 모델 학습에 소요되는 시간을 효과적으로 단축하고 보다 효율적인 모델 학습 프로세스를 구축했다. EXAONE 3.0 개발 시기에는 구글 클라우드 GPU를 추가로 도입하면서 학습과 추론을 위한 호환성을 향상하고, 아키텍처를 유연하게 변환하며, 애자일한 AI 모델 학습 인프라를 조성할 수 있었다.
특히 LG AI연구원은 EXAONE 1.0 공개 이후 AI 모델 경량화 기술 연구개발과 비용 효율화에 집중했는데, 구글 클라우드의 AI 최적화 인프라가 이러한 목표를 달성하는 데 크게 기여했다. LG AI연구원이 오픈소스로 공개한 EXAONE 3.0 7.8B 모델은 EXAONE 3.0 모델 중 가장 높은 활용도를 지닌 경량화 모델이다. EXAONE 3.0 7.8B Instruction Tuned 언어 모델은 이전 모델(EXAONE 2.0) 대비 추론 처리 시간은 56%, 메모리 사용량은 35% 줄이고, 구동 비용은 72% 절감하며 성능과 경제성을 모두 잡았다. 성능 측면에서도 한국어와 영어를 학습하고 이해할 수 있는 이중언어(Bilingual) 모델인 EXAONE 3.0은 한국어 성능도 세계 최고 수준을 기록했다.
EXAONE 3.0 모델과 이를 기반으로 하는 ChatEXAONE의 학습 및 운영은 구글 클라우드에서 진행된다. 특히 엔터프라이즈 AI 에이전트인 ChatEXAONE은 LG그룹의 여러 계열사에서 보유하고 있는 기업 내 데이터베이스나 다양한 외부 도구와 연결돼야 하는데, 이러한 모든 과정이 구글 클라우드의 빠르고 원활한 MLOps 파이프라인에서 운영된다.
대형 전지 및 디스플레이, 5G 등 국가 핵심 기술을 다루는 계열사를 고객으로 두고 있는 LG AI연구원에게 보안은 매우 중요한 요소다. 구글 클라우드는 뛰어난 개인정보보호, 보안 및 컴플라이언스 역량을 갖췄으며 구글 클라우드에 기본적으로 탑재된 데이터 거버넌스와 데이터 프라이버시 제어 기능으로 고객의 데이터를 보호한다. 이를 통해 기업이 데이터에 대한 제어권을 갖도록 지원한다.
LG AI연구원은 지속적인 EXAONE 모델 개발을 위해 구글 클라우드의 AI 인프라 사용 확장을 적극적으로 검토하고 있다. 양사는 가까운 시일 내 구글 클라우드 AI 마켓플레이스에 EXAONE 3.0을 제공하고 구글 클라우드의 다른 고객사를 대상으로 LG AI연구원의 AI 모델을 소개하는 등 비즈니스 협력을 더욱 확대할 계획이다. 이외에도 엔터프라이즈 AI 에이전트 및 RAG 수요 증가에 대응하기 위해 개발 과정을 간소화하고 개발자 친화적인 API 개발 방안을 모색 중이다.