본문 바로가기

소소한 이야기

LG 엑사원: 하이브리드 AI 강자와 B2B 생태계 전략에 대한 심층 분석

반응형

I. Executive Summary

본 보고서는 LG AI연구원이 개발한 초거대 AI 모델 '엑사원(EXAONE)'에 대한 포괄적이고 심층적인 분석을 제공한다. 엑사원은 단순한 대규모 언어 모델(LLM) 경쟁의 참여자를 넘어, LG 그룹의 미래 성장 동력인 AI, 바이오, 클린테크(ABC) 사업의 핵심축으로서 치밀하게 설계된 B2B(기업 간 거래) 전략의 중심에 있다. 이 전략은 기술적 비용 효율성, 전략적 오픈웨이트(Open-weight) 생태계, 그리고 목표 산업군과의 파트너십이라는 세 가지 핵심 요소를 통해 글로벌 하이퍼스케일 경쟁자들과 차별화되는 견고한 시장 입지를 구축하고 있다.

보고서의 핵심 분석 결과는 다음과 같다.

  • 진화 경로: 엑사원은 초기 버전인 1.0의 거대 파라미터 모델에서 출발하여, 3.0 버전 이후로는 기업 도입에 필수적인 비용 대비 성능을 최우선으로 고려한 작고 고도로 최적화된 모델 포트폴리오로 전략적으로 진화했다. 이는 AI 기술의 실용성과 상업적 가치를 극대화하려는 LG의 명확한 방향성을 보여준다.  
     
  • 기술적 차별성: '엑사원 딥(EXAONE Deep)'의 출시와 '엑사원 4.0'의 하이브리드 추론 아키텍처 도입은 고부가가치 영역인 '추론 AI(Reasoning AI)' 시장에 대한 본격적인 진출을 의미한다. 특히 수학 및 과학 분야에서는 더 큰 규모의 경쟁 모델을 능가하거나 대등한 벤치마크 성능을 입증하며 기술적 우위를 확보했다.  
     
  • 생태계를 통한 해자 구축: 엑사원 생태계를 구성하는 '엑사원 디스커버리(Discovery)', '엑사원 아틀리에(Atelier)', '챗엑사원(ChatEXAONE)', '엑사원 데이터 파운드리(Data Foundry)'는 개별적인 도구의 집합이 아니라, R&D 가속화부터 창의적 아이디어 발상에 이르기까지 특정 산업의 고부가가치 문제를 해결하기 위해 수직적으로 통합된 솔루션 스위트(Suite)다.  
     
  • 전략적 동맹: AI 반도체 스타트업 퓨리오사AI(FuriosaAI)와의 하드웨어 협력, 프렌들리AI(FriendliAI)를 통한 API 배포, 런던증권거래소그룹(LSEG)과의 산업 적용 파트너십은 실리콘부터 서비스 제공에 이르는 전체 가치 사슬을 통제하려는 전방위적 접근 방식을 명확히 보여준다.  
     

궁극적으로 LG의 '에이전틱 AI(Agentic AI)' 및 '피지컬 AI(Physical AI)' 로드맵은 단순한 미래 비전을 넘어, 제조 및 가전 분야에서 LG가 가진 독보적인 강점을 활용하여 디지털 지능과 현실 세계의 상호작용을 연결하는 실현 가능한 장기 전략이다.  

 

II. 엑사원의 탄생과 진화: 규모에서 효율성으로의 전략적 여정

2.1. 첫 번째 승부수: 엑사원 1.0 (2021)

2021년 12월, LG AI연구원은 3000억 개의 파라미터, 6000억 개의 말뭉치, 2억 5000만 개의 고해상도 이미지로 학습된 '엑사원 1.0'을 공개하며 초거대 AI 시장에 본격적으로 뛰어들었다. 당시 업계는 '더 큰 모델이 더 나은 모델'이라는 패러다임이 지배하고 있었으며, 파라미터 수는 기술력과 잠재력을 가늠하는 핵심 지표로 여겨졌다.  

 

엑사원 1.0의 출시는 단순한 기술 공개 이상의 의미를 지녔다. 이는 즉각적인 상업적 성공보다는, 글로벌 기술 대기업들과 어깨를 나란히 할 수 있는 AI 플레이어로서 LG의 존재감을 각인시키기 위한 '신뢰성 확보' 전략이었다. 3000억 개라는 압도적인 파라미터 규모는 AI 분야에 대한 LG 그룹의 장기적인 비전과 막대한 투자 의지를 시장에 명확히 전달하는 신호였다. 이를 통해 LG는 세계 최고 수준의 AI 연구 인재를 유치하고, 향후 기술 개발과 사업화를 위한 강력한 기반을 마련할 수 있었다. 즉, 엑사원 1.0은 LG의 AI 여정의 시작을 알리는 상징적인 투자이자, 인재와 명성을 확보하기 위한 전략적 포석이었다.  

 

2.2. 실용적 전환: 엑사원 2.0과 멀티모달 및 비용 효율성 집중

엑사원 1.0이 규모를 통해 존재감을 알렸다면, 2023년 7월에 공개된 '엑사원 2.0'은 실용성과 비용 효율성에 초점을 맞춘 전략적 전환을 보여주었다. 이 모델은 4500만 건의 특허 및 논문과 같은 전문 문헌과 3억 5000만 장의 이미지-텍스트 쌍 데이터를 집중적으로 학습하여, 범용 지식을 넘어 특정 도메인에 특화된 고품질 데이터의 중요성을 강조했다.  

 

가장 주목할 만한 변화는 경제성 확보였다. LG AI연구원은 엑사원 2.0의 언어 모델 추론 처리 시간을 25% 단축하고 메모리 사용량을 70% 줄여, 1.0 대비 비용을 78% 절감하는 데 성공했다. 이미지 생성 모델 역시 추론 시간을 83% 줄이고 비용을 66% 절감하며, 초거대 AI의 고질적인 문제였던 높은 운영 비용을 해결하기 위한 노력을 구체적인 수치로 증명했다.  

 

이와 함께, 엑사원의 핵심 기술을 실제 산업 현장에 적용하기 위한 세 가지 전문 플랫폼이 처음으로 모습을 드러냈다. 전문가용 질의응답 서비스인 '엑사원 유니버스(Universe)', 과학 R&D를 위한 '엑사원 디스커버리(Discovery)', 창작 활동을 지원하는 '엑사원 아틀리에(Atelier)'가 그것이다. 이는 기초 모델 개발을 넘어, 이를 구체적인 산업 솔루션으로 변환하려는 LG의 B2B 전략이 본격화되었음을 시사하는 중요한 단계였다.  

 

2.3. 민주적 전환: 엑사원 3.0과 오픈소스 전략

2024년 8월, LG는 '엑사원 3.0'의 78억 파라미터 경량 모델을 오픈소스로 공개하며 국내 AI 생태계에 큰 파장을 일으켰다. 이는 국내 대기업이 자체 개발한 고성능 AI 모델을 상업적 제한이 없는 형태로 공개한 첫 사례로, LG의 AI 전략이 한 단계 더 진화했음을 보여주었다.  

 

이러한 오픈소스 전략은 메타(Meta)가 '라마(Llama)' 모델을 통해 성공적으로 구사한 생태계 확장 전략과 맥을 같이 한다. LG는 단순히 모델을 제공하는 것을 넘어, 외부 연구 생태계를 활성화하고 커뮤니티와의 협력을 통해 기술 혁신을 가속화하고자 했다. 이 결정의 배경에는 B2B 상용화 전략과의 긴밀한 시너지가 자리 잡고 있다.  

 

오픈소스와 B2B 전략은 별개가 아닌, 상호 보완적인 관계에 있다. LG는 오픈소스 모델을 통해 대학, 스타트업, 개인 개발자들이 엑사원 아키텍처에 익숙해지고, 이를 기반으로 다양한 실험과 개념 증명(Proof-of-Concept)을 진행하도록 유도한다. 이 과정에서 엑사원의 성능과 가능성을 체감한 개발자들은 자연스럽게 LG의 상용 솔루션에 관심을 갖게 된다. 즉, 오픈소스 모델은 일종의 '체험판' 역할을 하며, 더 강력한 성능과 보안, 전문적인 지원을 제공하는 320억 파라미터급 상용 모델이나 '챗엑사원', '엑사원 온프레미스(On-Premise)'와 같은 엔터프라이즈 플랫폼으로 전환할 잠재 고객군을 형성하는 강력한 유입 경로가 된다. 결국, 오픈소스 공개는 저비용으로 개발자 커뮤니티와의 관계를 구축하고, 엑사원 기술의 표준을 확산시키며, 최종적으로는 상업적 성공으로 이어지는 선순환 구조를 만들기 위한 고도로 계산된 전략적 행보다.  

 

2.4. 추론의 혁명: 엑사원 딥과 엑사원 4.0

LG의 AI 기술력은 '엑사원 딥(EXAONE Deep)'의 출시로 정점에 달했다. 2025년 3월 공개된 엑사원 딥은 수학, 과학, 코딩과 같은 복잡한 문제 해결에 특화된 '추론 AI' 모델로, LG가 단순한 언어 생성을 넘어 고차원적인 논리적 사고 능력을 갖춘 AI 개발에 성공했음을 의미한다. 엑사원 딥은 320억 개라는 비교적 적은 파라미터로 6710억 개의 파라미터를 가진 딥시크(DeepSeek)의 'R1'과 같은 거대 모델과 대등한 성능을 보였다. 특히 2025학년도 수능 수학 영역에서 최고점을 기록하고, 미국 수학 올림피아드 선발 시험인 AIME에서 높은 점수를 획득하며 그 성능을 입증했다.  

 

이러한 추론 기술의 발전은 2025년 7월, 국내 최초의 '하이브리드 AI' 모델인 '엑사원 4.0'의 공개로 이어졌다. 엑사원 4.0은 일반적인 LLM의 빠른 응답 생성 능력과 추론 AI의 깊이 있는 단계적 문제 해결 능력을 단일 아키텍처에 통합한 혁신적인 모델이다. 이로써 LG는 앤트로픽(Anthropic), 알리바바(Alibaba) 등 하이브리드 모델을 개척하고 있는 소수의 글로벌 기업들과 어깨를 나란히 하게 되었다. 엑사원 4.0은 LG가 단순한 추격자가 아닌, AI 기술의 미래 방향을 제시하는 선도자 그룹에 합류했음을 알리는 중요한 이정표다.  

 

III. 아키텍처 심층 분석: 기술의 내면

3.1. 핵심 기반: 현대적인 트랜스포머 아키텍처

엑사원 3.0 이후 모델들은 최신 트렌드를 반영한 디코더-온리(decoder-only) 트랜스포머 아키텍처에 기반한다. 이 아키텍처는 효율성과 성능을 극대화하기 위한 여러 핵심 기술을 포함하고 있다.  

 
  • Grouped Query Attention (GQA): 표준 멀티헤드 어텐션(Multi-Head Attention) 대비 메모리 대역폭 요구량을 줄여 추론 속도를 향상시키는 기술이다. 이는 여러 개의 쿼리 헤드가 하나의 키-밸류 헤드를 공유하는 방식으로, 특히 모델을 실제 서비스에 배포할 때 비용 효율성을 높이는 데 결정적인 역할을 한다.  
     
  • Rotary Position Embeddings (RoPE): 절대적인 위치 정보 대신 토큰 간의 상대적인 위치 정보를 인코딩하는 방식이다. 이를 통해 모델이 더 긴 시퀀스를 효과적으로 처리하고, 문맥의 길이에 따른 성능 저하를 완화할 수 있다.  
     
  • SwiGLU 활성화 함수: 기존의 ReLU나 GELU 함수보다 더 나은 성능을 보이는 것으로 알려진 활성화 함수를 채택하여 모델의 전반적인 표현력을 향상시켰다.  
     

3.2. 이중 언어의 강점: 한국어와 영어의 완벽한 조화

엑사원의 가장 큰 특징 중 하나는 한국어와 영어에 모두 능통한 이중 언어(bilingual) 모델이라는 점이다. 이는 단순히 두 언어를 지원하는 것을 넘어, 언어의 특성을 깊이 이해하고 최적화하기 위한 기술적 노력이 뒷받침되었기에 가능했다.

LG AI연구원은 102,400개의 어휘(vocabulary) 크기를 가진 맞춤형 토크나이저(tokenizer)를 개발했다. 이 토크나이저는 한국어와 영어 데이터를 효율적으로 처리하도록 설계되었으며, 특히 한국어에서 낮은 압축률을 보이는 것이 특징이다. 압축률이 낮다는 것은 단어당 생성되는 토큰의 수가 적다는 의미로, 이는 단어가 불필요하게 잘게 쪼개지는 '과잉 토큰화(over-tokenization)' 현상을 방지한다. 이를 통해 모델은 한국어의 교착어적 특성과 복잡한 형태소 구조를 더 근본적으로 이해하고, 미묘한 의미 차이까지 포착할 수 있게 된다.  

 

또한, 78억 파라미터 모델 학습에는 무려 8조(8T) 개에 달하는 방대한 토큰 데이터셋이 사용되었다. 이 데이터셋은 엄격한 필터링(규칙 기반, 머신러닝 기반, URL 기반 필터링, 중복 제거, 개인정보 제거 등)을 거친 고품질의 한국어 및 영어 데이터로 구성되어 있으며, 특허, 논문, 코드 등 전문 분야 데이터를 포함하여 모델의 지식 깊이를 더했다.  

 

3.3. 엑사원 4.0: 새로운 하이브리드 추론 아키텍처

엑사원 4.0은 LG의 기술적 야심이 집약된 모델로, 이전 버전과 차별화되는 혁신적인 하이브리드 아키텍처를 특징으로 한다.  

 
  • 하이브리드 추론 모드: 엑사원 4.0은 빠른 응답을 위한 '비추론(NON-REASONING) 모드'와 깊이 있는 분석을 위한 '추론(REASONING) 모드'를 단일 모델 내에 통합했다. 사용자는 토크나이저에서 enable_thinking=True 인자를 설정하는 것만으로 추론 모드를 활성화할 수 있다. 이 경우 모델은 <think> 태그로 시작하는 블록 내에서 문제 해결을 위한 단계적 사고 과정(chain-of-thought)을 수행한 후 최종 답변을 도출한다.  
     
  • 하이브리드 어텐션: 최대 128,000 토큰에 달하는 긴 문맥을 효율적으로 처리하기 위해 새로운 어텐션 메커니즘을 도입했다. 이는 전체 문맥을 보는 '글로벌 어텐션(full attention)'과 특정 구간에 집중하는 '로컬 어텐션(sliding window attention)'을 3:1 비율로 결합한 방식이다. 이 혁신적인 구조는 계산 비용을 크게 줄이면서도 긴 문서의 전체적인 맥락을 놓치지 않는 능력을 유지하게 해준다.  
     
  • QK-Reorder-Norm: 어텐션 및 MLP(Multi-Layer Perceptron) 출력에 직접 LayerNorm을 적용하고, Q(Query)와 K(Key) 프로젝션 직후에 RMSNorm을 추가하는 아키텍처 변경을 통해 다운스트림 태스크에서의 성능을 향상시켰다.  
     

이러한 기술적 진보는 아래 표에 요약된 바와 같이 엑사원 모델의 꾸준한 발전을 명확하게 보여준다.


표 1: 엑사원 모델 사양 매트릭스 (v3.0 - v4.0)

모델명 파라미터 수 아키텍처 유형 주요 아키텍처 특징 최대 문맥 길이 어휘 크기 지원 언어
엑사원 3.0 7.8B 78억 표준 GQA, RoPE 4,096 102,400 한국어, 영어
엑사원 3.5 32B 320억 표준 (장문) GQA, RoPE, Long-context 32,768 102,400 한국어, 영어
엑사원 딥 32B 320억 추론 특화 GQA, RoPE, Reasoning 32,768 102,400 한국어, 영어
엑사원 4.0 1.2B 12억 하이브리드 (온디바이스) 하이브리드 어텐션, 하이브리드 추론 128,000 102,400 한국어, 영어, 스페인어
엑사원 4.0 32B 320억 하이브리드 (전문가) 하이브리드 어텐션, 하이브리드 추론 128,000 102,400 한국어, 영어, 스페인어
출처:  
 
 
 
 
 

             

IV. 성능 분석 및 경쟁 포지셔닝

4.1. 벤치마킹 엑사원: 정량적 평가

엑사원은 다양한 글로벌 표준 벤치마크에서 그 성능을 입증하며, 특히 특정 전문 분야에서 세계 최고 수준의 경쟁력을 보여주었다.  

 
  • 추론 능력 (수학 & 과학): 엑사원의 가장 두드러진 강점은 추론 능력이다. 엑사원 4.0 32B 모델은 미국 수학경시대회 AIME에서 85.3점, 박사 수준의 과학 문제 해결 능력을 평가하는 GPQA-Diamond에서 75.4점을 기록했다. 특히 엑사원 딥 모델은 2025학년도 한국 수능 수학 영역에서 94.5점이라는 높은 점수를 획득하며, 훨씬 더 큰 파라미터를 가진 경쟁 모델들을 능가하는 성과를 보였다.  
     
  • 코딩 및 실제 사용 사례: 코딩 능력 평가 벤치마크인 LiveCodeBench에서 66.7점(v6 기준)을 기록했으며, 실제 사용자의 선호도를 반영하는 MT-Bench, Arena-Hard와 같은 벤치마크에서도 엑사원 3.0이 동급 모델 중 1위를 차지하며 실용성을 입증했다.  
     
  • 한국어 능력: 이중 언어 모델로서의 설계 철학은 한국어 특화 벤치마크에서 압도적인 성능으로 나타났다. KMMLU-Pro/Redux, KoMT-Bench 등에서 경쟁 모델들을 큰 차이로 앞서며, 한국어에 대한 깊이 있는 이해도를 증명했다.  
     

4.2. 정면 대결: 엑사원 대 세계

엑사원의 경쟁력은 글로벌 주요 모델들과의 직접적인 비교를 통해 더욱 명확해진다.

  • vs. OpenAI GPT-4o: 엑사원 4.0의 12억 파라미터 온디바이스 모델은 OpenAI의 GPT-4o mini를 수학, 코딩, 과학 등 특정 전문 분야에서 능가하는 성능을 보여주었다. 이는 LG가 작지만 강력한 경량 모델을 만드는 데 뛰어난 기술력을 가지고 있음을 시사한다. 더 큰 32B 모델은 추론 과제에서 GPT-4o와 경쟁하지만, 범용 벤치마크에서는 GPT-4o가 전반적으로 우위를 보인다.  
     
  • vs. Google Gemini 1.5 Pro: 두 모델은 서로 다른 철학을 보여준다. 제미니가 100만 토큰이라는 압도적인 컨텍스트 창을 통해 방대한 정보 처리에 집중하는 반면, 엑사원은 12만 8천 토큰이라는 충분히 큰 컨텍스트 창 내에서 하이브리드 추론 아키텍처와 비용 대비 성능을 극대화하는 데 초점을 맞추고 있다.  
     
  • vs. Naver HyperCLOVA X: 국내 시장의 가장 강력한 라이벌이다. 하이퍼클로바 X Think가 KoBALT-700과 같은 일부 한국어 이해력 벤치마크에서 강점을 보이는 반면, 엑사원 딥과 4.0은 수학, 과학과 같은 복잡한 추론 과제에서 명백한 우위를 점하고 있다. 이는 네이버가 검색과 일반 언어 능력에 강점을 두고 있는 반면, LG는 보다 기술적이고 전문적인 B2B 사용 사례를 목표로 하고 있음을 보여준다.  
     

아래 표는 주요 글로벌 LLM들의 성능을 정량적으로 비교하여 엑사원의 경쟁적 위치를 명확하게 보여준다.


표 2: 글로벌 LLM 벤치마크 비교 (추론 및 일반 성능)

모델 파라미터 수 MMLU-Pro (지식/추론) GPQA-Diamond (과학) AIME 2025 (수학) LiveCodeBench v6 (코딩) KMMLU-Pro (한국어)
엑사원 4.0 32B 320억 81.8 75.4 85.3 66.7 67.7
엑사원 딥 32B 320억 - 66.1 90.0 (AIME 2024) 59.5 -
OpenAI GPT-4o - - 53.6 76.6 90.2 (Natural2Code) -
Google Gemini 1.5 Pro - 81.9% (MMLU) 41.5 67.7% (MATH) 82.6% (Natural2Code) -
Naver HyperCLOVA X Think ~320억 (추정) - - - - - (KoBALT-700 48.9)
참고: 벤치마크 버전 및 평가 방식(e.g., shot 수)에 따라 점수가 다를 수 있음. GPT-4o와 Gemini의 일부 점수는 다른 벤치마크(Natural2Code, MATH)에서 가져왔으며, HyperCLOVA X는 공개된 벤치마크가 제한적임.            
출처:  
 
 
 
 
 

             

V. 엑사원 생태계: 기초 모델에서 응용 플랫폼으로

LG의 AI 전략의 핵심은 단순히 강력한 기초 모델을 개발하는 데 그치지 않고, 이를 실제 산업 현장에서 가치를 창출할 수 있는 전문 플랫폼으로 확장하는 데 있다. 엑사원 생태계는 이러한 비전을 구체화한 결과물이다.

5.1. 챗엑사원: 안전한 기업용 AI 에이전트

챗엑사원은 기업 환경에 특화된 AI 에이전트로, 보안과 전문성을 최우선으로 설계되었다. 실시간 웹 검색을 통한 정보 제공(RAG), 내부 문서 및 이미지 기반 질의응답, 코딩 지원, 데이터 분석 등 다양한 기능을 제공하며, 14개 직무와 133개의 업무에 최적화된 프롬프트를 추천하여 업무 효율성을 극대화한다.  

 

특히 '딥(Deep)' 기능은 복잡한 질문을 단계적으로 분석하여 심층적인 답변을 제공하고, '다이브(Dive)' 기능은 사용자가 검색 범위를 지정하여 신뢰도 높은 출처 기반의 답변을 얻게 해준다.  

 

가장 큰 차별점은 '보안'이다. 챗엑사원은 강력한 정보 암호화 및 개인정보 보호 기술을 적용하여, 기업 내부의 민감한 데이터를 유출 걱정 없이 안전하게 활용할 수 있도록 지원한다. 실제로 국가 핵심 기술 문서를 다룰 수 있는 ISO 인증을 획득하며, 금융, 법률, R&D 등 보안이 중요한 산업 분야에서 활용될 수 있는 기반을 마련했다. 이는 일반 소비자용 챗봇과 궤를 달리하는 명확한 기업용 포지셔닝이다.  

 

5.2. 엑사원 디스커버리: 과학 R&D의 가속화

엑사원 디스커버리는 신약 및 신소재 개발과 같은 과학 연구 분야에 혁신을 가져오기 위해 탄생한 플랫폼이다. 이 플랫폼의 핵심 기술은 '광학적 화학 구조 인식(Optical Chemical Structure Recognition, OCSR)'으로, 논문이나 특허에 포함된 텍스트뿐만 아니라 분자 구조식, 표, 이미지까지 직접 학습하여 데이터베이스로 변환할 수 있다. OCSR 기술은 기존 모델보다 100배 이상 높은 효율로 화학 구조를 인식하여, 방대한 과학 문헌을 AI가 이해할 수 있는 지식으로 바꾸는 역할을 한다.  

 

엑사원 디스커버리의 파급력은 실제 적용 사례에서 명확히 드러난다.

  • LG생활건강: 새로운 화장품 효능 성분 개발 과정에서 후보 물질을 발굴하는 데 평균 1년 10개월이 걸리던 작업을 단 하루로 단축시키는 성과를 거두었다. 이는 연구 개발의 패러다임을 완전히 바꾸는 수준의 혁신이다.  
     
  • LG화학: 배터리 첨가제와 같은 신소재 개발에 엑사원 디스커버리를 활용하여 연구 효율성을 높이고 있다.  
     
  • 서울대학교: 구글 딥마인드의 '알파폴드'를 넘어서는 차세대 단백질 구조 예측 AI를 공동 개발하는 프로젝트에 착수했다. 이는 정적인 단일 구조를 넘어 단백질의 다양한 동적 상태를 예측하는 것을 목표로 하며, 신약 개발의 정확도를 획기적으로 높일 것으로 기대된다.  
     

5.3. 엑사원 아틀리에: 인간과 AI의 창의적 협업 패러다임

엑사원 아틀리에는 창의적인 디자인 영역을 위한 멀티모달 AI 플랫폼이다. 저작권이 해결된 3억 5000만 장의 고품질 이미지-텍스트 쌍 데이터를 학습하여, 텍스트를 이미지로 만들거나(text-to-image) 이미지를 텍스트로 설명하는(image-to-text) 데 특화되어 있다.  

 

단순히 이미지를 생성하는 도구를 넘어, 엑사원 아틀리에는 디자이너의 '아이디어 파트너'로서 기능한다. 디자이너가 가진 아이디어를 시각화하고, 기존에 없던 새로운 이미지를 탐색하며 창의적 영감을 얻는 '디자인 씽킹 프로세스'를 지원하는 것이 핵심 철학이다. 이를 통해 광고 카피 제작, 제품 패키지 디자인, 소셜 미디어 콘텐츠 생성 등 다양한 분야에서 활용될 수 있다.  

 

LG는 뉴욕의 명문 디자인 스쿨인 파슨스(Parsons School of Design)와 협력하여 AI와 인간의 창의적 협업 워크플로우를 연구하고 있으며, 글로벌 이미지 플랫폼 셔터스톡(Shutterstock)과는 '캡셔닝 AI' 기능을 상용화하는 등 실제 비즈니스 모델을 구축해 나가고 있다.  

 

5.4. 맞춤화의 엔진: 데이터 파운드리와 온프레미스

기업이 AI를 성공적으로 도입하기 위해서는 각 기업의 고유한 데이터와 요구사항에 맞는 맞춤형 모델이 필수적이다. LG는 '엑사원 데이터 파운드리'와 '엑사원 온프레미스'를 통해 이 문제를 해결한다.

  • 엑사원 데이터 파운드리: 이 플랫폼은 기업의 AI 도입을 가로막는 가장 큰 장벽인 '고품질 학습 데이터 부족' 문제를 해결하는 'AI 공장'이다. 사용자가 내부 문서를 업로드하고 원하는 답변 스타일을 지정하면, AI 에이전트들이 자동으로 고품질의 미세조정(fine-tuning)용 데이터셋을 생성하고 평가한다. 이 과정은 기존에 전문가 60명이 3개월 동안 수행해야 할 작업을 단 한 명이 하루 만에 완료할 수 있게 만들어, 데이터 생산성을 1000배 이상 향상시키고 데이터 품질은 평균 20% 이상 개선하는 경이로운 결과를 보여준다. 국민연금공단과의 협력 사례는 데이터 파운드리로 튜닝한 모델이 전문가보다 더 정확한 답변을 제공했음을 입증하며 그 효과를 증명했다.  
     
  • 엑사원 온프레미스: 데이터 파운드리는 단순한 제품을 넘어, LG의 B2B 전략을 가속하는 '전략적 승수(Strategic Multiplier)' 역할을 한다. 기업 AI 도입의 가장 큰 진입 장벽인 데이터 준비 과정을 자동화함으로써, 고객들이 빠르고 효율적으로 맞춤형 AI를 구축할 수 있도록 지원한다. 이는 강력한 '락인(Lock-in)' 효과를 창출한다. 일단 데이터 파운드리를 통해 자사의 핵심 데이터로 맞춤형 AI 모델을 구축한 기업은 엑사원 생태계에 깊숙이 통합되며, 경쟁사 솔루션으로 전환하기가 매우 어려워진다. 이를 통해 LG는 단순한 모델 공급자를 넘어, 고객의 AI 전환을 함께하는 필수적인 기술 파트너로 자리매김하게 된다.
  • 엑사원 온프레미스: 이는 엑사원 모델, 데이터 파운드리, 그리고 퓨리오사AI와 같은 파트너사의 전용 AI 가속기를 결합하여, 기업의 독립된 환경에 안전하게 구축할 수 있는 턴키(turnkey) 솔루션이다. 이를 통해 기업들은 내부 데이터 보안에 대한 우려 없이 엑사원의 모든 기능을 활용할 수 있다.  
     

VI. 전략적 제휴와 생태계 구축

LG는 자체 기술력에만 의존하지 않고, 하드웨어부터 서비스 배포에 이르는 AI 가치 사슬 전반에 걸쳐 강력한 파트너십을 구축하며 생태계를 확장하고 있다.

6.1. 풀스택: 하드웨어와 인프라

  • 퓨리오사AI 파트너십: LG는 AI 반도체 스타트업 퓨리오사AI와 협력하여 전용 AI 어플라이언스를 개발했다. 퓨리오사AI의 'RNGD' 가속기는 엔비디아 GPU 대비 2.25배 높은 전력 대비 성능(performance-per-watt)을 제공하며, 이는 기업 고객에게 매우 중요한 총소유비용(TCO)을 획기적으로 절감시키는 요인이다. 이 파트너십은 특정 벤더에 대한 의존도를 낮추고, 엑사원 추론에 최적화된 하드웨어 솔루션을 제공하려는 전략적 선택이다.  
     
  • 클라우드 파트너십 (AWS, Google Cloud): 엑사원의 초기 개발은 아마존 웹 서비스(AWS)의 세이지메이커(SageMaker)와 같은 클라우드 인프라를 기반으로 이루어졌다. 이는 개발 및 대규모 학습에는 퍼블릭 클라우드의 유연성을 활용하고, 실제 배포 시에는 보안과 비용에 최적화된 온프레미스 솔루션을 제공하는 실용적인 하이브리드 전략을 보여준다.  
     

6.2. 시장 진출 및 접근성

  • 프렌들리AI 파트너십: LG는 엑사원 4.0의 상용 API 배포를 위해 프렌들리AI를 공식 파트너로 선정했다. 이를 통해 개발자나 기업은 고성능 GPU를 직접 보유하지 않고도 API를 통해 손쉽게 엑사원의 기능을 활용할 수 있다. 이는 기술 도입의 장벽을 낮추고 시장 침투를 가속화하는 중요한 전략이다.  
     
  • 허깅페이스를 통한 오픈소스 허브: 오픈웨이트 모델들은 세계 최대의 AI 개발자 커뮤니티인 허깅페이스를 통해 공개된다. 이는 모델의 인지도를 높이고, 전 세계 개발자들로부터 기술 검증과 피드백을 받으며, 엑사원 기반의 다양한 프로젝트가 자생적으로 성장하는 생태계를 조성하는 효과적인 방법이다.  
     

6.3. 사례 연구: 런던증권거래소그룹(LSEG)과의 금융 AI 협력

LG의 B2B 전략이 고부가가치 산업을 어떻게 공략하는지는 런던증권거래소그룹(LSEG)과의 파트너십에서 잘 드러난다. 양사는 LSEG가 보유한 방대한 금융 데이터, 뉴스, 공시 정보를 엑사원이 분석하여 투자 자산의 수익률 추세를 예측하고 관련 리포트를 생성하는 고도화된 금융 인텔리전스 서비스 개발을 목표로 하고 있다. 이는 엑사원이 복잡하고 전문적인 B2B 문제를 해결할 수 있는 잠재력을 보여주는 대표적인 사례로, 금융이라는 고부가가치 시장에 성공적으로 진입할 경우 엑사원의 상업적 가치를 크게 높일 수 있을 것이다.  

 

VII. 미래 궤적: 에이전틱 AI와 피지컬 AI로의 길

7.1. 로드맵 해독: 추론에서 에이전시로

LG AI연구원은 '에이전틱 AI'를 차세대 목표로 명확히 제시하고 있다. 에이전틱 AI는 단순히 주어진 명령을 수행하는 것을 넘어, 스스로 가설을 세우고, 추론하며, 목표 달성을 위해 자율적으로 의사결정을 내리는 시스템을 의미한다.  

 

이 비전은 단순한 선언에 그치지 않고, 현재 개발된 기술들과 긴밀하게 연결되어 있다. 엑사원 4.0의 하이브리드 추론 모드, 외부 도구를 호출할 수 있는 '펑션 콜링(Function Calling)' 및 '모델 컨텍스트 프로토콜(MCP)' 지원, 그리고 에이전트 행동 실행 능력을 평가하는 벤치마크에서의 경쟁력 확보는 모두 에이전틱 AI 시대를 열기 위한 핵심적인 기술적 기반이다.  

 

7.2. 궁극적인 목표: 피지컬 AI

LG가 그리는 최종적인 미래는 현실 세계를 인식하고, 추론하며, 상호작용할 수 있는 '피지컬 AI'의 구현이다. 이는 AI가 디지털 공간을 넘어 물리적 세계에 직접적인 영향을 미치는 기술로, LG 그룹의 본질적인 강점과 맞물려 강력한 시너지를 창출할 수 있는 영역이다.  

 

여기서 LG는 다른 AI 경쟁사들이 갖지 못한 독보적인, '불공정한 우위(Unfair Advantage)'를 가진다. 메타, 구글, OpenAI와 같은 소프트웨어 중심의 기업들은 자신들의 AI를 물리적 장치에 탑재하기 위해 외부 하드웨어 파트너를 찾아야 한다. 하지만 LG는 그 자체가 글로벌 가전, 전장 부품, 로봇 분야의 제조 강자다. LG는 이미 하드웨어 생산 라인, 글로벌 공급망, 유통 채널을 모두 확보하고 있다.  

 

엑사원 4.0의 12억 파라미터 온디바이스 모델 개발은 이러한 비전을 향한 구체적인 첫걸음이다. 장기적으로 엑사원은 LG의 스마트폰, TV, 냉장고, 자동차, 서비스 로봇 등 모든 물리적 제품에 내장되어 이들을 지능적으로 연결하는 '두뇌' 역할을 하게 될 것이다. 이는 엑사원을 단순한 소프트웨어 제품에서 LG 전체 포트폴리오의 핵심 경쟁력으로 격상시키는 전략이며, 순수 소프트웨어 기업들이 쉽게 모방할 수 없는 강력한 경제적 해자를 구축하게 될 것이다.  

 

7.3. 시장 영향 및 전략적 결론

LG의 엑사원은 수많은 기회와 도전에 직면해 있다. 한국 시장에서의 강력한 입지, 명확하고 방어적인 B2B 전략, 특정 전문 분야에서의 비용 대비 성능 우위, 그리고 피지컬 AI로의 독보적인 경로 등은 큰 기회 요인이다. 반면, 막대한 자금력을 갖춘 글로벌 거대 기업들과의 치열한 경쟁, 끊임없이 빠르게 혁신해야 하는 압박, B2B 생태계를 전 세계적으로 확장해야 하는 과제 등도 존재한다.

결론적으로, LG의 엑사원 전략은 범용 소비자 AI 시장에서의 정면 대결을 피하고, 대신 전문성과 경제성을 무기로 기업 시장을 공략하는 정교하고 차별화된 접근 방식이다. 강력한 추론 능력과 실용적인 생태계 솔루션을 바탕으로 엔터프라이즈 AI 시장의 강자로 자리매김하고, 궁극적으로는 그룹의 제조 역량과 결합하여 피지컬 AI 시대를 선도할 잠재력을 충분히 갖추고 있다. 엑사원은 LG가 미래 AI 산업의 지형을 바꾸는 데 핵심적인 역할을 수행할 것임을 명백히 보여주고 있다.