페이스북 모회사 메타의 자체 제작 AI 칩 ‘메타 훈련·추론 가속기(MTIA)’./메타 제공 |
페이스북·인스타그램 모회사 메타가 자체 설계한 인공지능(AI) 반도체를 공개하면서 AI 인프라 분야 영향력을 확대하고 나섰다. 그간 메타의 AI 모델 ‘라마’는 구글·오픈AI·앤트로픽 등의 AI 모델과 비교해 성과가 부진하다는 평가를 받았지만, 회사는 자체 AI 칩과 대규모 데이터센터 건립, 스마트안경을 포함한 AI 하드웨어 기기를 중심으로 AI 생태계 전반에서 장악력을 높이는 전략으로 차별화를 꾀하고 있다.
이처럼 미국 빅테크간 AI 패권 경쟁의 중심이 AI 모델을 넘어 인프라 전반으로 옮겨가고 있다는 분석이 나온다. 강력한 AI 모델도 중요하지만, 대량의 AI 칩과 전력을 빠르고 안정적으로 확보해 데이터센터를 운영하고, 이를 산업 현장에 적용하는 역량이 AI 산업에서의 승패를 좌우할 핵심 경쟁력으로 부상했다. AI 기업들은 자체 AI 칩을 개발해 엔비디아 의존도를 낮추고, 반대로 AI 칩 강자인 엔비디아는 AI 모델과 플랫폼을 출시하는 등 각자 AI 산업 주도권 확보에 총력을 기울이고 있다.
13일 테크 업계에 따르면 메타는 자체 제작 AI 칩인 ‘메타 훈련·추론 가속기(MTIA)’ 제품군인 MTIA 300·400·450·500 등 4종을 지난 11일(현지시각) 선보였다. 이 가운데 MTIA 300은 이미 생산에 돌입했고, 나머지 3종은 추후 약 6개월 간격으로 생산해 내년까지 데이터센터에 배치할 계획이다. 이지운 송 메타 엔지니어링 담당 부사장은 “메타가 자체 설계한 칩을 대만 TSMC가 생산하는 구조”라고 설명했다.
메타가 발표한 AI 칩 개발 중장기 전략인 ‘MTIA 로드맵’에서 눈에 띄는 점은 신규 칩 출시 주기가 6개월로 짧다는 것이다. 일반적으로 반도체 기업들은 1~2년 주기로 새로운 AI 칩을 내놓는다. 메타는 “(AI 칩 개발보다 빠른) AI 기술 발전 속도에 신속하게 대응하고 최첨단 AI 칩 개발·배포 비용을 절감하기 위해” AI 칩 개발 주기를 6개월로 단축했다고 설명했다. MTIA 제품군은 모듈식 구조에 재사용이 가능하도록 설계했다.
또 자체 칩과 더불어 엔비디아·AMD의 그래픽처리장치(GPU) 등 외부 칩도 사용 목적에 맞게 병행해서 활용하는 ‘포트폴리오 접근 방식’을 택했다고 설명했다. 메타는 지난달 AMD와 1000억달러(약 143조원), 엔비디아와도 대규모 AI 반도체 공급 계약을 맺었다. 당시 “메타가 AI 반도체 자체 개발에 난항을 겪고 있다”는 보도가 나왔는데 이에 대해 메타는 “모든 요구를 하나의 칩으로 해결할 수 없고, 각각의 목적에 최적화된 여러 종류의 칩이 필요하다”며 우려를 일축했다.
대표적으로 메타가 이미 데이터센터에 수십만 개 배포해 사용 중인 MTIA 300은 페이스북, 인스타그램 등의 콘텐츠와 광고 관련 추론(inference) 작업에 최적화됐다. 메타는 “(GPU를 포함한) 범용 칩은 AI 모델 훈련에는 적합하지만, 추론 작업에 쓰기에는 비용 효율성이 떨어진다”며 “MTIA는 메타의 AI 워크로드에 맞게 설계됐기 때문에 R&R(랭킹과 추천)과 추론에 최적화됐다”고 했다.
업계에서는 장기적으로 AI 시장에서 학습보다 추론 수요가 더 빠르게 성장할 것으로 전망하고 있다. AI 모델이 충분히 고도화된 뒤에는 실시간 추론 비용이 기하급수적으로 증가하기 때문이다. 메타가 추후 선보일 MTIA 450과 500도 AI 추론 역량을 강화한 칩으로, 추론 성능의 핵심인 고대역폭메모리(HBM)의 대역폭과 용량을 크게 늘린 것이 특징이다.
앞서 마크 저커버그 메타 최고경영자(CEO)는 모든 사람에게 고성능 AI 비서를 제공하는 ‘개인용 초지능(personal superintelligence)’ 구현을 목표로 제시하고, 올해 AI 인프라에 1350억달러(약 195조원)를 투자하겠다고 밝혔다. 메타는 자체 칩 개발과 외부 칩 도입으로 고효율 추론 컴퓨팅을 구축하는 것이 개인용 초지능 구현을 위한 필수 단계라고 보고 있다. 그 일환으로 메타는 미국 루이지애나주에 270억달러를 투입해 2기가와트(GW)급 데이터센터, 인디애나주에 100억달러 규모의 1GW급 데이터센터를 건립 중이다.
메타 외 구글, 아마존 등 빅테크 기업들도 이미 자체 AI 칩 개발에 뛰어들었다. 구글은 2015년 선보인 AI 칩 텐서처리장치(TPU)를 최근 앤트로픽, 메타 등에 공급하는 대규모 계약을 체결했다. 아마존도 자체 개발한 ‘트레이니엄 칩’ 시리즈를 보유하고 있다. 이들은 자체 개발한 칩을 자사 데이터센터에 적용하는 데 그치지 않고 ‘엔비디아 GPU’의 대안으로 칩을 홍보하면서 외부 고객 확보에도 속도를 내고 있다. 구글은 TPU 판매를 확대하기 위해 사모펀드(PE)와 특수목적법인(SPV)을 설립하는 방안도 추진 중이다.
젠슨 황 엔비디아 최고경영자(CEO)./조선비즈DB |
AI 기업들이 탈(脫)엔비디아 행보를 이어가며 AI 인프라 분야에서 영향력을 확대하는 사이 AI 칩 대표주자인 엔비디아는 AI 모델을 선보였다. 엔비디아는 지난 12일 AI 에이전트 구동에 특화된 개방형 AI 모델 ‘네모트론3 슈퍼’를 공개했다. 복잡한 작업을 스스로 수행하는 AI 에이전트는 단순히 질문에 답하는 챗봇보다 데이터 처리량이 많이 연산 자원과 비용 부담이 크다. ‘네모트론3 슈퍼’는 필요에 따라 매개변수 1200억개 가운데 최소 120억개만 활용할 수 있도록 설계해 비용은 낮추고 효율은 높였다.
업계에서는 엔비디아가 자사 GPU 플랫폼의 시장 지배력을 공고히 하기 위해 AI 모델을 출시한 것으로 보고 있다. 엔비디아의 AI 칩에 최적화된 고성능 AI 모델을 제공하면 사용자들이 다른 칩을 사용하기 어려워지는 ‘록인(lock-in) 효과’를 기대할 수 있기 때문이다. 엔비디아는 ‘네모트론3 슈퍼’를 최신 AI 칩 ‘블랙웰’으로 구동하면 이전 세대 ‘호퍼’를 사용했을 때보다 추론 속도가 최대 4배 빨라진다고 설명했다.
엔비디아는 이날 네덜란드에 본사를 둔 네오클라우드 기업 네비우스와 전략적 파트너십을 체결하고 20억달러(약 2조9600억원)를 투자한다고 발표했다. 칩 개발을 넘어 AI 모델과 인프라까지 영향력을 넓히며 AI 산업 주도권을 확보하려는 행보로 풀이된다.
이재은 기자(jaeeunlee@chosunbiz.com)
<저작권자 ⓒ chosunbiz.com, 무단전재 및 재배포 금지>저작권자>















