본문 바로가기

뉴스

SKT-파네시아, AI 데이터센터 연결 구조 혁신으로 비용·효율 개선...CXL 기반 AI 랙 구축 및 실증 나선다

댓글0
전자신문

SK텔레콤 및 파네시아 임원들이 전략적 파트너십 체결 후 기념촬영했다. 왼쪽부터 이재신 SKT 글로벌사업개발담당, 조용진 파네시아 CPO(최고제품책임자), 정명수 파네시아 CEO(최고경영자), 정석근 SKT AI CIC장, 정민영 SKT AIDC 솔루션 담당.


AI 인프라 링크솔루션 개발기업 파네시아(대표 정명수)는 스페인 바르셀로나에서 열린 MWC 2026에서 SK텔레콤과 'CXL 기반 차세대 AI 데이터센터 구조(아키텍처)' 공동 개발을 위한 전략적 파트너십(MOU)을 체결했다고 4일 밝혔다.

대규모 AI 서비스 성능을 높이기 위해 데이터센터에서는 고성능 GPU를 대량 도입하며 천문학적인 비용을 투자하고 있다. 이러한 흐름 속에서 SKT와 파네시아는 지속 가능한 확장을 위해 단순한 GPU 증설을 넘어, 같은 컴퓨팅 자원을 더욱 효율적으로 활용하는 기술의 중요성에 주목했다. 이에 양사는 이번 협업에서 CXL 기술 기반의 연결 구조 혁신을 통해 장비 추가 없이도 비용·효율을 동시에 개선하는 방안을 제시한다.

현대 AI 데이터센터에서는 CPU·GPU·메모리를 일정 비율로 고정 구성해 서버를 구축하고, 네트워크로 여러 개의 서버를 연결해 랙(Rack)을 구성한다. 이 랙 여러 개를 다시 한번 네트워크로 연결해 데이터센터를 구축하는 형태다. 그러나 AI 모델이 다양화·대형화되면서 이러한 구조는 비용 대비 성능 효율 측면에서 점차 한계를 드러내고 있다.

이 같은 한계를 극복하기 위해 양사는 서버 단위로 고정되는 구조의 틀을 깨고, 기존 네트워크 기반 연결을 CXL로 전환해 연결 방식을 혁신한다.

전자신문

SK텔레콤-파네시아 양사가 개발하는 CXL 기반 AI랙 개요도.


기존 AI 데이터센터는 CPU·GPU·메모리가 서버 단위로 고정된 구조로 운영됐다. 이 때문에 한 서버에서 특정 자원이 남아도 다른 서버에서 활용하기 어려웠다. 메모리가 부족해지면 실제로는 필요하지 않은 GPU까지 함께 늘려야 하는 비효율이 반복됐다. 이러한 구조는 GPU 활용률을 낮추고, AI 데이터센터 구축·운영 비용을 증가시키는 원인이 됐다.

양사는 이를 해결하기 위해 컴퓨팅 자원을 종류별로 분리(Disaggregation)하고, 이를 유연하게 조합하는 새로운 구조를 제안한다. CPU·GPU·메모리를 서버 단위로 고정하는 대신, 랙 단위에서 CXL 기반 패브릭 스위치를 통해 연결해 하나의 통합 시스템처럼 운영하는 방식이다. AI 서비스를 구동할 때 각 워크로드에 필요한 만큼 자원을 동적으로 조합해 할당함으로써, 불필요한 자원 낭비를 줄이고 비용 효율을 극대화하는 것이 핵심이다.

양사는 연결 방식을 바꿔 연산 효율 또한 개선한다. 기존 AI 데이터센터에서 GPU 협업 연산은 이더넷 등 범용 네트워크를 통해 데이터를 주고받으며 이뤄졌는데, 이 과정에서 데이터 복사와 소프트웨어 개입이 발생해 전체 성능이 저하되는 한계가 있었다.

양사는 이러한 문제를 해결하기 위해, 연산 과정에서 네트워크를 제거하고, CXL로 전환한다. CXL을 사용하면 네트워크를 거치지 않고 자원을 고속으로 연결할 수 있다. CXL 기반 구조 전환 핵심은 각 자원에 통합되는 '링크 컨트롤러'다. 링크 컨트롤러는 장치 간 효율적 데이터 전송을 돕는 전자부품으로, CPU·GPU·AI 가속기·메모리에 통합돼 해당 장치가 CXL을 기반으로 통신할 수 있도록 지원한다. 이를 통해 기존 네트워크 기반 구조에서 여러 차례 데이터 복사를 수반하던 전송 과정을 단순한 메모리 접근 동작으로 대체할 수 있다. GPU-GPU, GPU-메모리 간 데이터 전송을 소프트웨어 개입 없이 처리함으로써 처리 효율을 높인다. 결과적으로 동일한 GPU 자원을 사용하더라도 더 높은 성능을 달성할 수 있도록 한다.

이번 협력에서 SKT는 대규모 AI DC 구축·운영 역량과 AI 모델 개발 및 상용화 경험을 바탕으로 실제 상용 환경에 최적화된 구조 설계를 주도한다. 파네시아는 △물리적 연결의 중심이 되는 스위치 △논리적 통합을 담당하는 컨트롤러 등 링크 반도체 기술을 활용해 서버 내부에만 국한돼 있던 링크 구조를 랙 단위 이상으로 확장한다.

양사는 실제 AI 모델을 구동하며 GPU·메모리 활용률, 지연시간, 처리량 등을 종합적으로 검증한 뒤 올 연말까지 차세대 AI 데이터센터 구조를 공개할 계획이다. 이후 실제 대형 AI 데이터센터 환경에서 실증을 거쳐 상용화·사업화를 추진할 방침이다.

정석근 SKT AI CIC장은 “AI DC 경쟁력은 GPU 성능 경쟁을 넘어 메모리와 데이터 흐름까지 포함한 시스템 최적화에 달려있다”며 “이번 협력은 연산 성능이 높아져도 데이터 이동·공급이 이를 따라가지 못하는 구조적 병목인 '메모리 월(Memory Wall)'을 완화해 AI DC 성능과 경제성을 함께 끌어올릴 것”이라고 말했다.

정명수 파네시아 대표는 “차세대 AI 인프라는 개별 장비 성능이 아니라 다양한 링크 반도체가 만들어내는 '구조'가 성능을 좌우한다”며 “SKT와 함께 글로벌 시장이 주목할 고효율 AI 데이터센터 표준 모델을 제시하겠다”고 밝혔다.

김현민 기자 minkim@etnews.com

[Copyright © 전자신문. 무단전재-재배포금지]

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.

전자신문 주요뉴스

해당 언론사로 연결

이 기사를 본 사람들이 선택한 뉴스

  • 파이낸셜뉴스배경훈 과기정통부 장관 "디지털·AI 전환, 모두의 미래 좌우할 것"
  • 아주경제카카오테크 부트캠프 2기 수료… AI·클라우드 등 실무형 인재 양성
  • 플래텀파워테스크, 에이전틱 AI '아웃코드 에이전트' 론칭
  • 디지털데일리美 'AI 인프라 버블론' 투자 대비 실익 경고…韓 언제까지 'AI 수혜국'? [인더AI]
  • 뉴스1과기정통부, 첫 APEC 디지털·AI 장관회의 개최…선언문 채택

쇼핑 핫아이템

AD