스토리지 서버에 VDPU 탑재, 스토리지 DB화·장기기억 구현 [반도체레이다]
엔비디아 ICMS 호환 대응…"HBM 용량 한계·KV캐시 재활용 대안"
[디지털데일리 고성현기자] 국내 인공지능(AI) 반도체 설계 전문 기업(팹리스) 디노티시아가 AI 저장장치(Storage) 시장 공략에 나선다. 이를 위해 벡터DB를 구현하는 벡터데이터처리장치(VDPU)를 저장장치 서버와 통합해 차별화하고, 시장별 맞춤형 대응으로 속도를 내겠다는 방침이다.
정무경 디노티시아 대표는 3일 서울 강남구 콜럼버스 스페이스에서 기자간담회를 열고 "앞으로 데이터 소비를 사람이 아닌 AI가 하는 시대가 올 것"이라며 "올해 하반기 중 VDPU를 붙인 추론 특화 AI 스토리지 시스템을 출시하겠다"고 밝혔다.
디노티시아는 벡터DB 기술에 기반을 둔 반도체 팹리스다. 이를 구축하기 위한 소프트웨어와 반도체 칩 VDPU를 함께 개발하고 있다. VDPU를 CPU의 PCIe 슬롯에 탑재해 스토리지에 저장된 데이터를 벡터DB화해 효율성을 높이는 사업을 준비해 왔다.
여기서 더 나아가 저장장치 서버 랙(Rack)에 VDPU를 장착한 AI 스토리지 솔루션을 출시해 관련 시장으로 사업 영역을 확장하겠다는 목표를 세웠다.
당초 스토리지는 AI 인프라 내에서 상대적으로 중요성이 낮았다. 많은 용량을 휘발성 없이 담을 수 있다는 강점이 있지만 D램과 달리 데이터 이동속도가 현저히 낮아 직접 활용도가 떨어진다는 이유에서였다.
최근에는 단기 문맥 메모리인 KV 캐시(KV Cache)가 추론 시 급증해 고대역폭메모리(HBM) 부담을 키우고, 검색증강생성(RAG)에 활용되는 그래프DB 등 비정형 데이터가 확대되면서 저장장치 자체 고속화와 활용 방안 등이 활발히 논의되는 추세다.
디노티시아가 개발 중인 벡터DB는 생성형 AI의 정확성과 대규모 비정형 데이터 활용을 극대화하는 차세대 기술로 꼽힌다. 기존 DB는 단순 키워드 검색으로 데이터에 접근하는 탓에 단어만 같고 맥락이 다른 데이터를 참조하는 오류가 발생하기 쉽다. 반면 벡터DB는 의미가 유사한 것을 기반으로 검색하는 '시멘틱 서치(Semantic Search)' 방식으로 검색 정확도를 높일 수 있다.
정무경 대표는 "현재 AI는 거대언어모델(LLM)이 단독으로 서비스하는 게 아니라 AI 에이전트(Agent)가 데이터 검색을 하고, 이를 기반으로 LLM에 답을 만들기 위해 호출하는 방식"이라며 "데이터와 에이전트가 LLM에 항상 붙어 있고, 실시간 정보 제공이 가능한 RAG가 붙어 있는 구조"라고 설명했다.
그러면서 "앞으로는 데이터 소비를 AI가 하게 되면서 사람보다 수십만 배 빠른 속도로 스토리지 시스템에 있는 모든 데이터에 접근해 새로운 것을 만들어낼 것"이라며 "따라서 스토리지에 저장된 모든 데이터는 소스(Source)가 될 것이고, 이 규모는 상상을 초월할 정도로 커질 것"이라고 강조했다.
문제는 막대한 데이터의 양이다. AI가 스토리지에 저장된 모든 데이터를 검색 대상으로 삼게 되면서 실시간으로 활용해야 할 외부 데이터 규모가 크게 늘어난다. 여기에 추론 과정에서 발생하는 KV 캐시까지 더해지면 처리해야 할 데이터는 더욱 방대해진다. 이처럼 검색과 메모리 관리에 필요한 연산량이 급증할 경우 기존 범용 프로세서 기반 구조로는 부담이 커질 수밖에 없다는 뜻이다.
정 대표는 "정제된 데이터만을 DB에 담았던 과거와 달리 스토리지와 DB의 경계가 희미해질 것이다. 결국 스토리지 시스템이 곧 AI의 지식 계층이 되는 것"이라며 "따라서 VDPU로 스토리지 시스템을 의미 기반 검색 대상으로 삼은 시스템을 구축하는 것이 목표"라고 전했다.
또 AI 스토리지 구축 시 LLM이 살리지 못했던 개인화 강점을 강화할 수 있다는 점도 강조했다. AI 스토리지로 RAG 시스템이 가져오는 외부 지식과 사용자와 AI간 소통 흐름을 축적한 장기 기억, 추론 과정에서 문맥을 유지하는 단기 작업 메모리(KV 캐시)를 통합 관리하겠다는 의미다.
이렇게 되면 고대역폭메모리(HBM)에 부담을 줘 삭제해 왔던 KV 캐시를 AI 스토리지에 저장해 재활용할 수 있다. 또 기존에 없었던 장기기억을 살려 사용자에 맞춤형 답을 제공하는 'AI 비서'의 확실한 구현이 가능해진다.
디노티시아는 TSMC 12나노 공정 기반 VDPU 1세대(V1)를 장착한 AI 스토리지 솔루션을 올해 하반기에 출시한다. 기능을 고도화한 VDPU 2세대(V2)를 2028년 출시해 스토리지 시장 공략에 나설 계획이다. VDPU V2에는 KV 캐시를 압축해 HBM 부담을 줄이는 기능이 더해진다. 아울러 엔비디아가 올해 'CES 2026'에서 공개한 추론 문맥 메모리 스토리지(ICMS) 서버에 VDPU를 넣어 정보를 압축·가속화하는 기능도 추가할 계획이다.
국내와 해외 시장에 대한 공략도 맞춤형으로 대응할 방침이다. 해외 시장에서는 델EMC, 넷앱, IBM스토리지 등 스토리지 업체에 VDPU를 공급해 시장 진입에 도전하는 한편, 국내에서는 국책 과제를 기반으로 직접 AI 스토리지를 만들어 공급하겠다는 계획을 내놨다.
정무경 대표는 "5년 내 AI가 데이터에 접근하는 빈도가 5000배가 늘어나고, AI 스토리지 시장이 2033년 2830억달러(약 417조원)까지 성장할 수 있다는 전망이 나오는 중"이라며 "반면 국내 민간 부문 전체 스토리지 시장은 1%도 국내 제품이 차지하지 못한 만큼, 국내 메모리 경쟁력의 강점을 살려 AI 스토리지 시장을 공략하겠다"고 말했다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
아디다스삼바
여자남자운동화














