APAC 판매 2배 증가...일본·한국 기업들 독자 모델 개발 포기하고 오픈소스로 선회
소프트뱅크 데이터센터에 수십억엔 투자..."엔비디아보다 일주일 내 구현 가능"
소프트뱅크 데이터센터에 수십억엔 투자..."엔비디아보다 일주일 내 구현 가능"

"APAC 지역의 수요가 특히 올해 크게 증가했다"라고 토시노리 쿠지라오카 아시아태평양 부사장이 닛케이 아시아와의 인터뷰에서 말했다. 그는 삼바노바의 AI 서버 솔루션 판매가 아시아태평양 지역에서 2024년 대비 올해 두 배 빠르게 성장했다고 덧붙였다.
삼바노바는 엔비디아가 주력하는 GPU와는 다른 설계의 맞춤형 AI 칩을 사용한다. 이 맞춤형 실리콘은 AI 용도에 최적화되어 동일한 컴퓨팅 성능 대비 에너지 소비를 줄인다. 덕분에 회사는 더 경쟁력 있는 가격으로 제품을 제공할 수 있다. 삼바노바는 현장 AI 서버를 판매하고 클라우드를 통해 컴퓨팅 성능을 제공한다.
맞춤형 칩 외에도 삼바노바의 AI 서버에는 메타의 라마(Llama) 또는 딥시크와 같은 오픈소스 모델이 탑재되어 있다. 회사 측은 고객이 일주일 내에 사전 훈련된 라마 모델을 구현할 수 있는 반면, 인기로 인해 엔비디아의 AI 칩을 구매하려면 1년 이상이 걸릴 수 있다고 주장한다.
쿠지라오카 부사장은 현장 서버를 제공할 수 있게 됨에 따라 기업들이 핵심 은행 시스템과 같이 기밀 정보나 민감한 고객 데이터를 처리하는 영역에서도 AI를 활용할 수 있게 됐다고 설명했다.
삼바노바는 최근 클라우드 서비스를 강화하기 위해 소프트뱅크그룹의 통신회사인 소프트뱅크가 소유한 비공개 데이터센터에 수십억 엔을 투자했다. 쿠지라오카 부사장은 소프트뱅크 시설이 APAC 지역 수요를 감당하기 위한 컴퓨팅 센터 역할을 할 것이며, 회사는 계속해서 확장 기회를 모색할 것이라고 밝혔다.
그는 삼바노바가 배포하기 쉬운 AI에 대한 증가하는 요구를 충족하는 것을 목표로 한다고 말했다. "일본, 한국, 싱가포르의 기업들은 자체 생성형 AI 모델을 개발하려 시도했지만 이제는 뒤처지고 있다. 고액 연봉을 받는 엔지니어를 고용하고 있음에도 그들의 모델은 여전히 라마와 같은 오픈소스 대안의 정확성을 따라잡기 위해 고군분투하고 있다. 많은 기업들이 오픈소스 AI 모델 채택이 더 합리적인지 재고하기 시작했다."
일본의 한 주요 가전업체 AI 기술 직원은 닛케이 아시아와의 인터뷰에서 AI 챗봇의 기반 기술인 독점 기반 모델을 구축하는 것은 "높은 위험"이라고 말했다. 일반 직원보다 훨씬 높은 급여를 받는 12명 이상의 고임금 엔지니어가 필요하기 때문이다. "기술 발전이 너무 빨라서 일본에서 고용된 엔지니어가 실제로 회사에 장기적으로 머무를 수 있을지 의구심이 든다"고 그는 더붙였다.
쿠지라오카 부사장은 딥시크의 부상이 오픈소스 모델로의 전환을 가속화할 것이라고 전망했다. 이 중국 스타트업은 올해 초 미국 기업들보다 훨씬 적은 비용으로 오픈AI의 챗봇과 특정 기능에서 경쟁하며 기술 업계를 놀라게 했다. 이는 오픈AI와 같은 폐쇄형 모델의 기술 발전이 미래에도 시장 리더십을 유지할 수 있을지에 대한 의문을 제기한다.
삼바노바 시스템즈의 칩 설계 전략은 현재 AI 칩 시장을 지배하고 있는 GPU를 사용하지 않는 것이다. 대신 칩은 더 간소화된 방식으로 데이터를 처리하여 데이터가 칩 메모리에 저장되는 시간을 줄인다. 메모리 사용량은 칩 에너지 소비의 주요 원인이기 때문에 이 전략은 기존 GPU보다 더 빠르고 저렴한 AI 처리를 가능하게 한다는 설명이다.
이 스타트업은 2017년 로드리고 량과 스탠퍼드대 교수들이 설립했으며, 2021년 소프트뱅크 비전펀드로부터 투자를 받았다.
신민철 글로벌이코노믹 기자 shincm@g-enews.com