닫기

글로벌이코노믹

"더 작고 빠르게"…생성형 AI, 크기보다 '효율성' 중시

글로벌이코노믹

ICT

공유
0

"더 작고 빠르게"…생성형 AI, 크기보다 '효율성' 중시

사진=유플래시이미지 확대보기
사진=유플래시
인공지능(AI)의 전력 소모를 낮추기 위한 경쟁이 시작되고 있다. 글로벌 IT 기업과 스타트업은 인간 수준의 지능을 모방하기 위한 거대한 AI 모델 대신 더 작고 빠르게, 효율성을 극대화하기 위한 방법을 찾아 나섰다.

7일(현지 시각) 월스트리트저널(WSJ) 보도에 따르면 경량(중소) 언어 모델 AI 개발이 활발해지는 모습이다. 해당 범주의 AI 소프트웨어는 더 적은 데이터로 훈련되며 특정 작업을 위해 설계되는 경우가 많다.
OpenAI의 GPT-4와 같은 가장 큰 모델은 크기를 측정한 1조 개 이상의 매개변수를 개발하고 사용하는 데 1억 달러 이상의 비용이 들었다. 더 작은 모델은 개별적인 전문 분야에 대해 훈련되며 100억 개 미만의 매개변수를 사용한다. 훈련에는 1000만 달러 미만의 비용이 들고 모델이 작을수록 컴퓨팅 성능이 적게 사용되므로 각 쿼리에 응답하는 데 비용이 적게 들어간다.

마이크로소프트는 생성형 AI에 수십억 달러를 투자한 최초의 빅테크 기업 중 하나였으며, 회사는 처음에 예상했던 것보다 운영 비용이 더 많이 든다는 것을 빠르게 깨달았다. 이에 마이크로소프트는 파이(Phi)라는 이름의 소형 모델 제품군을 선보였다. 사티아 나델라 최고경영자(CEO)는 "파이는 오픈AI의 챗GPT 무료 모델의 1/100 크기이며 대부분의 작업을 거의 똑같이 수행한다"고 설명했다.
유프 메흐디 마이크로소프트 최고사업책임자(CCO)는 "점점 더 다양한 모델이 등장하는 세상이 될 것"이라고 말했다. 마이크로소프트는 최근 검색 및 이미지 생성을 위해 수십 개의 AI 모델을 사용하는 AI 노트북을 출시했다. 해당 모델은 데이터가 거의 필요하지 않아, ChatGPT처럼 대규모 클라우드 기반 슈퍼컴퓨터에 액세스할 필요가 없다.

구글 뿐만 아니라 AI 스타트업인 미스트랄, 앤트로픽, 코히어 역시 올해 소형 모델을 출시했다. 애플은 지난 6월에 자체 AI 로드맵을 공개하면서 소형 모델을 사용해 휴대폰에서 소프트웨어를 더 빠르고 안전하게 실행할 수 있도록 하겠다는 계획을 발표한 바 있다. 대형 모델의 선봉에 섰던 오픈AI도 최근 운영 비용이 더 저렴하다는 플래그십 모델 버전을 출시했다. 오픈AI의 대변인은 앞으로 더 작은 모델을 출시할 수 있다고 말했다.

국내에서도 거대 언어 모델을 경량화한 모델을 속속들이 선보이고 있다. 네이버가 지난 4월 선보인 'HCX 대시(DASH)'는 하이퍼클로바X에 비해 5분의 1 수준의 가격으로 제공된다. 또한 효율적인 컴퓨팅 자원 활용을 기반으로 속도를 개선한 모델이다.

이외에도 LG에서 개발한 LLM 엑사원을 기반으로 한 LG유플러스의 sLLM(소형언어모델) KT의 초거대 믿음의 매개변수를 2100억개에서 40~70억개 수준으로 줄인 sLLM(개발 중) 등 각 기업이 경량화 모델 개발에 나서고 있다.

텔아비브에 본사를 둔 AI 회사인 AI21 Labs의 공동 설립자인 요아브 쇼함(Yoav Shoham)은 "소형 모델은 컴퓨팅 성능을 덜 사용하기 때문에 많은 경우 대규모 언어 모델에 비해 1/6 정도의 비용이 든다고 말했다. 그는 "수십만 또는 수백만 개의 답변을 처리하는 경우 대규모 모델을 사용하기에는 경제성이 맞지 않는다"는 설명을 덧붙였다.


편슬기 글로벌이코노믹 기자 pyeonhaeyo@g-enews.com